JP5182544B2 - Video processing system and screen device - Google Patents

Video processing system and screen device Download PDF

Info

Publication number
JP5182544B2
JP5182544B2 JP2007127294A JP2007127294A JP5182544B2 JP 5182544 B2 JP5182544 B2 JP 5182544B2 JP 2007127294 A JP2007127294 A JP 2007127294A JP 2007127294 A JP2007127294 A JP 2007127294A JP 5182544 B2 JP5182544 B2 JP 5182544B2
Authority
JP
Japan
Prior art keywords
screen
video
information
projection
video processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007127294A
Other languages
Japanese (ja)
Other versions
JP2008281872A (en
Inventor
靖 立平
哲二郎 近藤
隆司 多胡
哲志 小久保
淳一 嶋
直人 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007127294A priority Critical patent/JP5182544B2/en
Publication of JP2008281872A publication Critical patent/JP2008281872A/en
Application granted granted Critical
Publication of JP5182544B2 publication Critical patent/JP5182544B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Overhead Projectors And Projection Screens (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Description

本発明は、放送やパッケージメディアなどの映像をスクリーンに映し出すプロジェクタシステムに適用可能な映像処理システム及びスクリーン装置に関する。詳しくは、スクリーン面に角度の異なる映写領域を自動的に複数形成し、映像信号から映像情報を抽出して分割し、当該分割された映像情報をスクリーンの映写領域の各々に照射することで、立体的に形成されたスクリーンに映像を映し出して臨場感のある映像を実現できるようにするものである。 The present invention is applicable image processing system in a projector system for projecting an image, such as broadcasting or package media to the screen, and a screen device. Specifically, by automatically forming a plurality of projection areas with different angles on the screen surface, extracting and dividing the video information from the video signal, and irradiating the divided video information to each of the projection areas on the screen, The image is projected on a three-dimensional screen so that a realistic image can be realized.

従来、放送やパッケージメディアから映像信号を入力してプロジェクタによりスクリーンに映像を映し出すことが行われている。例えば、プロジェクタをスクリーンの前面側又は背面側に配置し、当該プロジェクタにDVDなどの映像を再生するプレイヤーを接続してスクリーンに映像を映し出す。   2. Description of the Related Art Conventionally, a video signal is input from a broadcast or package media, and a video is projected on a screen by a projector. For example, the projector is arranged on the front side or the back side of the screen, and a player that reproduces an image such as a DVD is connected to the projector to display the image on the screen.

通常、一つの平面のスクリーンに映像を映し出すが、複数のスクリーンを並べて組み合わせて視聴者を取り囲む形にスクリーンを配置する場合がある。複数のプロジェクタを用いて、このように配置された各スクリーンに映像を照射する。これにより、臨場感のある映像を表示することができる。   Usually, an image is displayed on a single plane screen, but there are cases where a plurality of screens are arranged side by side and are arranged so as to surround the viewer. A plurality of projectors are used to irradiate images on the screens arranged in this way. Thereby, a realistic video can be displayed.

このような従来例に係る映像再生方法に関連して特許文献1には、背面投写型表示装置が開示されている。この背面投写型表示装置によれば、スクリーンの中央部を固定した状態で、スクリーンの両端部が視聴者側へ向かって移動する。これにより、スクリーンが平面から凹曲面に変形するので、視聴者は、凹曲面形状をなす映像によって取り囲まれた感じを受けることになり、臨場感が高まる。   In relation to such a conventional video reproduction method, Patent Document 1 discloses a rear projection display device. According to this rear projection display device, both end portions of the screen move toward the viewer side while the central portion of the screen is fixed. As a result, the screen is deformed from a flat surface to a concave curved surface, so that the viewer receives a feeling of being surrounded by the image having the concave curved surface shape, and the presence is enhanced.

また、特許文献2には、ディスプレイが開示されている。このディスプレイによれば、2つの表示パネルを所定角度を持って接続して構成し、表示対象である映像の部分映像およびその変形態様を制御するものである。これにより、表示パネルの位置関係に関わらず歪みのない映像が表示できるようになる。   Patent Document 2 discloses a display. According to this display, two display panels are connected to each other with a predetermined angle, and a partial video of a video to be displayed and its deformation mode are controlled. Thereby, an image without distortion can be displayed regardless of the positional relationship of the display panel.

特開平10−239769号公報(第3頁、第2図)Japanese Patent Laid-Open No. 10-239769 (page 3, FIG. 2) 特開2005−115069号公報(第9頁、第7図)Japanese Patent Laying-Open No. 2005-115069 (page 9, FIG. 7)

ところで、従来例に係る映像表示方法によれば、複数のスクリーンを並べて組み合わせて視聴者を取り囲む形に配置されたスクリーンに、プロジェクタにより映像を照射している。しかしながら、このように複数のスクリーンを並べて組み合わせた場合、スクリーンが部屋のスペースを占拠して部屋のスペースの使用効率を下げると共に、スクリーンを使用していないときの見栄えが悪かった。   By the way, according to the video display method according to the conventional example, a projector irradiates a screen on a screen arranged in a shape surrounding a viewer by arranging a plurality of screens side by side. However, when a plurality of screens are combined side by side in this way, the screen occupies the space of the room to reduce the use efficiency of the room space, and the appearance when the screen is not used is poor.

また、複数のスクリーンの位置関係を変更する場合は、スクリーンの移動は人手で行われ位置関係の再現性に乏しかった。更に、移動にはそれなりの労力を要するので、手軽にスクリーンの配置を変えて楽しむような視聴形態はあまり普及していないのが現状である。   In addition, when changing the positional relationship of a plurality of screens, the screen is moved manually and the reproducibility of the positional relationship is poor. Furthermore, since a certain amount of labor is required for the movement, there are not so many viewing forms that are easily enjoyed by changing the arrangement of the screen.

また、特許文献1に記載の背面投写型表示装置によれば、スクリーンを凹曲面状に形成できても、凹曲面以外のスクリーン形状を形成することが難しく、スクリーンの変形パターンが限られる問題がある。また、特許文献2に記載のディスプレイによれば、2つの表示パネルの配置パターンが限られ、所望の形状のディスプレイを構成することが困難である。   Further, according to the rear projection display device described in Patent Document 1, even if the screen can be formed in a concave curved surface, it is difficult to form a screen shape other than the concave curved surface, and there is a problem that the deformation pattern of the screen is limited. is there. Further, according to the display described in Patent Document 2, the arrangement pattern of the two display panels is limited, and it is difficult to configure a display having a desired shape.

そこで、本発明はこのような従来例に係る課題を解決したものであって、所望の形状のスクリーンを形成できるようにすると共に、立体的に形成されたスクリーンに映像を映し出して臨場感のある映像を実現できるようにした映像処理システム、映像処理方法及びスクリーン装置を提供することを目的とする。   Therefore, the present invention solves the problems related to the conventional example, and allows a screen having a desired shape to be formed, and also displays an image on a three-dimensionally formed screen to provide a sense of presence. It is an object of the present invention to provide a video processing system, a video processing method, and a screen device that can realize a video.

上述した課題を解決するために、本発明に係る映像処理システムは、映像信号を処理してスクリーンに映像を映し出すシステムであって、前記スクリーンを巻き取り又は前記スクリーンが引き出されて当該スクリーンを伸縮するスクリーン伸縮手段と、前記スクリーン伸縮手段により伸縮される前記スクリーンに角度の異なる映写領域を自動的に複数形成する映写領域形成手段と、前記映像信号を入力し、当該映像信号から映像情報を抽出して分割する映像処理装置と、前記映像処理装置により分割された映像情報を入力し、当該分割された映像情報を前記スクリーンの映写領域の各々に照射する複数の映写機とを備えることを特徴とするものである。   In order to solve the above-described problems, a video processing system according to the present invention is a system that processes a video signal and displays a video on a screen, and the screen is wound up or pulled out to expand and contract the screen. Screen expansion / contraction means, projection area forming means for automatically forming a plurality of projection areas with different angles on the screen expanded / contracted by the screen expansion / contraction means, and inputting the video signal, and extracting video information from the video signal And a plurality of projectors for inputting the video information divided by the video processing device and irradiating the divided video information to each of the projection areas of the screen. To do.

本発明に係る映像処理システムによれば、映像信号を処理してスクリーンに映像を映し出す場合であって、スクリーン伸縮手段は、スクリーンを巻き取り又はスクリーンが引き出されて当該スクリーンを伸縮する。映写領域形成手段は、スクリーン伸縮手段により伸縮されるスクリーンに角度の異なる映写領域を自動的に複数形成する。映像処理装置は、映像信号から映像情報を抽出して分割する。複数の映写機は、映像処理装置により分割された映像情報をスクリーンの映写領域の各々に照射する。これにより、角度の異なる映写領域が複数形成されたスクリーンに、映像を映し出すことができる。   According to the video processing system of the present invention, when the video signal is processed and the video is displayed on the screen, the screen expansion / contraction means winds the screen or pulls out the screen to expand and contract the screen. The projection area forming means automatically forms a plurality of projection areas with different angles on the screen expanded and contracted by the screen expansion and contraction means. The video processing device extracts video information from the video signal and divides it. The plurality of projectors irradiate each of the projection areas of the screen with the video information divided by the video processing device. Thereby, an image can be projected on a screen on which a plurality of projection areas having different angles are formed.

上述した課題を解決するために、本発明に係るスクリーン装置は、照射される映像を映し出すスクリーンと、前記スクリーンを巻き取り又は前記スクリーンが引き出されて当該スクリーンを伸縮するスクリーン伸縮手段と、前記スクリーン伸縮手段により伸縮される前記スクリーンの所定部位を押し出して区切ると共に、角度の異なる映写領域を前記スクリーンに自動的に複数形成する映写領域形成手段とを備えることを特徴とするものである。   In order to solve the above-described problems, a screen device according to the present invention includes a screen that displays an image to be irradiated, a screen expansion / contraction unit that retracts the screen or retracts the screen by pulling out the screen, and the screen. Projection area forming means for extruding and dividing predetermined portions of the screen expanded and contracted by the expansion / contraction means and automatically forming a plurality of projection areas with different angles on the screen is provided.

本発明に係るスクリーン装置によれば、スクリーンは、照射される映像を映し出す。スクリーン伸縮手段は、スクリーンを巻き取り又はスクリーンが引き出されて当該スクリーンを伸縮する。映写領域形成手段は、スクリーン伸縮手段により伸縮されるスクリーンの所定部位を押し出して区切ると共に、角度の異なる映写領域をスクリーンに自動的に複数形成する。これにより、複数の映写機を用いて映像を立体的に映し出すことができるようになる。   With the screen device according to the present invention, the screen displays the image to be irradiated. The screen expansion / contraction means expands or contracts the screen by winding the screen or pulling out the screen. The projection area forming means pushes and separates predetermined portions of the screen expanded and contracted by the screen expansion / contraction means, and automatically forms a plurality of projection areas having different angles on the screen. As a result, it becomes possible to project a video in three dimensions using a plurality of projectors.

本発明に係る映像処理システムよれば、映像信号を処理してスクリーンに映像を映し出す場合であって、スクリーンに角度の異なる映写領域を自動的に複数形成し、これらのスクリーンの映写領域の各々に、分割された映像情報を照射するものである。 According to the video processing system of the present invention, when a video signal is processed to display a video on a screen, a plurality of projection areas having different angles are automatically formed on the screen, and each of the projection areas of these screens is formed. In addition, the divided video information is irradiated.

この構成によって、立体的に形成されたスクリーンに映像を映し出すことができる。これにより、現実に近い臨場感のある映像を実現できるようになる。   With this configuration, an image can be projected on a three-dimensionally formed screen. This makes it possible to realize a realistic video image.

本発明に係るスクリーン装置によれば、巻き取り又は引き出されて伸縮されるスクリーンの所定部位を押し出して区切ると共に、角度の異なる映写領域を自動的に複数形成する映写領域形成手段を備えるものである。   According to the screen device of the present invention, there is provided projection area forming means for extruding and separating a predetermined portion of the screen that is wound or pulled out and expanded and contracted, and automatically forming a plurality of projection areas having different angles. .

この構成によって、スクリーンの形状を立体的に変形することができる。従って、立体的に形成されたスクリーンに映像が照射されることによって、現実に近い臨場感のある映像を映し出すことができるようになる。   With this configuration, the shape of the screen can be three-dimensionally deformed. Therefore, by irradiating an image on a three-dimensionally formed screen, it is possible to project a realistic image close to reality.

続いて、本発明に係る映像処理システム、映像処理方法及びスクリーン装置の一実施例について、図面を参照しながら説明をする。   Subsequently, an embodiment of a video processing system, a video processing method, and a screen device according to the present invention will be described with reference to the drawings.

図1は、本発明に係る第1の実施例としてのリアプロジェクションシステム100の構成例を示す斜視図である。図1に示すリアプロジェクション(背面投射型)システム100は、放送やパッケージメディアなどから映像信号を入力して背面からスクリーンに映像を映し出すものである。このリアプロジェクションシステム100は、映像処理装置1、3台のプロジェクタ2L、2C、2R及びスクリーン装置3を備えて構成され、例えば部屋の壁などにビルドインされて設置される。これにより、部屋のスペースの使用効率を上げることができる。3台のプロジェクタ2L、2C、2Rは、スクリーン装置3の背後に設置され、当該スクリーン装置3の映写領域の各々に映像を照射する。   FIG. 1 is a perspective view showing a configuration example of a rear projection system 100 as a first embodiment according to the present invention. A rear projection (rear projection type) system 100 shown in FIG. 1 inputs a video signal from a broadcast, package media, or the like, and projects a video on the screen from the back. The rear projection system 100 includes a video processing device 1, three projectors 2L, 2C, and 2R and a screen device 3, and is built in a wall of a room, for example. Thereby, the use efficiency of the space of a room can be raised. The three projectors 2L, 2C, and 2R are installed behind the screen device 3, and irradiate each projection area of the screen device 3 with an image.

スクリーン装置3は、スクリーン伸縮柱4L、4R、スクリーン領域形成機構5及びスクリーン10から構成される。左右のスクリーン伸縮柱4L、4Rはスクリーン伸縮手段の一例として機能し、スクリーン10を巻き取り又はスクリーン10が引き出されて当該スクリーン10を伸縮する。この例で、スクリーン伸縮柱4L、4Rは、壁に開口された開口部の枠11の両側端に回転自在に設置される。   The screen device 3 includes screen telescopic columns 4L and 4R, a screen region forming mechanism 5 and a screen 10. The left and right screen expansion / contraction columns 4L and 4R function as an example of a screen expansion / contraction means. The screen 10 is wound or the screen 10 is pulled out to expand and contract the screen 10. In this example, the screen telescopic columns 4L and 4R are rotatably installed on both side ends of the frame 11 of the opening opened in the wall.

スクリーン領域形成機構5は映写領域形成手段の一例を構成し、スクリーン伸縮柱4L、4Rにより伸縮されるスクリーン10の所定部位を押し出して区切ると共に、角度の異なる映写領域をスクリーン10に自動的に複数形成する。この例で、スクリーン領域形成機構5は、ボール螺子機構6L、6R、ポール7L、7R及び駆動部の一例として機能するスクリーン駆動部8L、8Rを備える。スクリーン駆動部8Lは、ボール螺子機構6Lを駆動し、スクリーン駆動部8Rはボール螺子機構6Rを駆動する。ボール螺子機構6L、6Rは移動機構の一例として機能し、回転運動を直線運動に変換する。ボール螺子機構6Lは、一端がスクリーン伸縮柱4Lに回転自在に取り付けられ、ボール螺子機構6Rは、一端がスクリーン伸縮柱4Rに回転自在に取り付けられる。ポール7L、7Rは領域区画部材の一例であり、スクリーン10を区画して角度の異なる映写領域を設けるようになされる。ポール7Lは、ボール螺子機構6L上を移動し、ポール7Rはボール螺子機構6R上を移動するようになされる。なお、ポール7L、7Rの素材には透明なアクリル樹脂などを使用し、視覚的に邪魔にならないようにする。また、移動機構としてボール螺子機構6L、6Rを用いたが、これに限らずエアーシリンダーなどポールを移動できる機構なら何でもよい。   The screen area forming mechanism 5 constitutes an example of a projection area forming means. The screen area forming mechanism 5 extrudes a predetermined portion of the screen 10 that is expanded and contracted by the screen expansion / contraction columns 4L and 4R and divides a plurality of projection areas having different angles automatically on the screen 10. Form. In this example, the screen region forming mechanism 5 includes ball screw mechanisms 6L and 6R, poles 7L and 7R, and screen drive units 8L and 8R that function as an example of a drive unit. The screen drive unit 8L drives the ball screw mechanism 6L, and the screen drive unit 8R drives the ball screw mechanism 6R. The ball screw mechanisms 6L and 6R function as an example of a moving mechanism, and convert rotational motion into linear motion. One end of the ball screw mechanism 6L is rotatably attached to the screen telescopic column 4L, and one end of the ball screw mechanism 6R is rotatably attached to the screen extendable column 4R. The poles 7L and 7R are an example of a region partition member, and partition the screen 10 to provide projection regions having different angles. The pole 7L moves on the ball screw mechanism 6L, and the pole 7R moves on the ball screw mechanism 6R. In addition, a transparent acrylic resin or the like is used for the material of the poles 7L and 7R so as not to disturb the visual. Further, the ball screw mechanisms 6L and 6R are used as the moving mechanism. However, the mechanism is not limited to this, and any mechanism that can move the pole, such as an air cylinder, may be used.

映像処理装置1は、放送やパッケージメディアなどから入力した映像信号を、当該映像信号から映像情報を抽出して3つの映像情報SDL、SDC、SDRに分割する。   The video processing device 1 extracts video information from a video signal input from broadcast or package media, and divides the video signal into three video information SDL, SDC, and SDR.

この例で、映像処理装置1は、抽出した映像情報の動きベクトルに基づいて映像の構図を解析する映像構図解析部22(図6参照)を備える。映像処理装置1は、この映像構図解析部22により解析された結果に基づいて映像情報を3つの映像情報SDL、SDC、SDRに分割すると共に、スクリーン形状を制御するための制御信号SRin、SLinを生成する。   In this example, the video processing apparatus 1 includes a video composition analysis unit 22 (see FIG. 6) that analyzes the composition of the video based on the extracted motion vector of the video information. The video processing device 1 divides the video information into three video information SDL, SDC, and SDR based on the result analyzed by the video composition analysis unit 22 and outputs control signals SRin and SLin for controlling the screen shape. Generate.

映像処理装置1は、左右のスクリーン駆動部8L、8Rに接続され、生成した制御信号SLinをスクリーン駆動部8Lに出力し、制御信号SRinをスクリーン駆動部8Rに出力する。スクリーン駆動部8L、8Rは、この制御信号SLin、SRinに基づいてボール螺子機構6L、6Rの各々を駆動して、スクリーン10に角度の異なる映写領域を自動的に複数形成させる。   The video processing apparatus 1 is connected to the left and right screen drive units 8L and 8R, outputs the generated control signal SLin to the screen drive unit 8L, and outputs the control signal SRin to the screen drive unit 8R. The screen drivers 8L and 8R drive each of the ball screw mechanisms 6L and 6R based on the control signals SLin and SRin to automatically form a plurality of projection areas with different angles on the screen 10.

また、映像処理装置1は、複数の映写機の一例であるプロジェクタ2L、2C、2Rに接続され、分割した3つの映像情報SDL、SDC、SDRを当該プロジェクタの各々に出力する。この例で、映像処理装置1は、映像情報SDLをプロジェクタ2Lに出力し、映像情報SDCをプロジェクタ2Cに出力し、映像情報SDRをプロジェクタ2Rに出力する。また、映像処理装置1は、プロジェクタ2L〜2Rに構図情報を出力する。   The video processing apparatus 1 is connected to projectors 2L, 2C, and 2R, which are examples of a plurality of projectors, and outputs the divided three pieces of video information SDL, SDC, and SDR to each of the projectors. In this example, the video processing device 1 outputs video information SDL to the projector 2L, outputs video information SDC to the projector 2C, and outputs video information SDR to the projector 2R. The video processing apparatus 1 outputs composition information to the projectors 2L to 2R.

プロジェクタ2L、2C、2Rは、該当する映像情報及び構図情報に基づいて当該プロジェクタの映写方向を変更し、映像情報をスクリーン10の映写領域の各々に照射する。これにより、所望の形状に形成されたスクリーン10に映像を映し出すことができるようになる。従って、現実に近い臨場感のある映像を実現できるようになる。   The projectors 2L, 2C, and 2R change the projection direction of the projector based on the corresponding video information and composition information, and irradiate each of the projection areas of the screen 10 with the video information. Thereby, an image can be projected on the screen 10 formed in a desired shape. Accordingly, it is possible to realize a realistic video image.

図2は、スクリーン領域形成機構5の要部の構成例を示す斜視図である。図2に示すスクリーン領域形成機構5のボール螺子機構6Lは、レール6a、ボール螺子軸6b、ナット6c及びモータ6dから構成される。ボール螺子機構6Lのレール6aは、一端がスクリーン伸縮柱4Lの下端部に回転自在に取り付けられている。この例で、このスクリーン伸縮柱4Lの下端部には、レール6aを回転するためのモータ6eが取り付けられている。このモータ6eが回転することにより、レール6aがスクリーン伸縮柱4Lを回転軸にして回転する。   FIG. 2 is a perspective view illustrating a configuration example of a main part of the screen region forming mechanism 5. The ball screw mechanism 6L of the screen region forming mechanism 5 shown in FIG. 2 includes a rail 6a, a ball screw shaft 6b, a nut 6c, and a motor 6d. One end of the rail 6a of the ball screw mechanism 6L is rotatably attached to the lower end of the screen telescopic column 4L. In this example, a motor 6e for rotating the rail 6a is attached to the lower end of the screen telescopic column 4L. As the motor 6e rotates, the rail 6a rotates around the screen telescopic column 4L as a rotation axis.

レール6aには溝部6gが形成され、この溝部6gにボール螺子軸6bが設置される。このボール螺子軸6bの一端には、モータ6dの回転軸が結合される。また、ボール螺子軸6bにはナット6cが螺合される。このナット6cには、ポール7Lが取り付けられる。ナット6cはレール6aの溝部6gにスライド自在に係合される。   A groove 6g is formed in the rail 6a, and a ball screw shaft 6b is installed in the groove 6g. A rotating shaft of a motor 6d is coupled to one end of the ball screw shaft 6b. A nut 6c is screwed onto the ball screw shaft 6b. A pole 7L is attached to the nut 6c. The nut 6c is slidably engaged with the groove 6g of the rail 6a.

このように構成することで、モータ6dが例えば正回転するとボール螺子軸6bが正回転してナット6cがレール6a上を矢印Wの方向へ進行する。また、モータ6dが逆回転するとボール螺子軸6bが逆回転してナット6cがレール6a上を矢印Wの反対方向へ進行する。従って、ナット6cに取り付けられたポール7Lにより、スクリーン10を押し出して区切ると共に、角度の異なる映写領域をスクリーン10に自動的に形成することができる。   With this configuration, when the motor 6d rotates forward, for example, the ball screw shaft 6b rotates forward and the nut 6c advances in the direction of arrow W on the rail 6a. When the motor 6d rotates in the reverse direction, the ball screw shaft 6b rotates in the reverse direction and the nut 6c advances on the rail 6a in the direction opposite to the arrow W. Accordingly, the screen 7 can be pushed out and separated by the pole 7L attached to the nut 6c, and projection areas with different angles can be automatically formed on the screen 10.

なお、スクリーン伸縮柱4Lは、ポール7Lの動きに合わせてスクリーン10を巻き取り又はスクリーン10が引き出されて当該スクリーン10を伸縮する。この例で、スクリーン伸縮柱4Lは、不図示のぜんまいばねが内蔵され、このぜんまいばねにスクリーン10を巻き取る巻取り軸が係合されている。これにより、スクリーン伸縮柱4Lには、常にスクリーン10を巻き取る力が働いている。   The screen extendable column 4L winds up the screen 10 in accordance with the movement of the pole 7L, or the screen 10 is pulled out to expand and contract the screen 10. In this example, the screen telescopic column 4L incorporates a mainspring spring (not shown), and a winding shaft for winding the screen 10 is engaged with the mainspring spring. Thereby, the force which winds up the screen 10 is always acting on the screen telescopic column 4L.

なお、左側のボール螺子機構6Lについて説明したが、もちろん、右側のボール螺子機構6Rも同様に、レール6a、ボール螺子軸6b、ナット6c及びモータ6dから構成されて動作する。   Although the left ball screw mechanism 6L has been described, of course, the right ball screw mechanism 6R is similarly configured and operated by a rail 6a, a ball screw shaft 6b, a nut 6c, and a motor 6d.

図3は、ボール螺子機構6Lの構成例を示す断面図である。図3に示すボール螺子機構6Lは、当該ボール螺子機構6Lの長手方向に対して垂直に切断した図である。このボール螺子機構6Lのボール螺子軸6bに螺合されたナット6cの形状はT形状である。このT形状のナット6cの鍔部6hが、レール6aの溝部6gにガイドされている。これにより、レール6aの溝部6gにガイドされたナット6cは、ボール螺子軸6bが回転すると、姿勢を維持した状態でレール6a上を進行する。従って、このナット6cの上面に垂直に取り付けられたポール7Lは略垂直状態を保ちながらレール6a上を移動する。   FIG. 3 is a cross-sectional view showing a configuration example of the ball screw mechanism 6L. The ball screw mechanism 6L shown in FIG. 3 is a view cut perpendicularly to the longitudinal direction of the ball screw mechanism 6L. The shape of the nut 6c screwed to the ball screw shaft 6b of the ball screw mechanism 6L is a T shape. The flange 6h of the T-shaped nut 6c is guided by the groove 6g of the rail 6a. Thereby, the nut 6c guided by the groove 6g of the rail 6a advances on the rail 6a while maintaining the posture when the ball screw shaft 6b rotates. Therefore, the pole 7L vertically attached to the upper surface of the nut 6c moves on the rail 6a while maintaining a substantially vertical state.

図4A〜Dは、プロジェクタ2L、2C、2Rによるスクリーン10への照射例を示す説明図である。図4Aは、スクリーン領域形成機構5の斜視模式図であり、図4Aに示すスクリーン10は、平面形状に設定されている。この平面スクリーンに対して、図4Bに示すプロジェクタ2L、2C、2Rの各々は、スクリーン10の所定領域を照射する。   4A to 4D are explanatory diagrams illustrating examples of irradiation on the screen 10 by the projectors 2L, 2C, and 2R. 4A is a schematic perspective view of the screen region forming mechanism 5, and the screen 10 shown in FIG. 4A is set in a planar shape. Each of the projectors 2L, 2C, and 2R shown in FIG. 4B irradiates a predetermined area of the screen 10 with respect to the flat screen.

図4Cは、スクリーン領域形成機構5の斜視模式図であり、図4Cに示すスクリーン10は、左スクリーン10L、中央スクリーン10C、右スクリーン10Rに3分割されて立体形状に設定されている。この立体スクリーン(3面スクリーン)に対して、図4Dに示すプロジェクタ2L、2C、2Rの各々は、スクリーン10の所定領域を照射する。この例で、プロジェクタ2Lは、左スクリーン10Lを照射し、プロジェクタ2Cは、中央スクリーン10Cを照射し、プロジェクタ2Rは、右スクリーン10Rを照射する。   FIG. 4C is a schematic perspective view of the screen region forming mechanism 5. The screen 10 shown in FIG. 4C is divided into a left screen 10L, a central screen 10C, and a right screen 10R, and is set in a three-dimensional shape. Each of the projectors 2L, 2C, and 2R shown in FIG. 4D irradiates a predetermined area of the screen 10 with respect to this three-dimensional screen (three-side screen). In this example, the projector 2L irradiates the left screen 10L, the projector 2C irradiates the center screen 10C, and the projector 2R irradiates the right screen 10R.

図5は、プロジェクタ2L、2C、2Rの位置の制御例を示す説明図である。図5に示すプロジェクタ2L、2C、2Rは、構図情報に基づいて当該プロジェクタの位置を移動して映写方向を変更する。この例でプロジェクタ2L、2C、2Rは、例えば電動XYステージにより移動する。   FIG. 5 is an explanatory diagram illustrating a control example of the positions of the projectors 2L, 2C, and 2R. Projectors 2L, 2C, and 2R shown in FIG. 5 change the projection direction by moving the position of the projector based on the composition information. In this example, the projectors 2L, 2C, and 2R are moved by, for example, an electric XY stage.

プロジェクタ2Lの位置(x1, y1)を決定する場合、左スクリーン10Lの大きさをサイズr1とし、このサイズr1の左スクリーン10Lを照射するのに最小のプロジェクタ投射距離を最小距離「d(r1)min」とする。 When determining the position of the projector 2L (x1, y1), the size of the left screen 10L and size r 1, the minimum distance the minimum projector projection distance to illuminate the left screen 10L of this size r 1 "d ( r 1 ) min ”.

このとき、プロジェクタ2Lの位置(x1, y1)は、式(1)、(2)により求められる。
x1 = 1/2r1・cos(θ1) - d(r1)min・sin(θ1) ・・・(1)
y1 = 1/2r1・sin(θ1) + d(r1)min・cos(θ1) ・・・(2)
At this time, the position (x1, y1) of the projector 2L is obtained by the equations (1) and (2).
x1 = 1 / 2r 1 · cos (θ 1 )-d (r 1 ) min · sin (θ 1 ) (1)
y1 = 1 / 2r 1 · sin (θ 1 ) + d (r 1 ) min · cos (θ 1 ) (2)

また、中央スクリーン10Cの大きさをサイズr3とし、この中央スクリーン10Cの表示面と、2本のスクリーン伸縮柱4Lと4R(図1参照)を結んだ線分とのなす角をθ3とする。このとき、プロジェクタ2Cの位置(x2,y2)を決定する場合、中央スクリーン10Cのサイズr3は、式(3)により求められる。
r3 = (D1 - r1cosθ1 - r2cosθ2)/cosθ3 ・・・(3)
このときの最小のプロジェクタ投射距離を最小距離「d(r3)min」とする。
Also, the size of the center screen 10C and size r 3, the display surface of the center screen 10C, the angle formed between the line connecting the two screens expandable column 4L and 4R (see FIG. 1) theta 3 and To do. In this case, when determining the position of the projector 2C (x2, y2), the size r 3 of the central screen 10C is obtained by the equation (3).
r 3 = (D1-r 1 cosθ 1 -r 2 cosθ 2 ) / cosθ 3 (3)
The minimum projector projection distance at this time is defined as a minimum distance “d (r 3 ) min”.

このとき、中央スクリーン10Cの中心の位置CP(xp2、yp2)は、式(4)、(5)により求められる。
xp2 = r1cosθ1 + 1/2r3cos(θ3) ・・・(4)
yp2 = r1sinθ1 + 1/2r3sin(θ3) ・・・(5)
At this time, the center position CP (xp2, yp2) of the center screen 10C is obtained by the equations (4) and (5).
xp2 = r 1 cosθ 1 + 1 / 2r 3 cos (θ 3 ) (4)
yp2 = r 1 sinθ 1 + 1 / 2r 3 sin (θ 3 ) (5)

以上よりプロジェクタ2Cの位置(x2, y2)は、式(6)、(7)により求められる。
x2 = xp2 - d(r3)min・sin(θ3)・・・(6)
y2 = yp2 + d(r3)min・cos(θ3)・・・(7)
From the above, the position (x2, y2) of the projector 2C is obtained by the equations (6) and (7).
x2 = xp2-d (r 3 ) min · sin (θ 3 ) (6)
y2 = yp2 + d (r 3 ) min · cos (θ 3 ) (7)

このようにして、プロジェクタ2L、2Cの位置を制御する。また、プロジェクタ2Lと同様にして、プロジェクタ2Rの位置を制御する。なお、θ3は、以下の式(8)によりボール螺子機構6L、6R及びレール6a(図2参照)の回転軸上に設けられる角度センサにより与えられる値(r1,r212)から求めることができる。
θ3 = tan-1(r1sinθ1-r2sinθ2)/(D1-r1cosθ1-r2cosθ2) ・・・(8)
In this way, the positions of the projectors 2L and 2C are controlled. Further, the position of the projector 2R is controlled in the same manner as the projector 2L. Note that θ 3 is a value (r 1 , r 2 , θ 1 ,...) Given by an angle sensor provided on the rotating shafts of the ball screw mechanisms 6L and 6R and the rail 6a (see FIG. 2) according to the following equation (8). θ 2 ).
θ 3 = tan -1 (r 1 sinθ 1 -r 2 sinθ 2 ) / (D1-r 1 cosθ 1 -r 2 cosθ 2 ) (8)

なお、スクリーン10の形状が変形してスクリーン10’の形状に設定された場合、図中のプロジェクタ2L’、2C’の位置に移動する。この場合もプロジェクタ2L、2Cと同様にして当該プロジェクタの位置を制御する。   When the shape of the screen 10 is deformed and set to the shape of the screen 10 ', it moves to the positions of the projectors 2L' and 2C 'in the drawing. Also in this case, the position of the projector is controlled in the same manner as the projectors 2L and 2C.

なお、最小距離「d(r1)min」、「d(r3)min」は、使用するプロジェクタのレンズのスペックより一意に定まる値である。プロジェクタの距離として最小距離を用いているがこれはスクリーン面輝度を大きくするためであり、輝度を必要としない場合は、最小距離である必要はない。また、スクリーン面に垂直となるように向きを調節し、上記の機構の可変範囲外となる場合は、レンズシフトなどを併用する。 Note that the minimum distances “d (r 1 ) min” and “d (r 3 ) min” are values that are uniquely determined from the specifications of the lens of the projector to be used. Although the minimum distance is used as the projector distance, this is to increase the screen surface brightness. When the brightness is not required, the minimum distance is not necessary. Also, the orientation is adjusted so that it is perpendicular to the screen surface, and when it is outside the variable range of the above mechanism, a lens shift or the like is also used.

図6は、映像処理装置1の制御系の構成例を示すブロック図である。図6に示す映像処理装置1の制御系は、映像情報分割部20、映像幾何変換部21、映像構図解析部22およびスクリーン形状制御部23から構成される。   FIG. 6 is a block diagram illustrating a configuration example of a control system of the video processing apparatus 1. The control system of the video processing apparatus 1 shown in FIG. 6 includes a video information dividing unit 20, a video geometric conversion unit 21, a video composition analysis unit 22, and a screen shape control unit 23.

映像構図解析部22は、映像構図解析手段の一例として機能し、映像処理装置1の入力端子24から映像信号SDinを入力する。この映像構図解析部22は、入力した映像信号SDinから映像フレーム毎の輝度情報や色差情報などの映像情報(画素情報)を抽出する。抽出後、映像構図解析部22は、ブロックマッチング方法などを用いて当該映像フレームに係る動きベクトルを検出し、当該動きベクトルに基づいて映像の構図を解析して構図情報SPをスクリーン形状制御部23に出力する。   The video composition analysis unit 22 functions as an example of a video composition analysis unit, and inputs the video signal SDin from the input terminal 24 of the video processing device 1. The video composition analysis unit 22 extracts video information (pixel information) such as luminance information and color difference information for each video frame from the input video signal SDin. After the extraction, the video composition analysis unit 22 detects a motion vector related to the video frame using a block matching method or the like, analyzes the video composition based on the motion vector, and outputs the composition information SP to the screen shape control unit 23. Output to.

この例で、映像構図解析部22は、フレームに係る動きベクトルの大きさが大きく変化する部分を映像の境界と判定し、この判定結果に基づいて映像の構図を3分割するように決定して構図情報SPを作成する。また、映像構図解析部22は、フレームに係る動きベクトルの向きが変化する部分を映像の境界と判定し、この判定結果に基づいて映像の構図を決定して構図情報SPを作成する。また、映像構図解析部22は、上述の動きベクトルの大きさが大きく変化する部分、及び動きベクトルの向きが変化する部分の両方の情報に基づいて映像の境界と判定し、この判定結果に基づいて映像の構図を決定して構図情報SPを作成する。映像構図解析部22は、作成した構図情報SPをスクリーン形状制御部23に出力する。   In this example, the video composition analysis unit 22 determines that a portion where the magnitude of the motion vector related to the frame greatly changes is a video boundary, and determines to divide the video composition into three based on the determination result. Composition information SP is created. Also, the video composition analysis unit 22 determines a portion where the direction of the motion vector relating to the frame changes as a video boundary, determines the video composition based on the determination result, and creates the composition information SP. Further, the video composition analysis unit 22 determines the video boundary based on both the information on the part where the magnitude of the motion vector changes greatly and the part where the direction of the motion vector changes, and based on the determination result. The composition of the video is determined and composition information SP is created. The video composition analysis unit 22 outputs the created composition information SP to the screen shape control unit 23.

スクリーン形状制御部23は、映像構図解析部22に接続され、この映像構図解析部22から構図情報SPを入力する。スクリーン形状制御部23は、この構図情報SPに基づいて、スクリーン10の形状を制御するための制御信号SRin、SLinを生成する。スクリーン形状制御部23は、制御信号SLinをスクリーン駆動部8Lに出力し、制御信号SRinをスクリーン駆動部8Rに出力する。   The screen shape control unit 23 is connected to the video composition analysis unit 22 and receives composition information SP from the video composition analysis unit 22. The screen shape control unit 23 generates control signals SRin and SLin for controlling the shape of the screen 10 based on the composition information SP. The screen shape control unit 23 outputs the control signal SLin to the screen driving unit 8L, and outputs the control signal SRin to the screen driving unit 8R.

スクリーン駆動部8L、8Rは、この制御信号SLin、SRinに基づいてボール螺子機構6L、6Rの各々を駆動して、スクリーン10に角度の異なる映写領域を自動的に複数形成させる。例えば、図2に示したように、スクリーン駆動部8Lは、スクリーン伸縮柱4Lの下端部に取り付けられたモータ6eを駆動させて、当該モータ6eの回転軸に結合されたボール螺子機構6Lのレール6aを回転させる。   The screen drivers 8L and 8R drive each of the ball screw mechanisms 6L and 6R based on the control signals SLin and SRin to automatically form a plurality of projection areas with different angles on the screen 10. For example, as shown in FIG. 2, the screen drive unit 8L drives the motor 6e attached to the lower end of the screen telescopic column 4L, and the rail of the ball screw mechanism 6L coupled to the rotation shaft of the motor 6e. Rotate 6a.

また、スクリーン駆動部8Lは、ボール螺子機構6Lのモータ6dを駆動させて、このモータ6dの回転軸に結合されたレール6a内のボール螺子軸6bを回転させて、このボール螺子軸6b上のナット6cを進行させてレール6a上を走らせる。このようにして、ナット6cに取り付けられたポール7Lにより、スクリーン10を押し出して区切ると共に、角度の異なる映写領域をスクリーン10に自動的に形成する。   Further, the screen drive unit 8L drives the motor 6d of the ball screw mechanism 6L to rotate the ball screw shaft 6b in the rail 6a coupled to the rotation shaft of the motor 6d, and on the ball screw shaft 6b. The nut 6c is advanced to run on the rail 6a. In this manner, the screen 10 is pushed out and separated by the pole 7L attached to the nut 6c, and projection areas having different angles are automatically formed on the screen 10.

映像情報分割部20は映像構図解析部22に接続され、この映像構図解析部22により出力された構図情報SPに基づいて映像信号SDinを3つの映像情報SDL’、SDC’、SDR’に分割する。   The video information dividing unit 20 is connected to the video composition analyzing unit 22 and divides the video signal SDin into three pieces of video information SDL ′, SDC ′, and SDR ′ based on the composition information SP output by the video composition analyzing unit 22. .

例えば、構図情報SPがフレームを等間隔で3分の1づつ分割する情報である場合、映像情報分割部20は、先ずフレーム全体の映像情報をメモリに保存し、保存された映像情報から当該映像情報(画素)の左側3分の1を読み出して映像情報SDL’として映像幾何変換部21に出力する。また、映像情報分割部20は、当該映像情報の中央3分の1を読み出して映像情報SDC’として映像幾何変換部21に出力する。また、映像情報分割部20は、当該映像情報の右側3分の1を読み出して映像情報SDR’として映像幾何変換部21に出力する。   For example, when the composition information SP is information that divides a frame by one third at regular intervals, the video information dividing unit 20 first stores the video information of the entire frame in a memory, and the video information is stored from the stored video information. The left third of the information (pixel) is read out and output to the video geometric transformation unit 21 as video information SDL ′. Further, the video information dividing unit 20 reads the central third of the video information and outputs it to the video geometric conversion unit 21 as the video information SDC ′. In addition, the video information dividing unit 20 reads the right third of the video information and outputs it to the video geometric conversion unit 21 as video information SDR ′.

映像幾何変換部21は、映像幾何変換手段の一例として機能し、映像情報分割部20に接続される。映像幾何変換部21は、この映像情報分割部20から映像情報SDL’、SDC’、SDR’を入力する。また、映像幾何変換部21は映像構図解析部22に接続され、この映像構図解析部22から構図情報SPを入力する。映像幾何変換部21は、構図情報SPに基づいて映像情報SDL’、SDC’、SDR’を幾何変換(例えばアフィン変換)して映像情報SDL、SDC、SDRとする。   The video geometric conversion unit 21 functions as an example of a video geometric conversion unit and is connected to the video information dividing unit 20. The video geometric conversion unit 21 inputs the video information SDL ′, SDC ′, and SDR ′ from the video information dividing unit 20. The video geometric conversion unit 21 is connected to the video composition analysis unit 22 and receives composition information SP from the video composition analysis unit 22. The video geometric transformation unit 21 geometrically transforms the video information SDL ′, SDC ′, SDR ′ based on the composition information SP (for example, affine transformation) to obtain video information SDL, SDC, SDR.

ここで、アフィン変換とは、元の図形で直線上に並ぶ点は変換後も直線上に並び、平行線は変換後も平行線であるなど、幾何学的性質を保つように変換することをいう。これにより、スクリーン10に映像が照射されたときに、スクリーン10に映し出された映像が歪むことを防止できる。アフィン変換後、映像幾何変換部21は、映像情報SDLをプロジェクタ2Lに出力し、映像情報SDCをプロジェクタ2Cに出力し、映像情報SDRをプロジェクタ2Rに出力する。   Here, affine transformation refers to transformation that preserves the geometric properties, such as the points that are aligned on a straight line in the original figure are aligned on the straight line after conversion, and the parallel lines are parallel lines after conversion. Say. Thereby, when the screen 10 is irradiated with an image, the image displayed on the screen 10 can be prevented from being distorted. After the affine transformation, the video geometric conversion unit 21 outputs the video information SDL to the projector 2L, outputs the video information SDC to the projector 2C, and outputs the video information SDR to the projector 2R.

プロジェクタ2L〜2Rは、映像幾何変換部21に接続され、この映像幾何変換部21から映像情報SDL、SDC、SDRを入力する。また、プロジェクタ2L〜2Rは、映像構図解析部22に接続され、この映像構図解析部22から構図情報SPを入力する。プロジェクタ2L〜2Rは、構図情報SPに基づいて当該プロジェクタの映写方向を変更して、映像情報SDL、SDC、SDRをスクリーン10に映写する(図5参照)。これにより、所望の形状のスクリーン10を形成できると共に、立体的に形成されたスクリーン10に映像を映し出すことができる。従って、現実に近い臨場感のある映像を実現できるようになる。   The projectors 2L to 2R are connected to the video geometric conversion unit 21, and input video information SDL, SDC, SDR from the video geometric conversion unit 21. Further, the projectors 2L to 2R are connected to the video composition analysis unit 22 and input the composition information SP from the video composition analysis unit 22. The projectors 2L to 2R change the projection direction of the projector based on the composition information SP and project the video information SDL, SDC, SDR on the screen 10 (see FIG. 5). As a result, a screen 10 having a desired shape can be formed, and an image can be projected on the three-dimensionally formed screen 10. Accordingly, it is possible to realize a realistic video image.

続いて、図7〜図9を参照して、映像構図解析部22の映像の処理例を説明する。図7A及びBは映像構図解析部22の動画処理例を示す説明図である。この例で、映像構図解析部22は、ブロックマッチング法を用いて動画の動きベクトルを求める。   Next, a video processing example of the video composition analysis unit 22 will be described with reference to FIGS. 7A and 7B are explanatory diagrams illustrating an example of a moving image process of the video composition analysis unit 22. In this example, the video composition analysis unit 22 obtains a motion vector of a moving image using a block matching method.

ここで、ブロックマッチング法とは、先ず、対象となる連続する二つのフレームの前フレームにおいて、動きを検出したい画像が含まれる小領域をブロックとして記憶する。次に、後フレームにおいて、先のブロックと同じ大きさの領域(比較領域のブロック)で画像の類似度を求める。更に、フレーム内の比較領域をずらして同様に類似度を求める。これをフレームの全体の領域に対して行う。この中からもっとも類似度が大きい領域が、動き検出をしたい物体の画像が移動した領域である。この領域の座標と先に記憶した前ブロックの座標から移動距離と移動方向を求めて動きベクトルとする。なお、ブロックマッチング法は、フレーム全体の領域で対象ブロックと類似度を求めるため、処理量は莫大になる。そこで、移動検出したい物体部分の画像を中心として、その周辺の領域をマッチング領域にすると、フレーム全体に対して探索しないので処理量を減少することができる。   Here, in the block matching method, first, a small area including an image whose motion is to be detected is stored as a block in the previous frame of two consecutive frames to be processed. Next, in the subsequent frame, the image similarity is obtained in an area having the same size as the previous block (a block in the comparison area). Further, the similarity is similarly obtained by shifting the comparison region in the frame. This is done for the entire area of the frame. Of these, the region with the highest similarity is the region where the image of the object whose motion is to be detected has moved. A movement distance and a movement direction are obtained from the coordinates of this area and the coordinates of the previous block stored in advance, and set as a motion vector. Since the block matching method obtains the similarity with the target block in the entire frame area, the processing amount is enormous. Therefore, if the region around the image of the object part whose movement is to be detected is used as a matching region, the entire frame is not searched, so that the processing amount can be reduced.

図7Aに示す映像の動画フレーム30は、走行中の電車の運転席のカメラによって映した映像の動画フレーム30である。図7Bは、この動画フレーム30に係る動きベクトルの例を示した模式図である。図7Bに示す動画フレーム30の動きベクトルH、I、Jの移動方向は、動画フレーム30の中心から左斜め上に移動する方向である。また、動きベクトルH、I、Jの大きさ(移動距離)は、動画フレーム30中央部の動きベクトルHが最も小さく、次いで、動画フレーム30中央左側の動きベクトルIが小さく、動画フレーム30左側の動きベクトルJが最も大きい。   The moving image frame 30 of the image shown in FIG. 7A is a moving image frame 30 of the image projected by the camera in the driver's seat of the running train. FIG. 7B is a schematic diagram illustrating an example of a motion vector related to the moving image frame 30. The moving directions of the motion vectors H, I, and J of the moving image frame 30 illustrated in FIG. 7B are directions in which the moving vectors H, I, and J move diagonally upward to the left from the center of the moving image frame 30. In addition, the motion vectors H, I, and J have the smallest motion vector H at the center of the moving image frame 30, and the smaller the motion vector I at the center left of the moving image frame 30. The motion vector J is the largest.

また、動画フレーム30と異なる方向の動きベクトルK、L、Mの移動方向は、動画フレーム30の中心から右斜め上に移動する方向である。また、動きベクトルK、L、Mの大きさ(移動距離)は、動画フレーム30中央部の動きベクトルKが最も小さく、次いで、動画フレーム30中央右側の動きベクトルLが小さく、動画フレーム30右側の動きベクトルMが最も大きい。   In addition, the moving direction of the motion vectors K, L, and M in a direction different from that of the moving image frame 30 is a direction in which the moving vectors K, L, and M move diagonally right upward from the center of the moving image frame 30. In addition, the motion vectors K, L, and M have the smallest motion vector K at the center of the moving image frame 30, and then the motion vector L at the center right of the moving image frame 30 is small, and the right side of the moving image frame 30. The motion vector M is the largest.

このとき、図6に示した映像構図解析部22は、動画フレーム30に係る動きベクトルの大きさが大きい動きベクトルJの移動開始位置Xを繋いだ線を映像の第1境界と判定して分割線Pと決定し、更に、動きベクトルの大きさが大きい動きベクトルMの移動開始位置Yを繋いだ線を映像の第2境界と判定して分割線Qと決定する。決定後、映像構図解析部22は、動画フレーム30を分割線P及び分割線Qで区切り、当該動画フレーム30を領域BAL、BAC、BARに3分割するための構図情報SPを作成してスクリーン形状制御部23、映像情報分割部20などに出力する。   At this time, the video composition analysis unit 22 shown in FIG. 6 determines that the line connecting the movement start positions X of the motion vectors J having a large motion vector related to the moving image frame 30 is the first boundary of the video and divides the video. The line P is determined, and the line connecting the movement start positions Y of the motion vectors M having a large motion vector is determined as the second boundary of the video and determined as the dividing line Q. After the determination, the video composition analysis unit 22 divides the moving picture frame 30 by the dividing line P and the dividing line Q, and creates composition information SP for dividing the moving picture frame 30 into the regions BAL, BAC, and BAR to form the screen shape. The data is output to the control unit 23, the video information dividing unit 20, and the like.

スクリーン形状制御部23は、この構図情報SPに基づいてスクリーン10の形状を制御するための制御信号SRin、SLinを生成してスクリーン駆動部8L、8Rに出力する。スクリーン駆動部8L、8Rは、この制御信号SLin、SRinに基づいてボール螺子機構6L、6Rの各々を駆動する。このボール螺子機構6L、6Rに係合されたポール7L、7Rは、図7Cに示すようにスクリーン10を押し出して区切ると共に、角度の異なる映写領域10L、10C、10Rをスクリーン10に自動的に形成する。   The screen shape control unit 23 generates control signals SRin and SLin for controlling the shape of the screen 10 based on the composition information SP and outputs the control signals SRin and SLin to the screen drive units 8L and 8R. The screen drivers 8L and 8R drive the ball screw mechanisms 6L and 6R based on the control signals SLin and SRin. The poles 7L and 7R engaged with the ball screw mechanisms 6L and 6R extrude and partition the screen 10 as shown in FIG. 7C, and automatically form projection areas 10L, 10C and 10R with different angles on the screen 10. To do.

一方で、映像情報分割部20は、構図情報SPに基づいて映像信号SDinを3つの映像情報SDL’、SDC’、SDR’に分割して映像幾何変換部21に出力する。映像幾何変換部21は、映像情報SDC’の動画フレーム30の領域BACに関しては分割した映像をそのまま提示し、映像情報SDL’、SDR’の静止画フレーム31の領域BAL、BARへの表示画面については、図7Cの視聴ポイントZの位置から観察した側面画面として違和感の無い様にアフィン変換を施す。   On the other hand, the video information dividing unit 20 divides the video signal SDin into three pieces of video information SDL ′, SDC ′, and SDR ′ based on the composition information SP, and outputs the video information SDin to the video geometric conversion unit 21. The video geometric conversion unit 21 presents the divided video as it is with respect to the area BAC of the moving image frame 30 of the video information SDC ′, and the display screen on the areas BAL and BAR of the still image frame 31 of the video information SDL ′ and SDR ′. Performs affine transformation so that the side screen observed from the position of the viewing point Z in FIG.

なお、分割線P又は分割線Qが上述の例のように直線とならない場合、映像構図解析部22は、分割線P又は分割線Qが垂直となるように矯正する。例えば、映像構図解析部22は、移動開始位置Xの各々と等しい距離にある線分の中心点を求め、当該中心点を通過する垂線を分割線Pとする。   When the dividing line P or the dividing line Q is not a straight line as in the above example, the video composition analysis unit 22 corrects the dividing line P or the dividing line Q to be vertical. For example, the video composition analysis unit 22 obtains a center point of a line segment that is at a distance equal to each of the movement start positions X, and sets a perpendicular passing through the center point as a dividing line P.

図8A〜Dは映像構図解析部22の静止画処理例を示す説明図である。図8Aに示す映像の静止画フレーム31は、商店街の道路を固定設置カメラによって映した映像の静止画フレーム31である。映像構図解析部22は、先ず図8Aの静止画フレーム31のエッジ検出および長線分検出を行い、図8Bに示す主たる構図の構成要素線E1〜H1を抽出する。例えば、エッジ検出する場合、急な濃淡変化を検出するソーベルオペレータを適用して求める。長い線分を求める場合、静止画フレーム31の横の長さの1/3以上を基準として閾値処理する。   8A to 8D are explanatory diagrams illustrating an example of still image processing of the video composition analysis unit 22. The video still image frame 31 shown in FIG. 8A is a video still image frame 31 in which a street in a shopping street is projected by a fixed camera. First, the video composition analysis unit 22 performs edge detection and long line segment detection of the still image frame 31 in FIG. 8A to extract component lines E1 to H1 of the main composition shown in FIG. 8B. For example, when detecting an edge, a Sobel operator that detects a sudden change in shading is applied. When obtaining a long line segment, threshold processing is performed on the basis of 1/3 or more of the horizontal length of the still image frame 31.

次に、図8Bに示すように、例えば抽出した静止画フレーム31の構成要素線E1〜H1の形状が、画面中央付近に消失点を有する場合、映像構図解析部22は、静止画フレーム31がスクリーン10に投影されたとき、図8Cの構成要素線E1と構成要素線F1の高さX1が例えば180cmとなり、構成要素線G1と構成要素線H1の高さX2が例えば180cmとなるように、分割線P、Qを決定する。これは、視聴ポイントZ(図7C参照)において、スクリーン10の景色がほぼ実物大と感じられるように決定したものである。映像構図解析部22は、決定した分割線P、Qに基づき静止画フレーム31を領域BAL、BAC、BARに3分割するための構図情報SPを作成する。   Next, as shown in FIG. 8B, for example, when the shape of the component lines E1 to H1 of the extracted still image frame 31 has a vanishing point near the center of the screen, the video composition analysis unit 22 When projected onto the screen 10, the height X1 of the component line E1 and the component line F1 in FIG. 8C is, for example, 180 cm, and the height X2 of the component line G1, and the component line H1, is, for example, 180 cm. The dividing lines P and Q are determined. This is determined so that the scenery on the screen 10 can be felt almost at full size at the viewing point Z (see FIG. 7C). The video composition analysis unit 22 creates composition information SP for dividing the still image frame 31 into regions BAL, BAC, and BAR based on the determined dividing lines P and Q.

なお、他の構図に関しても同様の処理が可能であるが、ここでは典型的な例についてのみ述べた。   Although the same processing can be performed for other compositions, only typical examples are described here.

なお、静止画フレーム31に関する以上の処理は厳密には、被写体の3次元的な位置関係を3つのスクリーン10L、10C、10Rで忠実に再現するものではない。(そのためにはレンズパラメータ等の撮影情報が必要で通常の映像からだけでは得られない。)現実に忠実ではないが、3次元形状をある程度再現することにより効果的な映像表現となることを狙うものである。   Strictly speaking, the above processing relating to the still image frame 31 does not faithfully reproduce the three-dimensional positional relationship of the subject on the three screens 10L, 10C, and 10R. (To that end, shooting information such as lens parameters is necessary and cannot be obtained only from normal images.) Although it is not true to reality, it aims to become an effective image expression by reproducing the three-dimensional shape to some extent. Is.

図9A及びBは映像構図解析部22の動画又は静止画の映像処理例を示す説明図である。この例で映像信号SDinには、図9Aに示す動画又は静止画のフレーム32と、このフレーム32の正面と側面の境界を示す角情報P’、Q’が重畳されている。映像構図解析部22は、映像信号SDinに重畳された角情報P’、Q’を抽出して当該角情報P’、Q’に基づいて映像の構図を解析し、フレーム32を領域BAL、BAC、BARに3分割するための構図情報SPを作成する。これにより、2次元へ射影である映像が、擬似的ではあるが3次元の映像として再現され、実際の空間で感じられる取り囲まれる感覚が得られるようになる。   FIGS. 9A and 9B are explanatory diagrams illustrating an example of video processing of a moving image or a still image of the video composition analysis unit 22. In this example, the video signal SDin is superimposed with a moving picture or still picture frame 32 shown in FIG. 9A and corner information P ′ and Q ′ indicating the front and side boundaries of the frame 32. The video composition analysis unit 22 extracts the corner information P ′ and Q ′ superimposed on the video signal SDin, analyzes the composition of the video based on the corner information P ′ and Q ′, and converts the frame 32 into the regions BAL and BAC. , Composition information SP to be divided into three BARs is created. As a result, a video image projected in two dimensions is reproduced as a three-dimensional video image in a pseudo manner, and a feeling of being surrounded in an actual space can be obtained.

図9Bに示すフレーム32は、図9Aに示したフレーム32をズーム拡大した図である。図9Bに示す角情報P’、Q’は、このズーム拡大に付随してフレーム32の両側に移動した位置を示す。映像構図解析部22は、このフレーム32の両側に移動した角情報P’、Q’に基づいてフレーム32を領域BAL、BAC、BARに3分割するための構図情報SPを作成する。   A frame 32 shown in FIG. 9B is an enlarged view of the frame 32 shown in FIG. 9A. The angle information P ′ and Q ′ shown in FIG. 9B indicate the positions moved to both sides of the frame 32 in association with the zoom enlargement. The video composition analysis unit 22 creates composition information SP for dividing the frame 32 into three regions BAL, BAC, and BAR based on the corner information P ′ and Q ′ moved to both sides of the frame 32.

図10は、リアプロジェクションシステム100の動作例を示すフローチャートである。図10に示すステップS1で、このリアプロジェクションシステム100の映像処理装置1は、放送やパッケージメディアなどから映像信号SDinを入力してステップS2へ移行する。   FIG. 10 is a flowchart showing an operation example of the rear projection system 100. In step S1 shown in FIG. 10, the video processing apparatus 1 of the rear projection system 100 inputs the video signal SDin from broadcasting, package media, or the like, and proceeds to step S2.

ステップS2で、映像処理装置1の映像構図解析部22は、映像信号SDinの映像フレームの構図を解析する。例えば、映像構図解析部22は、ブロックマッチング方法などを用いて当該映像フレームに係る動きベクトルを検出し、当該動きベクトルに基づいて映像の構図を解析して映像フレームを分割線P、Qで区切り、当該映像フレームを領域BAL、BAC、BARに3分割するための構図情報SPを作成する。   In step S2, the video composition analysis unit 22 of the video processing device 1 analyzes the composition of the video frame of the video signal SDin. For example, the video composition analysis unit 22 detects a motion vector related to the video frame using a block matching method or the like, analyzes the video composition based on the motion vector, and divides the video frame by dividing lines P and Q. Then, composition information SP for dividing the video frame into regions BAL, BAC, and BAR is created.

このとき、所定の大きさの動きベクトルが検出されなかった場合、この映像フレームが静止画フレーム31と判定し、図8に示したように、映像構図解析部22は、静止画フレーム31のエッジ検出および長線分検出を行い、主たる構図の構成要素線を抽出し、構成要素線に基づいて分割線P、Qを決定する。決定後、映像構図解析部22は、これらの分割線P、Qに基づき静止画フレーム31を領域BAL、BAC、BARに3分割するための構図情報SPを作成する。   At this time, if a motion vector having a predetermined size is not detected, this video frame is determined to be a still image frame 31, and the video composition analysis unit 22, as shown in FIG. Detection and long line segment detection are performed, the component lines of the main composition are extracted, and the dividing lines P and Q are determined based on the component lines. After the determination, the video composition analysis unit 22 creates composition information SP for dividing the still image frame 31 into regions BAL, BAC, and BAR based on these dividing lines P and Q.

また、図7や図9に示したように、動画フレーム30又は静止画フレーム31に関係なく、予め映像信号SDinに、動画又は静止画のフレーム32と、このフレーム32における角情報P’、Q’を重畳しておいてもよい。この場合、映像構図解析部22は、映像信号SDinに重畳された角情報P’、Q’を抽出して当該角情報P’、Q’に基づいて映像の構図を解析し、フレーム32を領域BAL、BAC、BARに3分割するための構図情報SPを作成する。続いてステップS3、S4、S7へ移行する。   Further, as shown in FIGS. 7 and 9, regardless of the moving image frame 30 or the still image frame 31, the moving image or still image frame 32 and the angle information P ′, Q in the frame 32 are added to the video signal SDin in advance. 'May be superimposed. In this case, the video composition analysis unit 22 extracts the corner information P ′ and Q ′ superimposed on the video signal SDin, analyzes the composition of the video based on the corner information P ′ and Q ′, and sets the frame 32 as a region. Composition information SP for dividing into BAL, BAC, and BAR is created. Subsequently, the process proceeds to steps S3, S4, and S7.

ステップS3で、スクリーン形状制御部23は、構図情報SPに基づいてスクリーン形状を制御する。この例で、スクリーン形状制御部23は、この構図情報SPに基づいて、スクリーン10の形状を制御するための制御信号SRin、SLinを生成する。スクリーン形状制御部23は、制御信号SLinをスクリーン駆動部8L(図1参照)に出力し、制御信号SRinをスクリーン駆動部8Rに出力する。スクリーン駆動部8L、8Rは、この制御信号SLin、SRinに基づいてボール螺子機構6L、6Rの各々を駆動して、スクリーン10に角度の異なる映写領域を自動的に複数形成させる。例えば、図2に示したように、スクリーン駆動部8Lは、スクリーン伸縮柱4Lの下端部に取り付けられたモータ6eを駆動させて、当該モータ6eの回転軸に結合されたボール螺子機構6Lのレール6aを回転させる。また、スクリーン駆動部8Lは、ボール螺子機構6Lのモータ6dを駆動させて、このモータ6dの回転軸に結合されたボール螺子軸6bを回転させて、このボール螺子軸6b上のナット6cを進行させてレール6a上を走らせる。このようにして、ナット6cに取り付けられたポール7Lにより、スクリーン10を押し出して区切ると共に、角度の異なる映写領域をスクリーン10に自動的に形成してステップS10へ移行する。   In step S3, the screen shape control unit 23 controls the screen shape based on the composition information SP. In this example, the screen shape control unit 23 generates control signals SRin and SLin for controlling the shape of the screen 10 based on the composition information SP. The screen shape control unit 23 outputs the control signal SLin to the screen drive unit 8L (see FIG. 1), and outputs the control signal SRin to the screen drive unit 8R. The screen drivers 8L and 8R drive each of the ball screw mechanisms 6L and 6R based on the control signals SLin and SRin to automatically form a plurality of projection areas with different angles on the screen 10. For example, as shown in FIG. 2, the screen drive unit 8L drives the motor 6e attached to the lower end of the screen telescopic column 4L, and the rail of the ball screw mechanism 6L coupled to the rotation shaft of the motor 6e. Rotate 6a. The screen drive unit 8L drives the motor 6d of the ball screw mechanism 6L to rotate the ball screw shaft 6b coupled to the rotation shaft of the motor 6d, and advances the nut 6c on the ball screw shaft 6b. And run on the rail 6a. In this way, the screen 10 is pushed out and separated by the pole 7L attached to the nut 6c, and projection areas having different angles are automatically formed on the screen 10, and the process proceeds to step S10.

また、ステップS4では、上述のステップS3と同じタイミングで、映像情報分割部20が、構図情報SPに基づいて映像信号SDinを3つの映像情報SDL’、SDC’、SDR’に分割する。例えば、映像情報分割部20は、先ずフレーム全体の映像情報をメモリに保存し、保存された映像情報を、構図情報SPが示す領域BAL、BAC、BARに基づいて、映像情報SDL’、SDC’SDR’に3分割して映像幾何変換部21に出力してステップS5へ移行する。   In step S4, the video information dividing unit 20 divides the video signal SDin into three video information SDL ', SDC', and SDR 'based on the composition information SP at the same timing as in step S3. For example, the video information dividing unit 20 first stores the video information of the entire frame in the memory, and the stored video information is stored in the video information SDL ′, SDC ′ based on the areas BAL, BAC, BAR indicated by the composition information SP. The image is divided into three SDR's and output to the video geometric conversion unit 21, and the process proceeds to step S5.

ステップS5で、映像幾何変換部21は、映像情報SDL’、SDC’、SDR’及び構図情報SPを入力する。映像幾何変換部21は、構図情報SPに基づいて映像情報SDL’、SDC’、SDR’をアフィン変換して映像情報SDL、SDC、SDRを生成してステップS6へ移行する。   In step S5, the video geometric transformation unit 21 inputs video information SDL ', SDC', SDR 'and composition information SP. The video geometric conversion unit 21 affine-transforms the video information SDL ′, SDC ′, SDR ′ based on the composition information SP to generate video information SDL, SDC, SDR, and proceeds to step S6.

ステップS6で、映像幾何変換部21は、生成した映像情報SDL、SDC、SDRをプロジェクタ2L〜2Rに出力してステップS10へ移行する。   In step S6, the video geometric conversion unit 21 outputs the generated video information SDL, SDC, and SDR to the projectors 2L to 2R, and proceeds to step S10.

また、ステップS7、S8では、上述のステップS3と同じタイミングで、プロジェクタ2L〜2Rが、構図情報SPに基づいて当該プロジェクタの位置を計算して移動し、映写方向を変更する。例えば、図5に示したように、プロジェクタ2Lは、左スクリーン10Lの大きさをサイズr1とし、このサイズr1の左スクリーン10Lを照射するのに最小のプロジェクタ投射距離を最小距離「d(r1)min」としたとき、プロジェクタ2Lの位置(x1, y1)を、上述の式(1)、(2)により計算する。また、フォーカスを求めてステップS9へ移行する。 In steps S7 and S8, at the same timing as in step S3 described above, the projectors 2L to 2R calculate and move the position of the projector based on the composition information SP, and change the projection direction. For example, as shown in FIG. 5, the projector 2L is the size of the left screen 10L and size r 1, the minimum distance the minimum projector projection distance to illuminate the left screen 10L of this size r 1 "d ( r 1 ) min ”, the position (x1, y1) of the projector 2L is calculated by the above formulas (1) and (2). Further, the focus is obtained and the process proceeds to step S9.

ステップS9で、プロジェクタ2L〜2Rは、計算結果に基づいて電動XYステージを駆動して移動し、映写方向を調整する。また、プロジェクタ2L〜2Rは、フォーカスを調整してステップS10へ移行する。   In step S9, the projectors 2L to 2R drive and move the electric XY stage based on the calculation result to adjust the projection direction. In addition, the projectors 2L to 2R adjust the focus and shift to step S10.

ステップS10で、プロジェクタ2L〜2Rは、映像情報SDL、SDC、SDRをスクリーン10に表示する。例えば、プロジェクタ2Lは、左スクリーン10Lに映像情報SDLを表示し、プロジェクタ2Cは、中央スクリーン10Cに映像情報SDCを表示し、プロジェクタ2Rは、右スクリーン10Rに映像情報SDRを表示してステップS11へ移行する。   In step S <b> 10, the projectors 2 </ b> L to 2 </ b> R display the video information SDL, SDC, and SDR on the screen 10. For example, the projector 2L displays the video information SDL on the left screen 10L, the projector 2C displays the video information SDC on the central screen 10C, and the projector 2R displays the video information SDR on the right screen 10R, and goes to step S11. Transition.

ステップS11で、映像処理装置1は映像信号SDinが終了したか否かを判定する。映像信号SDinが終了していない場合、ステップS1に戻って再び映像信号SDinを入力する。映像信号SDinが終了した場合、映像処理の終了となる。   In step S11, the video processing device 1 determines whether or not the video signal SDin has ended. If the video signal SDin has not ended, the process returns to step S1 to input the video signal SDin again. When the video signal SDin ends, the video processing ends.

このように、本発明に係る第1の実施例としてのリアプロジェクションシステム100によれば、映像信号SDinを処理してスクリーン10に映像を映し出す場合であって、スクリーン10に角度の異なる映写領域を自動的に複数形成し、映像信号SDinから映像情報を抽出して映像情報SDL、SDC、SDRに3分割し、当該映像情報をスクリーン10の映写領域の各々に照射するものである。この例で、映像構図解析部22により解析された構図情報SPに基づいて映像情報を分割し、また、この構図情報SPに基づいてスクリーン10に角度の異なる映写領域を自動的に複数形成する。   As described above, according to the rear projection system 100 as the first embodiment of the present invention, when the video signal SDin is processed and an image is displayed on the screen 10, projection areas having different angles are displayed on the screen 10. A plurality of images are automatically formed, video information is extracted from the video signal SDin, divided into three video information SDL, SDC, and SDR, and the video information is irradiated to each projection area of the screen 10. In this example, the video information is divided based on the composition information SP analyzed by the video composition analysis unit 22, and a plurality of projection areas having different angles are automatically formed on the screen 10 based on the composition information SP.

これにより、立体的に形成されたスクリーン10に映像を映し出すことができる。従って、現実に近い臨場感のある映像を実現できるようになる。   Thereby, an image can be projected on the three-dimensionally formed screen 10. Accordingly, it is possible to realize a realistic video image.

また、本第1発明に係るスクリーン装置3によれば、巻き取り又は引き出されて伸縮されるスクリーン10の所定部位を押し出して区切ると共に、角度の異なる映写領域を自動的に複数形成する映写領域形成手段を備えるものである。   Further, according to the screen device 3 according to the first aspect of the present invention, the projection region is formed by extruding and separating predetermined portions of the screen 10 that is wound or pulled out and expanded and contracted, and automatically forming a plurality of projection regions having different angles. Means are provided.

これにより、スクリーン10の形状を立体的に変形することができる。従って、立体的に形成されたスクリーン10に映像が照射されることによって、現実に近い臨場感のある映像を映し出すことができるようになる。   Thereby, the shape of the screen 10 can be three-dimensionally deformed. Therefore, by irradiating an image on the three-dimensionally formed screen 10, it is possible to project an image with a realistic feeling close to reality.

図11は、本発明に係る第2の実施例としての映像処理装置50の制御系の構成例を示すブロック図である。図11に示す映像処理装置50の制御系は、映像情報分割部20、映像幾何変換部21、映像領域解析部22’、操作部51およびスクリーン形状検出部52から構成される。なお、第1の実施例の映像処理装置1と同じ構成要素には同一符号を付し、その詳細な説明は省略する。   FIG. 11 is a block diagram showing a configuration example of a control system of the video processing apparatus 50 as the second embodiment according to the present invention. The control system of the video processing device 50 shown in FIG. 11 includes a video information dividing unit 20, a video geometric conversion unit 21, a video area analysis unit 22 ′, an operation unit 51, and a screen shape detection unit 52. The same components as those in the video processing apparatus 1 of the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.

操作部51はユーザにより操作され、操作信号SOPを出力してスクリーン領域形成機構5を操作する。例えば、操作部51は、図2に示したスクリーン領域形成機構5におけるボール螺子機構6L、6Rのレール6aを回動するための回動ボタンと、レール6a上のナット6cに結合されたポール7L、7Rを移動するための移動ボタンを備える。ユーザは操作部51の回動ボタン及び移動ボタンを操作して、ポール7L、7RのX−Y位置を設定する。このとき、操作部51は、操作信号SOPをスクリーン領域形成機構5のスクリーン駆動部8L、8Rに出力する。   The operation unit 51 is operated by a user and outputs an operation signal SOP to operate the screen region forming mechanism 5. For example, the operation unit 51 includes a rotation button for rotating the rail 6a of the ball screw mechanisms 6L and 6R in the screen region forming mechanism 5 shown in FIG. 2, and a pole 7L coupled to the nut 6c on the rail 6a. , 7R is provided. The user operates the rotation button and the movement button of the operation unit 51 to set the XY positions of the poles 7L and 7R. At this time, the operation unit 51 outputs an operation signal SOP to the screen drive units 8L and 8R of the screen region forming mechanism 5.

スクリーン駆動部8L、8Rは、操作部51からの操作信号SOPに基づいてスクリーン10に角度の異なる映写領域を自動的に複数形成する。例えば、スクリーン駆動部8L、8Rは、操作信号SOPに基づいて図2に示したモータ6eを駆動させて、当該モータ6eの回転軸に結合されたボール螺子機構6L、6Rのレール6aを回転させる。また、スクリーン駆動部8L、8Rは、操作信号SOPに基づいて図2に示したモータ6dを駆動させて、当該モータ6dの回転軸に結合されたボール螺子軸6bを回転させてナット6cに結合されたポール7L、7Rを移動させる。これにより、ユーザの操作によりスクリーン10の形状を設定できるようになる。   The screen drive units 8L and 8R automatically form a plurality of projection areas with different angles on the screen 10 based on the operation signal SOP from the operation unit 51. For example, the screen driving units 8L and 8R drive the motor 6e shown in FIG. 2 based on the operation signal SOP and rotate the rails 6a of the ball screw mechanisms 6L and 6R coupled to the rotation shaft of the motor 6e. . Further, the screen drive units 8L and 8R drive the motor 6d shown in FIG. 2 based on the operation signal SOP, and rotate the ball screw shaft 6b coupled to the rotation shaft of the motor 6d to couple to the nut 6c. The poles 7L and 7R thus moved are moved. Thereby, the shape of the screen 10 can be set by the user's operation.

スクリーン形状検出部52は検出部の一例として機能し、スクリーン駆動部8L、8Rから入力した駆動信号SLout、SRoutからスクリーン10の形状を検出し、スクリーン形状の検出信号SFTを映像処理装置50及びプロジェクタ2L、2C、2Rに出力する。この駆動信号SLout、SRoutには、レール6aの回転角度と、このレール6a上を移動するポール7L、7Rの移動距離が含まれる。レール6aの回転角度を求めるために、スクリーン駆動部8L、8Rは、図示しない角度センサをレール6aの回転軸上に対して備える。この角度センサにより、レール6aの回転角度を検出する。また、レール6aを回転するモータ6eにステッピングモータを使用し、このステッピングモータのステップ数を検出してレール6aの回転角度を求めてもよい。   The screen shape detection unit 52 functions as an example of a detection unit, detects the shape of the screen 10 from the drive signals SLout and SRout input from the screen drive units 8L and 8R, and uses the screen shape detection signal SFT as the video processing device 50 and the projector. Output to 2L, 2C, 2R. The drive signals SLout and SRout include the rotation angle of the rail 6a and the movement distances of the poles 7L and 7R that move on the rail 6a. In order to obtain the rotation angle of the rail 6a, the screen driving units 8L and 8R include an angle sensor (not shown) on the rotation axis of the rail 6a. The angle sensor detects the rotation angle of the rail 6a. Alternatively, a stepping motor may be used for the motor 6e that rotates the rail 6a, and the rotation angle of the rail 6a may be obtained by detecting the number of steps of the stepping motor.

次に、レール6a上を移動するポール7L、7Rの移動距離を求めるために、ポール7L、7Rを駆動するモータ6dにステッピングモータを使用し、このステッピングモータのステップ数を検出してポール7L、7Rの移動距離を求める。また、レール6a上に反射型のフォトセンサを複数取り付け、これらのフォトセンサにより、ポール7L、7Rに結合されたナット6cを検出してもよい。   Next, in order to obtain the moving distance of the poles 7L and 7R that move on the rail 6a, a stepping motor is used as the motor 6d that drives the poles 7L and 7R, and the number of steps of the stepping motor is detected to detect the poles 7L and 7R. The moving distance of 7R is obtained. Alternatively, a plurality of reflective photosensors may be mounted on the rail 6a, and the nuts 6c coupled to the poles 7L and 7R may be detected by these photosensors.

映像処理装置50は、スクリーン形状検出部52からのスクリーン形状の検出信号SFTに基づいて映像情報を分割する。この例で、映像処理装置50の映像領域解析部22’は、ポール7L、7Rの位置を示す検出信号SFTに基づいて映像の領域を解析して決定する。例えば、映像領域解析部22’は、検出信号SFTのポール7L、7RのX−Y位置情報から、図7Bに示したフレームを分割する分割線P及び分割線Qを決定し、フレームを領域BAL、BAC、BARに3分割するための領域区分情報SP’を作成して映像情報分割部20及び映像幾何変換部21に出力する。   The video processing device 50 divides the video information based on the screen shape detection signal SFT from the screen shape detection unit 52. In this example, the video region analysis unit 22 'of the video processing device 50 analyzes and determines the video region based on the detection signal SFT indicating the positions of the poles 7L and 7R. For example, the video region analysis unit 22 ′ determines the dividing line P and the dividing line Q that divide the frame shown in FIG. 7B from the XY position information of the poles 7L and 7R of the detection signal SFT, and divides the frame into the region BAL. , BAC, and BAR are divided into three, and are output to the video information dividing unit 20 and the video geometric transformation unit 21.

なお、映像領域解析部22’は、スクリーン形状の検出信号SFTに基づいてフレームを分割するための領域区分情報SP’を作成したが、例えば第1の実施例で示した動きベクトルに基づく構図解析結果と、この検出信号SFTとの両方の情報に基づいて映像情報を分割するようにしてもよい。   Note that the video region analysis unit 22 ′ has created the region segment information SP ′ for dividing the frame based on the screen-shaped detection signal SFT. For example, the composition analysis based on the motion vector shown in the first embodiment The video information may be divided based on both information of the result and the detection signal SFT.

映像情報分割部20は、この領域区分情報SP’に基づいて映像信号SDinを3つの映像情報SDL’、SDC’、SDR’に分割して映像幾何変換部21に出力する。映像幾何変換部21は、領域区分情報SP’に基づいて映像情報SDL’、SDC’、SDR’を幾何変換(例えばアフィン変換)して映像情報SDL、SDC、SDRとし、プロジェクタ2L、2C、2Rに出力する。   The video information dividing unit 20 divides the video signal SDin into three pieces of video information SDL ′, SDC ′, and SDR ′ based on the region division information SP ′ and outputs the divided video signal SDin to the video geometric conversion unit 21. The video geometric transformation unit 21 geometrically transforms (for example, affine transformation) the video information SDL ′, SDC ′, and SDR ′ based on the region segment information SP ′ to obtain the video information SDL, SDC, and SDR, and the projectors 2L, 2C, and 2R. Output to.

プロジェクタ2L〜2Rは、プロジェクタ2L〜2Rは、スクリーン形状の検出信号SFTに基づいて当該プロジェクタの映写方向を変更して、映像情報SDL、SDC、SDRをスクリーン10に映写する。これにより、所望の形状のスクリーン10を形成できると共に、立体的に形成されたスクリーン10に映像を映し出すことができる。従って、現実に近い臨場感のある映像を実現できるようになる。   The projectors 2L to 2R project the video information SDL, SDC, and SDR on the screen 10 by changing the projection direction of the projector based on the screen-shaped detection signal SFT. As a result, a screen 10 having a desired shape can be formed, and an image can be projected on the three-dimensionally formed screen 10. Accordingly, it is possible to realize a realistic video image.

図12は、リアプロジェクションシステム200の動作例を示すフローチャートである。図12に示すステップT1で、このリアプロジェクションシステム200のスクリーン領域形成機構5は、操作部51がユーザにより操作され、操作部51から操作信号SOPを入力してステップT2へ移行する。   FIG. 12 is a flowchart showing an operation example of the rear projection system 200. In step T1 shown in FIG. 12, in the screen region forming mechanism 5 of the rear projection system 200, the operation unit 51 is operated by the user, the operation signal SOP is input from the operation unit 51, and the process proceeds to step T2.

ステップT2で、スクリーン領域形成機構5のスクリーン駆動部8L、8Rは、操作部51からの操作信号SOPに基づいてスクリーン10に角度の異なる映写領域を自動的に複数形成する。例えば、スクリーン駆動部8L、8Rは、操作信号SOPに基づいて図2に示したモータ6eを駆動させて、当該モータ6eの回転軸に結合されたボール螺子機構6L、6Rのレール6aを回転させる。また、スクリーン駆動部8L、8Rは、操作信号SOPに基づいて図2に示したモータ6dを駆動させて、当該モータ6dの回転軸に結合されたボール螺子軸6bを回転させてナット6cに結合されたポール7L、7Rを移動させて、ポール7L、7Rによりスクリーン10の形状を変形してステップT3へ移行する。   In step T <b> 2, the screen driving units 8 </ b> L and 8 </ b> R of the screen region forming mechanism 5 automatically form a plurality of projection regions with different angles on the screen 10 based on the operation signal SOP from the operation unit 51. For example, the screen driving units 8L and 8R drive the motor 6e shown in FIG. 2 based on the operation signal SOP and rotate the rails 6a of the ball screw mechanisms 6L and 6R coupled to the rotation shaft of the motor 6e. . Further, the screen drive units 8L and 8R drive the motor 6d shown in FIG. 2 based on the operation signal SOP, and rotate the ball screw shaft 6b coupled to the rotation shaft of the motor 6d to couple to the nut 6c. The poles 7L and 7R thus moved are moved, the shape of the screen 10 is deformed by the poles 7L and 7R, and the process proceeds to step T3.

ステップT3で、スクリーン形状検出部52は、スクリーン駆動部8L、8Rから入力した駆動信号SLout、SRoutからスクリーン10の形状を検出し、スクリーン形状の検出信号SFTを映像処理装置50及びプロジェクタ2L、2C、2Rに出力する。   In step T3, the screen shape detection unit 52 detects the shape of the screen 10 from the drive signals SLout and SRout input from the screen drive units 8L and 8R, and outputs the screen shape detection signal SFT to the video processing device 50 and the projectors 2L and 2C. 2R.

この駆動信号SLout、SRoutには、レール6aの回転角度と、このレール6a上を移動するポール7L、7Rの移動距離が含まれる。レール6aの回転角度を求めるために、スクリーン駆動部8L、8Rは、レール6aの回転軸上に設けられた角度センサにより、レール6aの回転角度を検出する。   The drive signals SLout and SRout include the rotation angle of the rail 6a and the movement distances of the poles 7L and 7R that move on the rail 6a. In order to obtain the rotation angle of the rail 6a, the screen driving units 8L and 8R detect the rotation angle of the rail 6a by an angle sensor provided on the rotation axis of the rail 6a.

次に、レール6a上を移動するポール7L、7Rの移動距離を求めるために、ポール7L、7Rを駆動するモータ6dにステッピングモータを使用し、このステッピングモータのステップ数を検出してポール7L、7Rの移動距離を求める。続いてステップT4へ移行する。   Next, in order to obtain the moving distance of the poles 7L and 7R that move on the rail 6a, a stepping motor is used as the motor 6d that drives the poles 7L and 7R, and the number of steps of the stepping motor is detected to detect the poles 7L and 7R. The moving distance of 7R is obtained. Subsequently, the process proceeds to step T4.

ステップT4で、映像処理装置50は、放送やパッケージメディアなどから映像信号SDinを入力してステップT5へ移行する。   In step T4, the video processing apparatus 50 inputs the video signal SDin from broadcasting, package media, or the like, and proceeds to step T5.

ステップT5で、映像処理装置50の映像領域解析部22’は、映像信号SDinの映像フレームの領域を解析する。この例で、映像領域解析部22’は、ステップT3で求められたスクリーン形状の検出信号SFTに基づいて映像の領域を解析する。例えば、映像領域解析部22’は、検出信号SFTのポール7L、7RのX−Y位置情報から、図7Bに示したフレームを分割する分割線P及び分割線Qを決定し、フレームを領域BAL、BAC、BARに3分割するための領域区分情報SP’を作成して映像情報分割部20及び映像幾何変換部21に出力する。また、映像領域解析部22’は、スクリーン形状の検出信号SFTと、第1の実施例で示した動きベクトルに基づく構図解析結果との両方の情報に基づいて領域区分情報SP’を作成してもよい。続いてステップT6へ移行する。   In step T5, the video area analysis unit 22 'of the video processing apparatus 50 analyzes the video frame area of the video signal SDin. In this example, the video region analysis unit 22 'analyzes the video region based on the screen-shaped detection signal SFT obtained in step T3. For example, the video region analysis unit 22 ′ determines the dividing line P and the dividing line Q that divide the frame shown in FIG. 7B from the XY position information of the poles 7L and 7R of the detection signal SFT, and divides the frame into the region BAL. , BAC, and BAR are divided into three, and are output to the video information dividing unit 20 and the video geometric transformation unit 21. In addition, the video region analysis unit 22 ′ creates region segment information SP ′ based on both information of the screen-shaped detection signal SFT and the composition analysis result based on the motion vector shown in the first embodiment. Also good. Subsequently, the process proceeds to step T6.

ステップT6で、映像情報分割部20は、領域区分情報SP’に基づいて映像信号SDinを3つの映像情報SDL’、SDC’、SDR’に分割してステップT7へ移行する。   In step T6, the video information dividing unit 20 divides the video signal SDin into three pieces of video information SDL ', SDC', and SDR 'based on the area segment information SP', and proceeds to step T7.

ステップT7で、映像幾何変換部21は、分割された映像情報SDL’、SDC’、SDR’及び領域区分情報SP’を入力する。映像幾何変換部21は、領域区分情報SP’に基づいて映像情報SDL’、SDC’、SDR’をアフィン変換して映像情報SDL、SDC、SDRを生成してステップT8へ移行する。   In step T7, the video geometric conversion unit 21 inputs the divided video information SDL ', SDC', SDR 'and region segment information SP'. The video geometric conversion unit 21 affine-transforms the video information SDL ', SDC', and SDR 'based on the region segment information SP' to generate video information SDL, SDC, and SDR, and proceeds to step T8.

ステップT8で、映像幾何変換部21は、生成した映像情報SDL、SDC、SDRをプロジェクタ2L〜2Rに出力してステップT12へ移行する。   In step T8, the video geometric conversion unit 21 outputs the generated video information SDL, SDC, SDR to the projectors 2L to 2R, and proceeds to step T12.

また、上述のステップT4と同じタイミングで、ステップT9、T10では、プロジェクタ2L〜2Rが、上述のステップT3で出力されたスクリーン形状の検出信号SFTを入力する。プロジェクタ2L〜2Rは、入力した検出信号SFTのポール7L、7RのX−Y位置情報から当該プロジェクタの位置を計算して移動し、映写方向を変更する。例えば、図5に示したように、プロジェクタ2Lは、左スクリーン10Lの大きさをサイズr1とし、このサイズr1の左スクリーン10Lを照射するのに最小のプロジェクタ投射距離を最小距離「d(r1)min」としたとき、プロジェクタ2Lの位置(x1, y1)を、上述の式(1)、(2)により計算する。また、フォーカスを求めてステップT11へ移行する。 At steps T9 and T10, the projectors 2L to 2R input the screen-shaped detection signal SFT output at step T3 described above at the same timing as step T4 described above. The projectors 2L to 2R move by calculating the position of the projector from the XY position information of the poles 7L and 7R of the input detection signal SFT, and change the projection direction. For example, as shown in FIG. 5, the projector 2L is the size of the left screen 10L and size r 1, the minimum distance the minimum projector projection distance to illuminate the left screen 10L of this size r 1 "d ( r 1 ) min ”, the position (x1, y1) of the projector 2L is calculated by the above formulas (1) and (2). Further, the focus is obtained and the process proceeds to step T11.

ステップT11で、プロジェクタ2L〜2Rは、計算結果に基づいて電動XYステージを駆動して移動し、映写方向を調整する。また、プロジェクタ2L〜2Rは、フォーカスを調整してステップT12へ移行する。   In step T11, the projectors 2L to 2R move by driving the electric XY stage based on the calculation result, and adjust the projection direction. In addition, the projectors 2L to 2R adjust the focus and proceed to step T12.

ステップT12で、プロジェクタ2L〜2Rは、映像情報SDL、SDC、SDRをスクリーン10に表示する。例えば、プロジェクタ2Lは、左スクリーン10Lに映像情報SDLを表示し、プロジェクタ2Cは、中央スクリーン10Cに映像情報SDCを表示し、プロジェクタ2Rは、右スクリーン10Rに映像情報SDRを表示してステップT13へ移行する。   In step T12, the projectors 2L to 2R display the video information SDL, SDC, and SDR on the screen 10. For example, the projector 2L displays the video information SDL on the left screen 10L, the projector 2C displays the video information SDC on the central screen 10C, and the projector 2R displays the video information SDR on the right screen 10R, and goes to Step T13. Transition.

ステップT13で、映像処理装置50は映像信号SDinが終了したか否かを判定する。映像信号SDinが終了していない場合、ステップT1に戻って再び映像信号SDinを入力する。映像信号SDinが終了した場合、映像処理の終了となる。   In step T13, the video processing device 50 determines whether or not the video signal SDin has ended. If the video signal SDin has not ended, the process returns to step T1 to input the video signal SDin again. When the video signal SDin ends, the video processing ends.

このように、本発明に係る第2の実施例としての映像処理装置50によれば、映像信号SDinを処理してスクリーン10に映像を映し出す場合であって、操作部51からの操作信号SOPに基づいて、スクリーン10に角度の異なる映写領域を複数形成し、映像信号SDinから映像情報を抽出して映像情報SDL、SDC、SDRに3分割し、当該映像情報をスクリーン10の映写領域の各々に照射するものである。この例で、スクリーン10に角度の異なる映写領域を形成後、スクリーン形状の検出信号SFTに基づいて決定された領域区分情報SP’に基づいて映像情報を分割する。   As described above, according to the video processing apparatus 50 as the second embodiment of the present invention, the video signal SDin is processed and the video is displayed on the screen 10, and the operation signal SOP from the operation unit 51 is displayed. Based on this, a plurality of projection areas having different angles are formed on the screen 10, video information is extracted from the video signal SDin and divided into three pieces of video information SDL, SDC, and SDR, and the video information is assigned to each of the projection areas of the screen 10. Irradiation. In this example, after the projection areas having different angles are formed on the screen 10, the video information is divided based on the area division information SP 'determined based on the detection signal SFT having the screen shape.

これにより、所望の形状のスクリーン10を形成できると共に、立体的に形成されたスクリーン10に映像を映し出すことができる。従って、現実に近い臨場感のある映像を実現できるようになる。   As a result, a screen 10 having a desired shape can be formed, and an image can be projected on the three-dimensionally formed screen 10. Accordingly, it is possible to realize a realistic video image.

図13A及びBは、本発明に係る第3の実施例としてのスクリーン装置300の構成例を示す説明図である。図13Aに示すスクリーン装置300は、スクリーン10、スクリーン伸縮柱4L、4R及びスクリーン領域形成機構500から構成される。なお、第1の実施例のスクリーン装置3と同じ構成要素には同一符号を付し、その詳細な説明は省略する。   13A and 13B are explanatory diagrams illustrating a configuration example of a screen device 300 as a third embodiment according to the present invention. A screen device 300 shown in FIG. 13A includes a screen 10, screen telescopic columns 4 </ b> L and 4 </ b> R, and a screen region forming mechanism 500. In addition, the same code | symbol is attached | subjected to the same component as the screen apparatus 3 of 1st Example, and the detailed description is abbreviate | omitted.

図13Bは、スクリーン領域形成機構500の構成例を示す一部破砕の上面図である。図13Bに示すスクリーン領域形成機構500は、スクリーン伸縮柱4L、4Rにより伸縮されるスクリーン10の所定部位を押し出して区切ると共に、角度の異なる映写領域をスクリーン10に自動的に複数形成する。   FIG. 13B is a partially fragmented top view illustrating a configuration example of the screen region forming mechanism 500. The screen area forming mechanism 500 shown in FIG. 13B extrudes and divides predetermined portions of the screen 10 that are expanded and contracted by the screen extendable columns 4L and 4R, and automatically forms a plurality of projection areas with different angles on the screen 10.

この例で、スクリーン領域形成機構500は、4つのボール螺子機構60L、60R、60F、60B、ポール7L、7R及びスクリーン駆動部(図示せず)を備える。スクリーン駆動部は4つのボール螺子機構を駆動する。例えば、スクリーン駆動部は、4つのボール螺子機構60L、60R、60F、60Bを駆動する4つのモータを備え、当該モータを回転して該当するボール螺子機構を駆動する。   In this example, the screen region forming mechanism 500 includes four ball screw mechanisms 60L, 60R, 60F, 60B, poles 7L, 7R, and a screen driving unit (not shown). The screen drive unit drives four ball screw mechanisms. For example, the screen drive unit includes four motors that drive four ball screw mechanisms 60L, 60R, 60F, and 60B, and rotates the motors to drive the corresponding ball screw mechanisms.

前後のボール螺子機構60F、60Bは、スクリーン装置300の設置台上に固定される。左右のボール螺子機構60L、60Rは、設置台上に固定されたボール螺子機構60F、60Bに、左右移動自在に係合される。この例で、左右のボール螺子機構60L、60Rは螺合部60cを有し、この螺合部60cがボール螺子機構60F、60Bのボール螺子軸60bに螺合される。これにより、前後のボール螺子機構60F、60Bのボール螺子軸60bを回転することにより、左右のボール螺子機構60L、60Rが左右に移動する。なお、ボール螺子機構60Lとボール螺子機構60Rとの間隔は一定である。   The front and rear ball screw mechanisms 60 </ b> F and 60 </ b> B are fixed on the installation base of the screen device 300. The left and right ball screw mechanisms 60L and 60R are engaged with the ball screw mechanisms 60F and 60B fixed on the installation base so as to be movable left and right. In this example, the left and right ball screw mechanisms 60L and 60R have screwed portions 60c, and the screwed portions 60c are screwed onto the ball screw shafts 60b of the ball screw mechanisms 60F and 60B. Thereby, by rotating the ball screw shaft 60b of the front and rear ball screw mechanisms 60F and 60B, the left and right ball screw mechanisms 60L and 60R move to the left and right. The interval between the ball screw mechanism 60L and the ball screw mechanism 60R is constant.

左右のボール螺子機構60L、60Rのボール螺子軸60bには、ポール7L、7Rが取り付けられたナット6cが螺合されている。これにより、左右のボール螺子機構60L、60Rのボール螺子軸60bを回転することにより、ポール7L、7Rが前後に移動する。従って、これらのポール7L、7Rにより、スクリーン10を押し出して区切ると共に、角度の異なる映写領域をスクリーン10に自動的に形成することができる。   Nuts 6c to which poles 7L and 7R are attached are screwed onto the ball screw shafts 60b of the left and right ball screw mechanisms 60L and 60R. Thereby, the poles 7L and 7R move back and forth by rotating the ball screw shafts 60b of the left and right ball screw mechanisms 60L and 60R. Therefore, the screen 10 can be pushed out and separated by these poles 7L and 7R, and projection areas having different angles can be automatically formed on the screen 10.

図14はスクリーン領域形成機構500の構成例を示す断面図である。図14に示すスクリーン領域形成機構500は図13BのX−X矢視断面図である。図14に示すボール螺子機構60Lのボール螺子軸60bに螺合されたナット6cの形状はT形状である。このT形状のナット6cの鍔部6hが、レール60aの溝部6gにガイドされている。これにより、レール60aの溝部6gにガイドされたナット6cは、ボール螺子軸60bが回転すると、姿勢を維持した状態でレール60a上を進行する。従って、このナット6cの上面に垂直に取り付けられたポール7Lは略垂直状態を保ちながらレール6a上を移動する。また、ボール螺子機構60Lの二股の螺合部60cが、ボール螺子機構60Fのボール螺子軸60bに螺合されている。   FIG. 14 is a cross-sectional view showing a configuration example of the screen region forming mechanism 500. The screen region forming mechanism 500 shown in FIG. 14 is a cross-sectional view taken along the line XX in FIG. 13B. The shape of the nut 6c screwed into the ball screw shaft 60b of the ball screw mechanism 60L shown in FIG. 14 is a T shape. The flange 6h of the T-shaped nut 6c is guided by the groove 6g of the rail 60a. Thus, the nut 6c guided by the groove 6g of the rail 60a advances on the rail 60a while maintaining the posture when the ball screw shaft 60b rotates. Therefore, the pole 7L vertically attached to the upper surface of the nut 6c moves on the rail 6a while maintaining a substantially vertical state. A bifurcated screw portion 60c of the ball screw mechanism 60L is screwed to the ball screw shaft 60b of the ball screw mechanism 60F.

このように、本発明に係る第3の実施例としてのスクリーン装置300によれば、4つのボール螺子機構60L、60R、60F、60Bを有したスクリーン領域形成機構500を備え、各ボール螺子機構を駆動してボール螺子機構60L、60R上のポール7L、7Rを移動する。   As described above, according to the screen apparatus 300 as the third embodiment of the present invention, the screen area forming mechanism 500 including the four ball screw mechanisms 60L, 60R, 60F, and 60B is provided, and each ball screw mechanism is provided. Driven to move the poles 7L and 7R on the ball screw mechanisms 60L and 60R.

これにより、ポール7L、7Rにより、スクリーン10を押し出して区切ると共に、角度の異なる映写領域をスクリーン10に自動的に形成することができる。   Accordingly, the screen 10 can be pushed out and separated by the poles 7L and 7R, and projection areas having different angles can be automatically formed on the screen 10.

なお、リアプロジェクション形式の実施例を示したが、これに限らずフロントプロジェクション(前面投射)形式に適用してもよい。   In addition, although the example of the rear projection format was shown, you may apply not only to this but to a front projection (front projection) format.

また、第1の実施例のリアプロジェクションシステム100を使用しない場合、スクリーン10の形状を図4Aに示した平面スクリーンの状態にしておくことで、当該システムを使用していないときの見栄えがよくなる。   Further, when the rear projection system 100 of the first embodiment is not used, it is possible to improve the appearance when the system is not used by keeping the shape of the screen 10 in the state of the flat screen shown in FIG. 4A.

また、スクリーン10を3分割する例を説明したが、これに限らず、2分割や4分割以上に分割することも可能である。   Moreover, although the example which divides the screen 10 into 3 was demonstrated, it is not restricted to this, It is also possible to divide | segment into 2 divisions or 4 divisions or more.

放送やパッケージメディアの映像をスクリーンに映し出すプロジェクタシステムに適用して好適である。   It is suitable for application to a projector system that projects broadcast and packaged media images on a screen.

本発明に係る第1の実施例としてのリアプロジェクションシステム100の構成例を示す斜視図である。1 is a perspective view showing a configuration example of a rear projection system 100 as a first embodiment according to the present invention. スクリーン領域形成機構5の要部の構成例を示す斜視図である。FIG. 6 is a perspective view illustrating a configuration example of a main part of a screen region forming mechanism 5. ボール螺子機構6Lの構成例を示す断面図である。It is sectional drawing which shows the structural example of 6L of ball screw mechanisms. (A)〜(D)は、プロジェクタ2L、2C、2Rによるスクリーン10への照射例を示す説明図である。(A)-(D) is explanatory drawing which shows the example of irradiation to the screen 10 by projector 2L, 2C, 2R. プロジェクタ2L、2C、2Rの位置の制御例を示す説明図である。It is explanatory drawing which shows the example of control of the position of projector 2L, 2C, 2R. 映像処理装置1の制御系の構成例を示すブロック図である。3 is a block diagram illustrating a configuration example of a control system of the video processing device 1. FIG. (A)及び(B)は映像構図解析部22の動画処理例を示す説明図である。(A) And (B) is explanatory drawing which shows the example of a moving image process of the video composition analysis part 22. FIG. (A)〜(D)は映像構図解析部22の静止画処理例を示す説明図である。(A)-(D) is explanatory drawing which shows the example of a still image process of the video composition analysis part 22. FIG. (A)及び(B)は映像構図解析部22の動画又は静止画の映像処理例を示す説明図である。(A) And (B) is explanatory drawing which shows the video processing example of the moving image of the video composition analysis part 22, or a still image. リアプロジェクションシステム100の動作例を示すフローチャートである。3 is a flowchart illustrating an operation example of the rear projection system 100. 本発明に係る第2の実施例としての映像処理装置50の制御系の構成例を示すブロック図である。It is a block diagram which shows the structural example of the control system of the video processing apparatus 50 as 2nd Example which concerns on this invention. リアプロジェクションシステム200の動作例を示すフローチャートである。5 is a flowchart illustrating an operation example of the rear projection system 200. (A)及び(B)は、本発明に係る第3の実施例としてのスクリーン装置300の構成例を示す説明図である。(A) And (B) is explanatory drawing which shows the structural example of the screen apparatus 300 as a 3rd Example which concerns on this invention. スクリーン領域形成機構500の構成例を示す断面図である。5 is a cross-sectional view showing a configuration example of a screen region forming mechanism 500. FIG.

符号の説明Explanation of symbols

1,50・・・映像処理装置、2L、2C,2R・・・プロジェクタ、3,300・・・スクリーン装置、4L,4R・・・スクリーン伸縮柱、5,500・・・スクリーン領域形成機構、6L,6R・・・ボール螺子機構、6a・・・レール、6b・・・ボール螺子軸、7L,7R・・・ポール、8L,8R・・・スクリーン駆動部、20・・・映像情報分割部、21・・・映像幾何変換部、22・・・映像構図解析部、23・・・スクリーン形状制御部、51・・・操作部、52・・・スクリーン形状検出部、100・・・リアプロジェクションシステム DESCRIPTION OF SYMBOLS 1,50 ... Video processing apparatus, 2L, 2C, 2R ... Projector, 3,300 ... Screen apparatus, 4L, 4R ... Screen telescopic column, 5,500 ... Screen area formation mechanism, 6L, 6R ... Ball screw mechanism, 6a ... Rail, 6b ... Ball screw shaft, 7L, 7R ... Paul, 8L, 8R ... Screen drive unit, 20 ... Video information dividing unit , 21 ... Video geometric conversion unit, 22 ... Video composition analysis unit, 23 ... Screen shape control unit, 51 ... Operation unit, 52 ... Screen shape detection unit, 100 ... Rear projection system

Claims (12)

映像信号を処理してスクリーンに映像を映し出すシステムであって、
前記スクリーンを巻き取り又は前記スクリーンが引き出されて当該スクリーンを伸縮するスクリーン伸縮手段と、
前記スクリーン伸縮手段により伸縮される前記スクリーンに角度の異なる映写領域を自動的に複数形成する映写領域形成手段と、
前記映像信号を入力し、当該映像信号から映像情報を抽出して分割する映像処理装置と、
前記映像処理装置により分割された映像情報を入力し、当該分割された映像情報を前記スクリーンの映写領域の各々に照射する複数の映写機と
を備えることを特徴とする映像処理システム。
A system that processes video signals and displays them on a screen,
A screen expansion / contraction means that winds up the screen or draws out the screen to expand and contract the screen;
Projection area forming means for automatically forming a plurality of projection areas with different angles on the screen stretched by the screen stretching means;
A video processing device that inputs the video signal, extracts video information from the video signal, and divides the video information;
A video processing system comprising: a plurality of projectors that input video information divided by the video processing device and irradiate the divided video information to each of the projection areas of the screen.
前記複数の映写機は、
前記スクリーンの背後に設置され、当該スクリーンの映写領域の各々に映像を照射する
ことを特徴とする請求項1に記載の映像処理システム。
The plurality of projectors are:
The video processing system according to claim 1, wherein the video processing system is installed behind the screen and irradiates video to each of the projection areas of the screen.
前記映写領域形成手段は、
前記スクリーンを区画して角度の異なる映写領域を設けるための領域区画部材と、
前記領域区画部材を移動させる移動機構と、
前記移動機構を駆動する駆動部とを備え、
前記領域区画部材により前記スクリーンの所定部位を押し出して区切ると共に、角度の異なる映写領域を当該スクリーンに自動的に複数形成する
ことを特徴とする請求項1に記載の映像処理システム。
The projection area forming means includes:
An area partition member for partitioning the screen and providing projection areas with different angles;
A moving mechanism for moving the area partition member;
A drive unit for driving the moving mechanism;
The video processing system according to claim 1, wherein a predetermined portion of the screen is pushed out and divided by the region partitioning member, and a plurality of projection regions having different angles are automatically formed on the screen.
前記映像処理装置は、
前記映像情報の動きベクトルに基づいて前記映像の構図を解析する映像構図解析部と、
前記映像構図解析部により解析された結果に基づいて前記映像情報を分割する映像情報分割部と
を備えることを特徴とする請求項1に記載の映像処理システム。
The video processing device includes:
A video composition analysis unit for analyzing the composition of the video based on a motion vector of the video information;
The video processing system according to claim 1, further comprising: a video information dividing unit that divides the video information based on a result analyzed by the video composition analyzing unit.
前記映像構図解析部は、
前記映像情報のエッジ検出および長線分検出を行って主たる構図の構成要素線を抽出し、
当該映像情報の構成要素線に基づいて前記映像の構図を解析する
ことを特徴とする請求項4に記載の映像処理システム。
The video composition analysis unit
Extracting the component lines of the main composition by performing edge detection and long line segment detection of the video information,
The video processing system according to claim 4, wherein the composition of the video is analyzed based on a component line of the video information.
前記映像構図解析部は、
前記映像信号に映像の境界を示す角情報が含まれる場合であって、
当該角情報に基づいて前記映像の構図を解析する
ことを特徴とする請求項4に記載の映像処理システム。
The video composition analysis unit
The video signal includes corner information indicating a video boundary,
The video processing system according to claim 4, wherein the composition of the video is analyzed based on the corner information.
前記映写領域形成手段は、
前記映像構図解析部により解析された結果に基づいて前記スクリーンに角度の異なる映写領域を自動的に複数形成する
ことを特徴とする請求項4に記載の映像処理システム。
The projection area forming means includes:
The video processing system according to claim 4, wherein a plurality of projection areas having different angles are automatically formed on the screen based on a result analyzed by the video composition analysis unit.
前記映写機は、
前記映像構図解析部により解析された結果に基づいて当該映写機の位置を移動する
ことを特徴とする請求項4に記載の映像処理システム。
The projector is
The video processing system according to claim 4, wherein the position of the projector is moved based on a result analyzed by the video composition analysis unit.
前記映像処理装置は、
前記分割された映像情報を幾何変換する映像幾何変換手段を備える
ことを特徴とする請求項1に記載の映像処理システム。
The video processing device includes:
The video processing system according to claim 1, further comprising video geometric conversion means for geometrically converting the divided video information.
前記映写領域形成手段を操作する操作部と、
前記操作部により操作された前記映写領域形成手段によって形成されたスクリーンの形状を検出する検出部とを備え、
前記映像処理装置は、
前記検出部からの検出信号に基づいて前記映像情報を分割する
ことを特徴とする請求項1に記載の映像処理システム。
An operation unit for operating the projection area forming means;
A detection unit for detecting the shape of the screen formed by the projection region forming means operated by the operation unit,
The video processing device includes:
The video processing system according to claim 1, wherein the video information is divided based on a detection signal from the detection unit.
照射される映像を映し出すスクリーンと、
前記スクリーンを巻き取り又は前記スクリーンが引き出されて当該スクリーンを伸縮するスクリーン伸縮手段と、
前記スクリーン伸縮手段により伸縮される前記スクリーンの所定部位を押し出して区切ると共に、角度の異なる映写領域を前記スクリーンに自動的に複数形成する映写領域形成手段と
を備えることを特徴とするスクリーン装置。
A screen that displays the image to be illuminated,
A screen expansion / contraction means that winds up the screen or draws out the screen to expand and contract the screen;
A screen device comprising: projection area forming means for extruding and separating predetermined portions of the screen expanded and contracted by the screen expansion / contraction means and automatically forming a plurality of projection areas with different angles on the screen.
前記映写領域形成手段は、
前記スクリーンを区画して角度の異なる映写領域を設けるための領域区画部材と、
前記領域区画部材を移動させる移動機構と、
前記移動機構を駆動する駆動部とを備え、
前記領域区画部材により前記スクリーンの所定部位を押し出して区切ると共に、角度の異なる映写領域を当該スクリーンに自動的に複数形成する
ことを特徴とする請求項11に記載のスクリーン装置。
The projection area forming means includes:
An area partition member for partitioning the screen and providing projection areas with different angles;
A moving mechanism for moving the area partition member;
A drive unit for driving the moving mechanism;
The screen device according to claim 11 , wherein a predetermined portion of the screen is pushed out and divided by the region partition member, and a plurality of projection regions having different angles are automatically formed on the screen.
JP2007127294A 2007-05-11 2007-05-11 Video processing system and screen device Expired - Fee Related JP5182544B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007127294A JP5182544B2 (en) 2007-05-11 2007-05-11 Video processing system and screen device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007127294A JP5182544B2 (en) 2007-05-11 2007-05-11 Video processing system and screen device

Publications (2)

Publication Number Publication Date
JP2008281872A JP2008281872A (en) 2008-11-20
JP5182544B2 true JP5182544B2 (en) 2013-04-17

Family

ID=40142718

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007127294A Expired - Fee Related JP5182544B2 (en) 2007-05-11 2007-05-11 Video processing system and screen device

Country Status (1)

Country Link
JP (1) JP5182544B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103869592B (en) * 2012-12-18 2016-12-28 鸿富锦精密工业(深圳)有限公司 Scialyscope
KR101611174B1 (en) * 2013-09-03 2016-04-11 씨제이씨지브이 주식회사 Simulation system for simulating multi-projection system
KR20150066931A (en) 2013-12-09 2015-06-17 씨제이씨지브이 주식회사 Method for representing visible area of theater
WO2015088228A1 (en) * 2013-12-09 2015-06-18 Cj Cgv Co., Ltd. Method and system for generating multi-projection images
JP6438207B2 (en) * 2014-03-31 2018-12-12 株式会社バンダイナムコエンターテインメント Image generation system and program
WO2016129697A1 (en) * 2015-02-13 2016-08-18 株式会社ニコン Image display device and image generation device
JP6486195B2 (en) * 2015-05-25 2019-03-20 株式会社三共 Game machine

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0446436U (en) * 1990-08-24 1992-04-20
JPH10239769A (en) * 1997-02-26 1998-09-11 Sanyo Electric Co Ltd Back projection type display device
JP2001356410A (en) * 2000-06-14 2001-12-26 Nippon Telegr & Teleph Corp <Ntt> Projection type display device
JP2002300613A (en) * 2001-03-30 2002-10-11 Operation Center:Kk Image presentation system
JP2003015221A (en) * 2001-06-29 2003-01-15 Fuji Photo Film Co Ltd Projection device
JP2005115069A (en) * 2003-10-08 2005-04-28 Seiko Epson Corp Display device
JP4556542B2 (en) * 2004-08-09 2010-10-06 セイコーエプソン株式会社 Image display device

Also Published As

Publication number Publication date
JP2008281872A (en) 2008-11-20

Similar Documents

Publication Publication Date Title
JP5182544B2 (en) Video processing system and screen device
CN102893595B (en) Image processing apparatus and method and program
US8259173B2 (en) Image generating apparatus and image generating method
JP4153146B2 (en) Image control method for camera array and camera array
US7701518B2 (en) Methods and systems for displaying video in multiple aspect ratios
JP4735693B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
US10585344B1 (en) Camera system with a plurality of image sensors
US9521383B2 (en) Image processing apparatus, projector, and image processing method
US20050163396A1 (en) Captured image projection apparatus and captured image correction method
JP2008149878A (en) Operation assisting system
WO2021172037A1 (en) Image processing device, image processing method, program, and image presentation system
CN114449233B (en) Projection device and trapezoid correction method thereof
TW201517619A (en) Method for successively displaying sections of screen and computer-readable medium
WO2020179529A1 (en) Image display system and image display method
KR20170061640A (en) A method for modifying an image to compensate perspective effect and a device thereof
JP2009147670A (en) Image processor and image display device using the same
JP4587871B2 (en) Content display method, content display device, program for executing the method, and recording medium
JP2011013310A (en) Image projection device
JP2007515864A (en) Video image processing method
EP1848203B1 (en) Method and system for video image aspect ratio conversion
KR101978271B1 (en) A method for modifying an image to compensate perspective effect and a device thereof
CN110121032B (en) Method, device and equipment for displaying animation special effect and storage medium
GB2413450A (en) Video navigation using image tokens displayed within a continuous band of tokens
KR20150045080A (en) Method for compensating image for low vision person and apparatus for the same
JP4851860B2 (en) Projector and angle of view control method

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20090918

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20091109

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100427

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120502

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130102

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160125

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees