JP5214267B2 - Video production system and video production method - Google Patents

Video production system and video production method Download PDF

Info

Publication number
JP5214267B2
JP5214267B2 JP2008027211A JP2008027211A JP5214267B2 JP 5214267 B2 JP5214267 B2 JP 5214267B2 JP 2008027211 A JP2008027211 A JP 2008027211A JP 2008027211 A JP2008027211 A JP 2008027211A JP 5214267 B2 JP5214267 B2 JP 5214267B2
Authority
JP
Japan
Prior art keywords
video
module
image
virtual
effect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008027211A
Other languages
Japanese (ja)
Other versions
JP2009188780A (en
Inventor
和信 東
Original Assignee
株式会社 空間コム
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 空間コム filed Critical 株式会社 空間コム
Priority to JP2008027211A priority Critical patent/JP5214267B2/en
Publication of JP2009188780A publication Critical patent/JP2009188780A/en
Application granted granted Critical
Publication of JP5214267B2 publication Critical patent/JP5214267B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、表示画面上にインタラクティブ映像を表示させ、その視聴者が映像に対して対話形式の操作を行なうことによりそのインタラクティブ映像を変化させるようにすることができる映像演出システム及び映像演出方法に関するものである。   The present invention relates to a video effect system and a video effect method that allow an interactive video to be displayed on a display screen and that the viewer change the interactive video by performing an interactive operation on the video. Is.

従来においては、表示画面と、この表示画面上を覆うタッチパネルとを備えることにより、表示画面内にキャラクター等の操作対象物が表示されている状態のときに、この操作対象物の表示位置に対応するタッチパネル上の点にペン先や指先等を接触させ、リアルタイムに操作対象物を移動させたり回転させたりして、操作対象物の位置や姿勢を変化させることができるゲーム装置があった(例えば、特許文献1参照)。   Conventionally, by providing a display screen and a touch panel that covers the display screen, it corresponds to the display position of the operation object when the operation object such as a character is displayed on the display screen. There is a game device that can change the position and posture of an operation target by touching a point on a touch panel with a pen tip or a fingertip and moving or rotating the operation target in real time (for example, , See Patent Document 1).

この特許文献1のゲーム装置は、表示画面内の操作対象物の表示位置に対応するタッチパネル上の点にペン先や指先等を接触させて操作を行なうようになっているので、操作者は、表示画面内の操作対象物を自分の意のままに支配しているような征服感を得ることができるようになっていた。   Since the game apparatus of this patent document 1 is adapted to perform operations by bringing a pen tip or a fingertip into contact with a point on the touch panel corresponding to the display position of the operation target in the display screen, It was possible to obtain a feeling of conquest as if the object to be operated on the display screen was controlled as desired.

ここで、この特許文献1のゲーム装置が出力するような映像は、特に、この映像を操作する者とこのゲーム装置との間の対話形式の操作に対応して変化していくようになっているという点に着目した点において、インタラクティブ映像と呼ぶことがある。   Here, the video output by the game device of Patent Document 1 changes in response to an interactive operation between the person who operates this video and the game device. It is sometimes called interactive video because it focuses on the fact that it is.

また、従来においては、上記特許文献1のゲーム装置と同様に、表示画面上にタッチパネルを備えることによりインタラクティブ映像を出力するようになっている映像出力装置として、例えば、冠婚葬祭等の式典会場や何等かのイベント会場等に設置して用いられるものがあった。
特開2006−122241号公報
Conventionally, similar to the game device of Patent Document 1, as a video output device configured to output an interactive video by providing a touch panel on a display screen, for example, a ceremony venue such as a ceremonial occasion There were some that were installed and used at some event venues.
JP 2006-122241 A

しかしながら、前記特許文献1に記載されているようなゲーム装置、或いは、冠婚葬祭等の式典会場やイベント会場等に設置されるような上記従来の映像出力装置は、操作者が表示画面上のタッチパネルに直接触れて操作しなければ、操作対象物を動かしたり変化させたりすることができないという問題があった。   However, the game device as described in Patent Document 1 or the above-described conventional video output device installed at a ceremony venue or event venue such as a ceremonial occasion, the operator is on the display screen. There is a problem that the operation target cannot be moved or changed unless it is operated by directly touching the touch panel.

したがって、前記特許文献1に記載されているようなゲーム装置、或いは、式典会場やイベント会場等に設置されるような上記従来の映像出力装置は、タッチパネルに直接触れなくとも操作対象物がその場の雰囲気に応じて勝手に動いたり変化したりすることはないので、面白みに欠けるという問題があった。   Therefore, the game apparatus as described in Patent Document 1, or the above-described conventional video output apparatus installed in a ceremony hall or an event hall does not touch the touch panel directly, but the operation target is on the spot. Because it does not move or change freely according to the atmosphere, there was a problem that it was not interesting.

また、冠婚葬祭等の式典会場、イベント会場、又は他の集会所等においては、その場の雰囲気に応じて視聴者が、自然で直感的にインタラクティブ映像を楽しめるような映像演出が望まれているという背景があった。   Also, at ceremonial venues, event venues, and other meeting places, such as ceremonial occasions, video production is desired so that viewers can enjoy interactive video naturally and intuitively according to the atmosphere of the venue. There was a background of being.

また、前記特許文献1に記載されているようなゲーム装置、或いは、上記式典会場やイベント会場等に設置されるような上記従来の映像出力装置は、タッチパネルが表示画面を覆うように設けられているので、操作によりタッチパネルが汚れると、表示画面に表示される映像が見づらくなってしまうという問題もあった。   In addition, the game device as described in Patent Document 1, or the above-described conventional video output device installed in the ceremony hall, event hall, or the like, is provided so that the touch panel covers the display screen. Therefore, if the touch panel becomes dirty due to the operation, there is a problem that it is difficult to see the image displayed on the display screen.

そこで本発明は、上記問題点に鑑みて、視聴者が映像システムに対して対話形式の操作を行なうことにより、表示画面上に表示されるインタラクティブ映像を変化させるようにする映像演出システム及び映像演出方法において、タッチパネルを介することなく、視聴者が自然に、或いは意識的に振舞うことによりひとりでに変化するインタラクティブ映像を楽しむことができる映像演出システム及び映像演出方法を提供することを課題とするものである。   Therefore, in view of the above problems, the present invention provides a video effect system and a video effect that allow a viewer to change an interactive video displayed on a display screen by performing an interactive operation on the video system. It is an object of the present invention to provide a video presentation system and a video presentation method that enable a viewer to enjoy an interactive video that changes by himself / herself by acting naturally or consciously without using a touch panel. .

上記課題を解決するために、本発明による映像演出システムは、
画像データを記憶する記憶手段と、
表示画面を有し、この表示画面上に前記画像データに基づく映像を映し出す映像出力手段と、
前記表示画面の前側の一定領域内を撮影するカメラセンサと、
前記カメラセンサが撮影した映像に基づいて前記一定領域内に入り込んだ実世界の物体の変動を抽出し、この実世界の物体の変動に対応して前記映像出力手段が映す映像内の仮想物体の形態を変化させるように制御する制御手段とを備え、
前記制御手段は、前記映像内の仮想物体の周囲に前記実世界の物体の周囲の風を伝播する仮想流体が存在するものと仮定して、この仮想流体中を前記実世界の物体の変動が伝播することをシミュレーションすることにより、前記映像出力手段が映す映像内の仮想物体の形態を変化させるように制御し、
視聴者が自然に、或いは意識的に振舞うことによりひとりでに変化する映像を楽しむことができるようにしたことを特徴とするものである。
In order to solve the above-mentioned problem, the video production system according to the present invention is:
Storage means for storing image data;
A video output means having a display screen, and displaying a video based on the image data on the display screen;
A camera sensor that captures an image of a predetermined area on the front side of the display screen;
Based on the image taken by the camera sensor, the fluctuation of the real world object that has entered the fixed area is extracted, and the virtual object in the video projected by the video output means corresponding to the fluctuation of the real world object is extracted. Control means for controlling to change the form,
The control means assumes that there is a virtual fluid that propagates the wind around the real world object around the virtual object in the video, and the fluctuation of the real world object is in the virtual fluid. By controlling the propagation, by controlling the form of the virtual object in the image projected by the image output means,
It is characterized in that the viewer can enjoy a video that changes by himself / herself by acting naturally or consciously.

また、本発明による映像演出システムは、
前記制御手段は、前記映像内の仮想物体の形態の変化を、前記実世界の物体の変動に対応してリアルタイムに、かつ、連続的に生じさせるよう制御することを特徴とするものである。
In addition, the video production system according to the present invention includes:
The control means controls to cause a change in the form of a virtual object in the video to occur continuously in real time in response to a change in the real world object .

また、本発明による映像演出システムは、
前記制御手段は、前記一定領域内に入り込んだ実世界の物体の位置、大きさ、形状、及び/又は速さを、前記実世界の物体の変動として抽出して、これらを前記映像内の仮想物体の形態の変化に反映させたことを特徴とするものである。
In addition, the video production system according to the present invention includes:
The control means extracts the position, size, shape, and / or speed of an object in the real world that has entered the certain area as a variation of the object in the real world, and extracts these as virtual changes in the video. It is characterized in that it is reflected in the change of the form of the object .

また、本発明による映像演出システムは、
前記制御手段は、前記仮想流体の前記仮想空間中における前記実世界の物体の変動の伝播を誇張してシミュレーションするようにしたことを特徴とするものである。
In addition, the video production system according to the present invention includes:
The control means exaggerates the simulation of the propagation of the real-world object in the virtual space of the virtual fluid and simulates the virtual fluid .

また、上記課題を解決するために、本発明による映像演出方法は、
画像データを記憶する記憶手段と、
表示画面を有し、この表示画面上に前記画像データに基づく映像を映し出す映像出力手段と、
前記表示画面の前側の一定領域内を撮影するカメラセンサと、
前記映像出力手段が映す映像を制御する制御手段とを用いて、
前記制御手段が、前記カメラセンサが撮影した映像に基づいて前記一定領域内に入り込んだ実世界の物体の変動を抽出し、前記映像内の仮想物体の周囲に前記実世界の物体の周囲の風を伝播する仮想流体が存在するものと仮定して、この仮想流体中を前記実世界の物体の変動が伝播することをシミュレーションすることにより、前記映像出力手段が映す映像内の仮想物体の形態を変化させるように制御し、
視聴者が自然に、或いは意識的に振舞うことによりひとりでに変化する映像を楽しむことができるようにしたことを特徴とするものである。
In addition, in order to solve the above-mentioned problem, the video presentation method according to the present invention is
Storage means for storing image data;
A video output means having a display screen, and displaying a video based on the image data on the display screen;
A camera sensor that captures an image of a predetermined area on the front side of the display screen;
Using the control means for controlling the video projected by the video output means,
The control means extracts fluctuations of a real-world object that has entered the fixed area based on an image captured by the camera sensor , and winds around the virtual object in the video are around the virtual object. Assuming that there is a virtual fluid propagating through the virtual fluid, the virtual object in the image projected by the image output means is simulated by simulating the propagation of changes in the real world object in the virtual fluid. Control to change,
It is characterized in that the viewer can enjoy a video that changes by himself / herself by acting naturally or consciously.

このような本発明の映像演出システムによれば、
画像データを記憶する記憶手段と、
表示画面を有し、この表示画面上に前記画像データに基づく映像を映し出す映像出力手段と、
前記表示画面の前側の一定領域内を撮影するカメラセンサと、
前記カメラセンサが撮影した映像に基づいて前記一定領域内に入り込んだ物体の変動を抽出し、この変動に対応して前記映像出力手段が映す映像内の仮想物体の形態を変化させるように制御する制御手段とを備え、
視聴者が自然に、或いは意識的に振舞うことによりひとりでに変化する映像を楽しむことができるようにしたことにより、
視聴者が映像システムに対して対話形式の操作を行なうことにより、表示画面上に表示されるインタラクティブ映像を変化させるようにする映像演出システムにおいて、タッチパネルを介することなく、視聴者が自然に、或いは意識的に振舞うことによりひとりでに変化するインタラクティブ映像を楽しむことができる。
According to such a video production system of the present invention,
Storage means for storing image data;
A video output means having a display screen, and displaying a video based on the image data on the display screen;
A camera sensor that captures an image of a predetermined area on the front side of the display screen;
Based on the image captured by the camera sensor, the variation of the object that has entered the fixed area is extracted, and control is performed so as to change the form of the virtual object in the image projected by the image output unit in response to the variation. Control means,
By enabling viewers to enjoy images that change by themselves by acting naturally or consciously,
In a video production system in which an interactive video displayed on a display screen is changed by an interactive operation performed on the video system by the viewer, the viewer can naturally or without a touch panel. You can enjoy interactive images that change by yourself by acting consciously.

また、本発明の映像演出システムによれば、
前記制御手段は、前記映像内の仮想物体の周囲に仮想流体が存在するものと仮定して、この仮想流体中を前記変動が伝播することをシミュレーションすることにより、前記映像出力手段が映す映像内の仮想物体の形態を変化させるように制御するので、
視聴者が自然に、或いは意識的に振舞うことによりひとりでに変化するインタラクティブ映像を楽しむことができる。
Moreover, according to the video production system of the present invention,
The control means assumes that there is a virtual fluid around a virtual object in the video, and simulates the propagation of the fluctuation in the virtual fluid, so that the video output means Because it controls to change the shape of the virtual object of
The viewer can enjoy interactive video that changes by himself or herself by acting naturally or consciously.

また、本発明の映像演出システムによれば、
前記制御手段は、前記映像内の仮想物体の形態の変化を、前記変動に対応してリアルタイムに、かつ、連続的に生じさせるよう制御するので、
視聴者が自然に、或いは意識的に振舞うことによりひとりでに変化するインタラクティブ映像を楽しむことができる。
Moreover, according to the video production system of the present invention,
Since the control means controls the change of the form of the virtual object in the video to occur in real time and continuously corresponding to the change,
The viewer can enjoy interactive video that changes by himself or herself by acting naturally or consciously.

また、本発明の映像演出システムによれば、
前記制御手段は、前記一定領域内に入り込んだ物体の位置、大きさ、形状、及び/又は速さを、前記変動として抽出するので、
視聴者が自然に、或いは意識的に振舞うことによりひとりでに変化するインタラクティブ映像を楽しむことができる。
Moreover, according to the video production system of the present invention,
Since the control means extracts the position, size, shape, and / or speed of the object that has entered the fixed area as the fluctuation,
The viewer can enjoy interactive video that changes by himself or herself by acting naturally or consciously.

また、本発明の映像演出システムによれば、
使用時間又は使用回数に基づいて使用料金を算出する使用料算出手段を備えているので、
当該システムを他人に貸し出す場合に、使用料金体系を明確にすることができる。
Moreover, according to the video production system of the present invention,
As we have usage fee calculation means to calculate usage fee based on usage time or usage count,
When renting the system to others, the usage fee system can be clarified.

また、本発明の映像演出方法によれば、
画像データを記憶する記憶手段と、
表示画面を有し、この表示画面上に前記画像データに基づく映像を映し出す映像出力手段と、
前記表示画面の前側の一定領域内を撮影するカメラセンサと、
前記映像出力手段が映す映像を制御する制御手段とを用いて、
前記制御手段が、前記カメラセンサが撮影した映像に基づいて前記一定領域内に入り込んだ物体の変動を抽出し、この変動に対応して前記映像出力手段が映す映像内の仮想物体の形態を変化させるように制御し、
視聴者が自然に、或いは意識的に振舞うことによりひとりでに変化する映像を楽しむことができるようにしたことにより、
視聴者が映像システムに対して対話形式の操作を行なうことにより、表示画面上に表示されるインタラクティブ映像を変化させるようにする映像演出方法において、タッチパネルを介することなく、視聴者が自然に、或いは意識的に振舞うことによりひとりでに変化するインタラクティブ映像を楽しむことができる。
Moreover, according to the video production method of the present invention,
Storage means for storing image data;
A video output means having a display screen, and displaying a video based on the image data on the display screen;
A camera sensor that captures an image of a predetermined area on the front side of the display screen;
Using the control means for controlling the video projected by the video output means,
The control means extracts the fluctuation of the object that has entered the fixed area based on the video imaged by the camera sensor, and changes the form of the virtual object in the video imaged by the video output means in response to the fluctuation. Control to let
By enabling viewers to enjoy images that change by themselves by acting naturally or consciously,
In a video presentation method in which an interactive video displayed on a display screen is changed by an interactive operation performed on the video system by the viewer, the viewer can naturally perform without using a touch panel, or You can enjoy interactive images that change by yourself by acting consciously.

また、本発明の映像演出方法によれば、
前記制御手段が、前記映像内の仮想物体の周囲に仮想流体が存在するものと仮定して、この仮想流体中を前記変動が伝播することをシミュレーションすることにより、前記映像出力手段が映す映像内の仮想物体の形態を変化させるように制御するので、
視聴者が自然に、或いは意識的に振舞うことによりひとりでに変化するインタラクティブ映像を楽しむことができる。
Moreover, according to the video production method of the present invention,
Assuming that a virtual fluid exists around a virtual object in the video, the control means simulates the propagation of the fluctuation in the virtual fluid, thereby causing the video output means Because it controls to change the shape of the virtual object of
The viewer can enjoy interactive video that changes by himself or herself by acting naturally or consciously.

以下、本発明に係る映像演出システム及び映像演出方法の実施の形態について、図面に基づいて具体的に説明する。
図1ないし図15は、本発明の第1の実施の形態に係る映像演出システム2及びその映像演出方法について説明するために参照する図である。
DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments of a video effect system and a video effect method according to the present invention will be specifically described based on the drawings.
FIG. 1 to FIG. 15 are diagrams which are referred to for explaining the video effect system 2 and the video effect method according to the first embodiment of the present invention.

図1は、本実施の形態に係る映像演出システム2のハードウェア構成図である。本実施の形態に係る映像演出システム2は、ディスプレイ装置4(映像出力手段)と、カメラセンサ6と、コンピュータ8とを備えて構成されている。ディスプレイ装置4とカメラセンサ6のそれぞれは、コンピュータ8に配線接続されている。   FIG. 1 is a hardware configuration diagram of a video presentation system 2 according to the present embodiment. The video presentation system 2 according to the present embodiment is configured to include a display device 4 (video output means), a camera sensor 6, and a computer 8. Each of the display device 4 and the camera sensor 6 is wired to the computer 8.

コンピュータ8は、記憶装置10(記憶手段)、中央演算処理装置12、及びキーボードやマウス等の入力装置14(入力手段)を備えて構成されている。このコンピュータ8の記憶装置10は、後述する図4の素材ファイル30と映像演出用プログラム32とを記憶するようになっている。   The computer 8 includes a storage device 10 (storage means), a central processing unit 12, and an input device 14 (input means) such as a keyboard and a mouse. The storage device 10 of the computer 8 stores a material file 30 and a video effect program 32 shown in FIG.

また、図1に示すコンピュータ8の中央演算処理装置12は、記憶装置10に読み込まれる後述の映像演出用プログラム32に従って動作し、ディスプレイ装置4に表示する映像を制御するための制御手段として動作するようになっている。   Further, the central processing unit 12 of the computer 8 shown in FIG. 1 operates in accordance with a video effect program 32 to be described later read into the storage device 10 and operates as a control means for controlling the video displayed on the display device 4. It is like that.

ディスプレイ装置4は、図2及び図3に示すように、表示画面18を有している。また、このディスプレイ装置4には、不図示のスピーカーが内蔵されている。ディスプレイ装置4は、図3に示すように、その表示画面18が、この表示画面18に表示される映像を見ながらこの映像を変化させようとして動作する視聴者16に対向することになるような姿勢で、架台20上に設置されている。架台20としては、例えば、イーゼルを用いることができる。   As shown in FIGS. 2 and 3, the display device 4 has a display screen 18. The display device 4 includes a speaker (not shown). As shown in FIG. 3, the display device 4 has a display screen 18 facing a viewer 16 who operates to change the video while watching the video displayed on the display screen 18. It is installed on the gantry 20 in a posture. As the gantry 20, for example, an easel can be used.

このようなディスプレイ装置4と架台20は、例えば、結婚披露宴会場等の入り口付近に、ウェルカムボードとして設置することができる。また、ディスプレイ装置4としては、例えば、液晶ディスプレイ装置、プラズマディスプレイ装置、又は有機ELディスプレイ装置等を用いることができる。   Such a display device 4 and the gantry 20 can be installed as a welcome board near the entrance of a wedding reception hall, for example. As the display device 4, for example, a liquid crystal display device, a plasma display device, an organic EL display device, or the like can be used.

また、映像演出システム2のカメラセンサ6は、ディスプレイ装置4の上端部に取り付けられている。このカメラセンサ6は、ディスプレイ装置4の表示画面18の前側の、図3中の破線で囲まれる一定領域内を撮影するようになっている。   In addition, the camera sensor 6 of the video effect system 2 is attached to the upper end portion of the display device 4. The camera sensor 6 takes an image of a predetermined area surrounded by a broken line in FIG. 3 on the front side of the display screen 18 of the display device 4.

図4は、本実施の形態に係る映像演出システム2を作動させるためのソフトウェア28の構成図である。この映像演出システム2を動作させるためのソフトウェア28は、素材ファイル30と映像演出用プログラム32とを備えて構成されている。この素材ファイル30と映像演出用プログラム32は、図1に示すコンピュータ8の記憶手段10に記憶されている。   FIG. 4 is a configuration diagram of software 28 for operating the video effect system 2 according to the present embodiment. The software 28 for operating the video presentation system 2 includes a material file 30 and a video presentation program 32. The material file 30 and the video effect program 32 are stored in the storage means 10 of the computer 8 shown in FIG.

素材ファイル30は、動画データ34、静止画データ36a,36b,36c,36d,36e,36f,・・・、3Dモデルデータ38(三次元モデルデータ)、音声データ40、及びテキストデータ42を備えている。   The material file 30 includes moving image data 34, still image data 36a, 36b, 36c, 36d, 36e, 36f,..., 3D model data 38 (three-dimensional model data), audio data 40, and text data 42. Yes.

この素材ファイル30における動画データ34、静止画データ36a,36b,36c,36d,36e,36f,・・・、3Dモデルデータ38、音声データ40、及びテキストデータ42のそれぞれの具体的内容については、後述する映像演出用プログラム32、及び図5に示す映像80について説明する際に、併せて説明する。   Regarding the specific contents of the moving image data 34, still image data 36a, 36b, 36c, 36d, 36e, 36f,..., 3D model data 38, audio data 40, and text data 42 in the material file 30, The video presentation program 32 described later and the video 80 shown in FIG. 5 will be described together.

ここで、素材ファイル30の動画データ34、静止画データ36a,36b,36c,36d,36e,36f,・・・、及び3Dモデルデータ38のそれぞれは、便宜上、画像データと呼ぶことがあるものとする。また、静止画データ36a,36b,36c,36d,36e,36f,・・・のそれぞれについて、又はこれらをまとめて、その符号にアルファベットを付さずに、静止画データ36と呼ぶことがあるものとする。   Here, the moving image data 34, the still image data 36a, 36b, 36c, 36d, 36e, 36f,..., And the 3D model data 38 of the material file 30 may be referred to as image data for convenience. To do. In addition, each of the still image data 36a, 36b, 36c, 36d, 36e, 36f,..., Or all of them may be referred to as still image data 36 without adding an alphabet to the reference numeral. And

次に、映像演出用プログラム32は、センサモジュール46及び映像演出モジュール48を備えている。ここで、モジュールとは何等かの機能を発揮するように組まれた小さいプログラムのことをいう。   Next, the video effect program 32 includes a sensor module 46 and a video effect module 48. Here, a module refers to a small program that is configured to perform some function.

映像演出用プログラム32のセンサモジュール46は、図3に示すカメラセンサ6が撮影した映像(実世界の映像)をリアルタイムに取得し、前フレーム差分法により、映像内に映っている何等かの動く物体について、その大きさ、形状、移動方向、及び速さの情報を抽出するようになっている。   The sensor module 46 of the video effect program 32 acquires the video (real world video) captured by the camera sensor 6 shown in FIG. 3 in real time, and performs any movement shown in the video by the previous frame difference method. Information on the size, shape, moving direction, and speed of the object is extracted.

すなわち、センサモジュール46は、カメラセンサ6から1秒間当たりに約30フレーム取得する映像のそれぞれを、随時、グレースケールに変換し、前後のフレーム間の差異を検出することにより動いた箇所だけを抽出して、映像内に映っている何等かの動く物体の大きさ及び形状を抽出するようになっている。また、センサモジュール46は、このように抽出した動く物体の大きさと形状に基づいて、その中心位置の座標を求め、この中心位置の座標の変化量からその移動方向と速さを抽出するようになっている。   That is, the sensor module 46 converts each image acquired from the camera sensor 6 to about 30 frames per second into a gray scale as needed, and extracts only the moving part by detecting the difference between the previous and next frames. Thus, the size and shape of any moving object shown in the video is extracted. Further, the sensor module 46 obtains the coordinates of the center position based on the size and shape of the moving object thus extracted, and extracts the moving direction and speed from the amount of change in the coordinates of the center position. It has become.

センサモジュール46が、このような抽出作業の対象とする撮影映像内の動く物体としては、カメラセンサ6が撮影する一定領域内に入って来た視聴者16若しくはその体の一部、又は視聴者16が所持若しくは携帯するような物、或いは、カメラセンサ6が撮影する一定領域内に投げ込まれた物や転がり込んできたような物が該当する。   As the moving object in the captured image that the sensor module 46 performs such an extraction operation, the viewer 16 or a part of the body that has entered the fixed area captured by the camera sensor 6, or the viewer An object that is carried or carried by the camera 16 or an object that is thrown into a certain area photographed by the camera sensor 6 or an object that has been rolled up is applicable.

センサモジュール46は、図4に示すように、カメラセンサ6が撮影した映像内の何等かの動く物体から抽出した、その大きさ、形状、移動方向、及び速さの情報を、映像演出モジュール48に連続的に出力するようになっている。   As shown in FIG. 4, the sensor module 46 extracts information on the size, shape, moving direction, and speed extracted from any moving object in the video captured by the camera sensor 6, and the video effect module 48. Is output continuously.

次に、映像演出用プログラム32内の映像演出モジュール48は、流体シミュレーションモジュール54、映像再生モジュール56、映像効果モジュール58、CG合成モジュール60(コンピュータグラフィック合成モジュール)、音声再生モジュール62、音声効果モジュール64、及び音声合成モジュール66を備えて構成されている。   Next, the video presentation module 48 in the video presentation program 32 includes a fluid simulation module 54, a video playback module 56, a video effect module 58, a CG synthesis module 60 (computer graphic synthesis module), an audio playback module 62, and a voice effect module. 64 and a speech synthesis module 66.

映像演出モジュール48内の流体シミュレーションモジュール54は、図3に示すディスプレイ装置4の表示画面18の内側に広がって空気が存在するような仮想空間を設定し、この仮想空間内に生じる風(空気の流れ)をシミュレーションするようになっている。   The fluid simulation module 54 in the video effect module 48 sets a virtual space in which air exists and spreads inside the display screen 18 of the display device 4 shown in FIG. Flow) is simulated.

すなわち、流体シミュレーションモジュール54は、ディスプレイ装置4の表示画面18の前側の一定領域内で動く実世界の物体が生じさせる風が、ディスプレイ装置4の表示画面18を突き抜けて、この表示画面18内の仮想空間にまで伝播するものと仮定して、図4に示すセンサモジュール46により抽出された、カメラセンサ6が撮影した実映像内の動く物体についての大きさ、形状、移動方向、及び速さの情報を連続的に取得し、これらの情報に基づいて、仮想空間内において風がどのように伝播するかをシミュレーションするようになっている。   That is, the fluid simulation module 54 causes the wind generated by a real-world object moving in a certain area on the front side of the display screen 18 of the display device 4 to penetrate the display screen 18 of the display device 4. Assuming that it propagates to the virtual space, the size, shape, moving direction, and speed of the moving object in the real image captured by the camera sensor 6 extracted by the sensor module 46 shown in FIG. Information is acquired continuously, and how the wind propagates in the virtual space is simulated based on the information.

このとき流体シミュレーションモジュール54は、仮想空間内を伝播する風の強さをある程度誇張してシミュレーションするようになっている。また、流体シミュレーションモジュール54は、このようなシミュレーション情報を、映像再生モジュール56、映像効果モジュール58、CG合成モジュール60、音声再生モジュール62、音声効果モジュール64、及び音声合成モジュール66のそれぞれに、連続的に出力するようになっている。   At this time, the fluid simulation module 54 performs simulation by exaggerating the strength of the wind propagating in the virtual space to some extent. Further, the fluid simulation module 54 continuously transmits such simulation information to each of the video reproduction module 56, the video effect module 58, the CG synthesis module 60, the audio reproduction module 62, the audio effect module 64, and the voice synthesis module 66. Output.

映像演出モジュール48の映像再生モジュール56は、素材ファイル30内の動画データ34及び静止画データ36a,36b,36c,36d,36e,36f,・・・を読み込んで再生するようになっている。   The video reproduction module 56 of the video effect module 48 reads and reproduces the moving image data 34 and the still image data 36a, 36b, 36c, 36d, 36e, 36f,.

映像再生モジュール56は、素材ファイル30内の動画データ34及び静止画データ36a,36b,36c,36d,36e,36f,・・・の中から、複数の任意のものを個別に再生することができるようになっている。   The video reproduction module 56 can individually reproduce a plurality of arbitrary ones of the moving image data 34 and the still image data 36a, 36b, 36c, 36d, 36e, 36f,. It is like that.

この映像再生モジュール56が任意に再生する動画データ34及び静止画データ36a,36b,36c,36d,36e,36f,・・・のそれぞれが、図2に示すディスプレイ装置4の表示画面18内の、いずれの範囲にどのように表示されるようになるのかについては、後述するCG合成モジュール60のマッピングの処理により決定されるようになっている。   Each of the moving image data 34 and the still image data 36a, 36b, 36c, 36d, 36e, 36f,... Arbitrarily reproduced by the video reproduction module 56 is displayed in the display screen 18 of the display device 4 shown in FIG. How to be displayed in which range is determined by the mapping process of the CG synthesis module 60 described later.

なお、映像再生モジュール56が、動画データ34及び静止画データ36a,36b,36c,36d,36e,36f,・・・のいずれを継続的に再生するかについて、並びに、いずれをどのようなタイミングで切替えて再生するようになっているのかについては、後述する図5の映像80等について説明する際に、併せて説明する。   It should be noted that the video reproduction module 56 continuously reproduces the moving image data 34 and the still image data 36a, 36b, 36c, 36d, 36e, 36f, and so on, and at what timing. Whether the video is switched and played back will be described together when the video 80 in FIG.

図4に示すように、映像再生モジュール56で再生された動画データ34及び静止画データ36a,36b,36c,36d,36e,36f,・・・の映像は、映像効果モジュール58に送られるようになっている。   As shown in FIG. 4, the video data 34 and still image data 36a, 36b, 36c, 36d, 36e, 36f,... Reproduced by the video playback module 56 are sent to the video effect module 58. It has become.

映像効果モジュール58は、流体シミュレーションモジュール54から仮想空間内に風が生じた旨のシミュレーション情報を受け取るたびに、映像再生モジュール56によって再生された動画データ34の映像に対して、交互に赤の色相を混ぜたり混ぜないようにしたりする画像処理を行なうようになっている。   Each time the video effect module 58 receives simulation information indicating that wind has occurred in the virtual space from the fluid simulation module 54, the video effect module 58 alternates the red hue with respect to the video of the video data 34 reproduced by the video reproduction module 56. Image processing that mixes or prevents mixing is performed.

映像効果モジュール58は、映像再生モジュール56によって再生された動画データ34の映像に対して、このような色相のエフェクト(映像効果)を加えた後に、これをCG合成モジュール60に送り出すようになっている。   The video effect module 58 adds such a hue effect (video effect) to the video of the moving image data 34 reproduced by the video reproduction module 56, and then sends it to the CG synthesis module 60. Yes.

CG合成モジュール60は、素材ファイル30内の3Dモデルデータ38、及びテキストデータ42に基づいてCG(コンピュータグラフィックス)を生成したり、又は、独自にCGを生成するようになっている。   The CG synthesis module 60 generates CG (computer graphics) based on the 3D model data 38 and the text data 42 in the material file 30 or generates CG independently.

また、CG合成モジュール60は、このように生成したCGや、映像効果モジュール58から受取った映像等を、仮想空間内の所定の位置に配置するようになっている。このようなCG合成モジュール60の配置作業の中には、このCG合成モジュール60が生成したCGの表面、又は仮想空間内の任意の領域に、映像効果モジュール58から受取った映像をテクスチャ(texture)として、マッピング(mapping)するような作業が含まれる。また、CG合成モジュール60は、映像同士の合成も行なうようになっている。   The CG synthesis module 60 arranges the CG generated in this way, the video received from the video effect module 58, and the like at a predetermined position in the virtual space. In such an arrangement work of the CG synthesis module 60, the video received from the video effect module 58 is textured on the surface of the CG generated by the CG synthesis module 60 or on an arbitrary area in the virtual space. As described above, an operation such as mapping is included. The CG synthesis module 60 also synthesizes videos.

また、CG合成モジュール60は、流体シミュレーションモジュール54から送られてくるシミュレーション情報に基づいて、リアルタイムにCGを変形させたり、新たなCGを生成したりするようになっている。また、シミュレーション情報に基づいて、テクスチャの入れ替えなどをリアルタイムに行うようになっている。また、CG合成モジュール60は、完成した映像をディスプレイ装置4に出力するようになっている。このCG合成モジュール60の具体的な動作内容については、後述する図5の映像80等と併せて説明する。   Further, the CG synthesis module 60 is configured to deform the CG in real time or generate a new CG based on the simulation information sent from the fluid simulation module 54. Further, based on the simulation information, texture replacement and the like are performed in real time. Further, the CG synthesis module 60 outputs the completed video to the display device 4. Specific operation contents of the CG synthesis module 60 will be described together with a video 80 and the like in FIG.

図4に示すように、音声再生モジュール62は、流体シミュレーションモジュール54から送られてくるシミュレーション情報に基づいて、素材ファイル30の音声データ40を読み込んで再生し、音声効果モジュール64に送り出すようになっている。   As shown in FIG. 4, the sound reproduction module 62 reads and reproduces the sound data 40 of the material file 30 based on the simulation information sent from the fluid simulation module 54, and sends it to the sound effect module 64. ing.

音声効果モジュール64は、流体シミュレーションモジュール54から送られてくるシミュレーション情報に基づいて、音声再生モジュール62が再生した音声データ40のピッチ(周波数)を変更し、音声合成モジュール66に送り出すようになっている。   The sound effect module 64 changes the pitch (frequency) of the sound data 40 reproduced by the sound reproduction module 62 based on the simulation information sent from the fluid simulation module 54, and sends it to the sound synthesis module 66. Yes.

また、音声合成モジュール66は、電子音データを生成したり、このように生成した電子音や音声効果モジュール64から受け取った音声を、ディスプレイ装置4の内蔵スピーカーに出力するようになっている。   The voice synthesis module 66 generates electronic sound data, and outputs the generated electronic sound and the voice received from the voice effect module 64 to the built-in speaker of the display device 4.

音声再生モジュール62、音声効果モジュール64、及び音声合成モジュール66の具体的な動作内容は、後述する図5の映像80等の説明の際に併せて説明する。   Specific operation contents of the audio reproduction module 62, the audio effect module 64, and the audio synthesis module 66 will be described together with the description of the video 80 and the like in FIG.

図5は、映像演出システム2の映像演出用プログラム32が、ディスプレイ装置4の表示画面18に表示する色付きの映像80を示す図である。この映像80には、この映像80の下端部寄りの領域に配置され、この映像80の枠内に納まり切らずに一部領域だけが表示されている机102と、この机102上に置かれたアルバム104と、半透明に見えるレースのカーテン106と、このカーテン106越しに透けて見える窓108と、この窓108の屋外側に見える、雲が流れていく様子の空110が映し出されている。   FIG. 5 is a diagram showing a colored video 80 displayed on the display screen 18 of the display device 4 by the video presentation program 32 of the video presentation system 2. The video 80 is arranged in an area near the lower end of the video 80, and the desk 102 in which only a partial area is displayed without being fit within the frame of the video 80 is placed on the desk 102. The album 104, the translucent lace curtain 106, the window 108 seen through the curtain 106, and the sky 110 showing the cloud flowing on the outside of the window 108 are shown. .

また、この映像80には、この映像80の上端部寄りの位置で生成され、光り輝きながらアルバム104上にゆっくりと降り注いで消滅していく複数のパーティクル112(particle:粒子)と、ディスプレイ装置4の表示画面18上に張り付くように表示されたデザイン化された文字列114が映し出されている。   The video 80 includes a plurality of particles 112 that are generated near the upper end of the video 80, slowly fall on the album 104 while shining, and disappear. A designed character string 114 displayed so as to stick to the display screen 18 is displayed.

この映像80は、図6から図11に示す映像82,84,86,88,90,92を、これらの映像のそれぞれのアルファチャンネル等を用いることにより、互いに重ね合わせるように合成して表示したものである。   This video 80 is displayed by combining the videos 82, 84, 86, 88, 90, and 92 shown in FIGS. 6 to 11 so as to overlap each other by using respective alpha channels of these videos. Is.

映像82,84,86,88,90,92のそれぞれは、以下に説明するように作成され、これら映像82,84,86,88,90,92の合成は、図4に示す映像演出用プログラム32における映像演出モジュール48のCG合成モジュール60が行なっている。   Each of the images 82, 84, 86, 88, 90, and 92 is created as described below, and the composition of these images 82, 84, 86, 88, 90, and 92 is a video effect program shown in FIG. 4. The CG synthesis module 60 of the video effect module 48 in FIG.

図6に示すように、映像82には、雲が流れていく様子の空110が映し出されている。この映像82は、図4に示すように、その基礎となる素材ファイル30の動画データ34を、映像演出用プログラム32における映像演出モジュール48の映像再生モジュール56が読み込んで継続的にループ再生すると共に、この映像に対して映像効果モジュール58が画像処理を行ない、CG合成モジュール60が、この映像をテクスチャとして映像82の枠内の領域全体にマッピングすることにより作成されている。   As shown in FIG. 6, a sky 110 in which a cloud is flowing is projected on the video 82. As shown in FIG. 4, the video 82 is read by the video playback module 56 of the video rendering module 48 in the video rendering program 32 and continuously loop-played the moving image data 34 of the material file 30 that is the basis thereof. The video effect module 58 performs image processing on the video, and the CG synthesis module 60 maps the video as a texture to the entire area within the frame of the video 82.

映像効果モジュール58は、流体シミュレーションモジュール54から仮想空間内に風が生じた旨のシミュレーション情報を受け取るたびに、映像再生モジュール56によって再生された動画データ34の映像に対して、交互に赤の色相を混ぜたり混ぜないようにしたりする画像処理を行なうようになっているので、図6に示す映像82に映し出される空110は、交互に夕焼け空になったり青空になったりするようになっている。   Each time the video effect module 58 receives simulation information indicating that wind has occurred in the virtual space from the fluid simulation module 54, the video effect module 58 alternates the red hue with respect to the video of the video data 34 reproduced by the video reproduction module 56. 6 is performed so that the sky 110 projected in the video 82 shown in FIG. 6 alternately becomes a sunset sky or a blue sky. .

図7に示すように、映像84には、机102と窓108が映し出されている。この映像84は、図4に示すように、その基礎となる素材ファイル30の静止画データ36aを、映像演出用プログラム32における映像演出モジュール48の映像再生モジュール56が読み込んで再生し、CG合成モジュール60が、この再生した映像をテクスチャとして映像84の枠内の領域全体にマッピングすることにより、作成されている。   As shown in FIG. 7, a desk 102 and a window 108 are projected on the video 84. As shown in FIG. 4, the video 84 is read by the video playback module 56 of the video rendering module 48 in the video rendering program 32 and played back by the still image data 36a of the material file 30 serving as the basis thereof. 60 is created by mapping the reproduced video as a texture to the entire area within the frame of the video 84.

図8に示すように、映像86には、開いたアルバム104が映し出されるようになっている。また、この映像86においては、不図示の新郎新婦を写した2枚の互いに異なる写真120c,120dの映像のそれぞれが、アルバム104の見開きにされた左右両方のページのそれぞれに貼り付けてあるように映し出されている。   As shown in FIG. 8, the opened album 104 is displayed on the video 86. In addition, in this video 86, each of the images of two different photographs 120c and 120d showing a bride and groom (not shown) are pasted on both left and right pages of the album 104. It is reflected in.

この映像86のうちの写真120c,120dの映像の部分を除く、アルバム104の部分の映像は、図4に示すように、その基礎となる素材ファイル30の3Dモデルデータ38を、映像演出用プログラム32における映像演出モジュール48のCG合成モジュール60が読み込んで3次元CG映像として生成し、さらに、このCG合成モジュール60が、図8に示すように、映像86の表示枠内の所定の位置にマッピングすることにより作成したものである。   As shown in FIG. 4, the video of the album 104 portion excluding the video portions of the photos 120c and 120d in the video 86 is obtained by using the 3D model data 38 of the material file 30 as a basis for the video production program. 32, the CG synthesis module 60 of the video effect module 48 reads and generates a three-dimensional CG video, and this CG synthesis module 60 maps to a predetermined position in the display frame of the video 86 as shown in FIG. It was created by doing.

また、映像86のうちの写真120c,120dの部分の映像のそれぞれは、図4に示すように、その基礎となる素材ファイル30の静止画データ36c,36dのそれぞれを、映像再生モジュール56が読み込んで再生し、CG合成モジュール60が、この再生した映像をテクスチャとして、アルバム104の見開きにされた両方のページのそれぞれに立体的にマッピングしたものである。   In addition, as shown in FIG. 4, the video reproduction module 56 reads the still image data 36c and 36d of the material file 30 as the basis of each of the images 120c and 120d in the video 86, respectively. The CG synthesis module 60 three-dimensionally maps the reproduced video as a texture on each of both pages of the album 104 that are spread.

また、図8に示す映像86に映し出されるアルバム104は、図4に示す映像演出用プログラム32における映像演出モジュール48の流体シミュレーションモジュール54が、図3に示すカメラセンサ6が撮影する一定領域内での視聴者16等の動作に基づいて、仮想空間内に一定の風が生じた旨のシミュレーションを行った場合には、図12に示すように、ページがめくられるようになっている。   Further, the album 104 shown in the video 86 shown in FIG. 8 is within a certain area that the fluid simulation module 54 of the video effect module 48 in the video effect program 32 shown in FIG. 4 takes by the camera sensor 6 shown in FIG. When a simulation that a certain wind has occurred in the virtual space is performed based on the operation of the viewer 16 and the like, the page is turned as shown in FIG.

例えば、図8のアルバム104の見開きにされた左右のページのうちの右側の一番上のページが、仮想空間内に生じる風により、めくれ上がって左側のページの上側に重なるように動いていく場合には、図4に示す映像演出用プログラム32は、以下のように動作している。   For example, the uppermost page on the right side of the left and right pages of the album 104 in FIG. 8 is turned up by the wind generated in the virtual space so as to overlap the upper side of the left page. In this case, the video effect program 32 shown in FIG. 4 operates as follows.

まず、このようなアルバム104のページがめくれる様子のアニメーションの映像をCG合成モジュール60が生成する際に必要となる基礎データは、素材ファイル30の3Dモデルデータ38内にその一部として用意されている。   First, basic data required when the CG synthesis module 60 generates an animation image in which the page of the album 104 is turned over is prepared as part of the 3D model data 38 of the material file 30. Yes.

CG合成モジュール60は、流体シミュレーションモジュール54から、仮想空間内におけるアルバム104が配置された位置の近傍を右から左に向かう風が通る旨のシミュレーション情報を受け取ると、素材ファイル30の3Dモデルデータ38に基づいて、図示しないが、アルバム104(図8参照)の右側のページの上に、この右側のページの形状と同じ形状のページであって、ページがめくれる様子のアニメーションの一連の映像のうちの最初のものをフェードインして出現させる。   When the CG synthesis module 60 receives simulation information from the fluid simulation module 54 that the wind from right to left passes through the vicinity of the position where the album 104 is arranged in the virtual space, the 3D model data 38 of the material file 30 is received. Although not shown in the figure, on the right page of the album 104 (see FIG. 8), it is a page having the same shape as that of the right page. Fade in the first thing to make it appear.

また、図4に示す映像再生モジュール56は、流体シミュレーションモジュール54から送られてくるシミュレーション情報に基づいて、アルバム104の写真120c,120d(図8参照)の映像の基礎である素材ファイル30の静止画データ36c,36dの映像の再生を継続しつつ、これらと異なる後述の写真120e,120fの映像の基礎となる静止画データ36e,36fの再生を新たに開始するようになっている。   Also, the video playback module 56 shown in FIG. 4 is based on the simulation information sent from the fluid simulation module 54, and the stillness of the material file 30 that is the basis of the video 120c, 120d (see FIG. 8) of the album 104 is displayed. While continuing to reproduce the image data 36c, 36d, the reproduction of still image data 36e, 36f, which is the basis of the images of later-described photographs 120e, 120f, which are different from these images, is newly started.

図示しないが、CG合成モジュール60は、アルバム104(図8参照)の左側のページに継続して写真120cの映像を表示させ続けると共に、上述したように、右側のページ上にフェードインして出現させた不図示のページにおけるその表裏面のうちの表面に対し、このようなフェードインの動作と同時に、静止画データ36dを基礎とする写真120dの映像をマッピングして表示させるようになっている。このフェードインして出現させたページにマッピングした写真120dは、このページの下側のページに当初からマッピングされていた写真120dと同じものである。   Although not shown, the CG compositing module 60 continues to display the image of the photo 120c on the left page of the album 104 (see FIG. 8), and appears to fade in on the right page as described above. At the same time as the fade-in operation, the image of the photo 120d based on the still image data 36d is mapped and displayed on the front and back surfaces of the page (not shown). . The photograph 120d mapped to the page appearing by fading in is the same as the photograph 120d mapped from the beginning to the lower page of this page.

また、CG合成モジュール60は、フェードインして出現させた不図示のページの裏側の面に、静止画データ36eを基礎とする新たな写真120eの映像をマッピングするようになっている。この写真120eは、フェードインして出現したページがめくれる前には実際には視認することはできないが、このページがめくれて左側に移動し終わった段階においては視認することができるようになっている(図13参照)。   In addition, the CG composition module 60 maps a video of a new photograph 120e based on the still image data 36e on a surface on the back side of a page (not shown) that appears by fading in. This photo 120e cannot actually be seen before the page that appears after fading in is turned over, but it can be seen when the page has been turned and moved to the left. (See FIG. 13).

また、フェードインして出現させた不図示のページがめくれる前の段階で、このフェードインして出現させたページの下側のページには、当初からの写真120dの映像の代わりに、静止画データ36fを基礎とする新たな写真120fの映像をマッピングするようになっている(図12参照)。   In addition, before the page (not shown) that appears after fading in, the lower page of the page that appears after fading in is a still image instead of the image of the original photo 120d. An image of a new photograph 120f based on the data 36f is mapped (see FIG. 12).

そして、CG合成モジュール60は、素材ファイル30の3Dモデルデータ38に基づいて、ページがめくれて左側に移動していく様子のアニメーションの一連の映像を、写真120d,120eの映像をマッピングしながら映し出していくようになっている。CG合成モジュール60は、このアニメーションの一連の映像を、流体シミュレーションモジュール54から送られてくるシミュレーション情報の中における風の強さの情報に基づいて、風が弱いときにはページがゆっくりめくれるように映し、風が強いときにはページが速くめくれるように映すようになっている。   Based on the 3D model data 38 of the material file 30, the CG compositing module 60 projects a series of animations of the page turning and moving to the left side while mapping the images of the photos 120d and 120e. It has come to go. The CG synthesis module 60 projects a series of images of this animation based on the wind strength information in the simulation information sent from the fluid simulation module 54 so that the page turns slowly when the wind is weak, When the wind is strong, the pages are projected so that they can turn quickly.

アニメーションの映像を映し終わって、図13に示すように、めくれたページが左側まで移動し終わると、CG合成モジュール60は、このめくり終わった左側のページの下側の不図示のページ上に、当初からの写真120c(図12参照)の代わりに、写真120eをマッピングしてから、めくり終わったページの映像をフェードアウトさせるようになっている。また、図4に示す映像再生モジュール56は、図8に示す当初の写真120c、120dの映像の基礎となっていた静止画データ36c,36dの再生を終了するようになっている。   When the animation image is finished and the turned page has been moved to the left side as shown in FIG. 13, the CG synthesis module 60 is placed on a page (not shown) on the lower side of the turned left page. Instead of the original photo 120c (see FIG. 12), after the photo 120e is mapped, the video of the page that has been turned over is faded out. Also, the video playback module 56 shown in FIG. 4 ends the playback of the still image data 36c and 36d that was the basis of the video of the original photographs 120c and 120d shown in FIG.

図4に示す映像演出用プログラム32は、その流体シミュレーションモジュール54が、仮想空間内に風が生じた旨のシミュレーションを行なうたびに、このような映像86内のアルバム104のページがめくれる様子を映すようになっている。また、流体シミュレーションモジュール54が、仮想空間内に反対向きの風が生じた旨のシミュレーションを行なった場合には、アルバム104のページが反対方向にめくれる様子を映すようになっている。   The video effect program 32 shown in FIG. 4 shows a state in which the page of the album 104 in the video 86 is turned up whenever the fluid simulation module 54 performs a simulation that a wind is generated in the virtual space. It is like that. In addition, when the fluid simulation module 54 performs a simulation to the effect that a wind in the opposite direction has occurred in the virtual space, the state in which the pages of the album 104 turn in the opposite direction is displayed.

このような図8,12,13に示す映像86の変化は、この映像86と、この映像86以外の他の映像82,84,88,90,92とを互いに重ね合わせて完成する図5の映像80においても、反映されるようになっている。   Such changes in the image 86 shown in FIGS. 8, 12, and 13 are completed by superimposing the image 86 and other images 82, 84, 88, 90, and 92 other than the image 86 in FIG. 5. The video 80 is also reflected.

また、このような映像86に映し出されるアルバム104のページがめくれる様子にあわせて、図4に示す映像演出用プログラム32における映像演出モジュール48の音声再生モジュール62は、流体シミュレーションモジュール54から送られてくるシミュレーション情報に基づいて、ページがめくれるときの音の基礎となる音声データ40を読み込んで再生するようになっている。これにより、音声再生モジュール62は、映像86のアニメーションに合わせて、ページがめくれるときの音を出力するようになっている。   Further, in accordance with the state in which the page of the album 104 displayed in the video 86 is turned, the audio reproduction module 62 of the video effect module 48 in the video effect program 32 shown in FIG. 4 is sent from the fluid simulation module 54. Based on the coming simulation information, the audio data 40 which is the basis of the sound when the page is turned is read and reproduced. Thereby, the audio reproduction module 62 outputs a sound when the page is turned in accordance with the animation of the video 86.

また、音声効果モジュールは、流体シミュレーションモジュール54から送られてくるシミュレーション情報の中における風の強さの情報に基づいて、音声再生モジュール62が再生したページがめくれるときの音について、その周波数を変えることにより、ページが速くめくれるときと、ゆっくりとめくれるときの差異を出すようになっている。   Also, the sound effect module changes the frequency of the sound when the page reproduced by the sound reproduction module 62 turns based on the wind strength information in the simulation information sent from the fluid simulation module 54. This makes a difference between when pages turn quickly and when they turn slowly.

次に、図9に示すように、映像88には、カーテン106が映し出されている。この映像88のうちのカーテン106の部分の映像は、図4に示すCG合成モジュール60が、その形状を自由曲面のCG映像として独自に生成して、これを映像88の表示枠内の所定の位置にマッピングすると共に、図4に示す映像再生モジュール56が、このカーテン106の半透明のレース模様の基礎となる静止画データ36bを読み込み再生した映像を、CG合成モジュール60が、テクスチャとしてカーテン106の自由曲面上にマッピングすることにより作成したものである。   Next, as shown in FIG. 9, a curtain 106 is projected on the video 88. The image of the portion of the curtain 106 in the image 88 is generated by the CG synthesis module 60 shown in FIG. 4 as a free-form CG image, which is generated in a predetermined frame within the display frame of the image 88. 4, the video reproduction module 56 shown in FIG. 4 reads and reproduces the still image data 36b that is the basis of the translucent lace pattern of the curtain 106, and the CG synthesis module 60 uses the curtain 106 as a texture. It is created by mapping on the free-form surface.

この図9の映像88に映し出されるカーテン106は、図4に示す映像演出用プログラム32における映像演出モジュール48の流体シミュレーションモジュール54が、仮想空間内に一定の風が生じた旨のシミュレーションを行った場合には、図14に示すように、その裾が舞い上がって手前側(映像88の表示枠の下側)に向かって移動してくるようになっている。このようなカーテン106の自由曲面の形状の変形は、CG合成モジュール60が、流体シミュレーションモジュール54から受け取るシミュレーション情報に基づいて行なうようになっている。   In the curtain 106 displayed in the video 88 of FIG. 9, the fluid simulation module 54 of the video rendering module 48 in the video rendering program 32 shown in FIG. 4 performs a simulation that a certain wind has occurred in the virtual space. In this case, as shown in FIG. 14, the skirt rises and moves toward the near side (the lower side of the display frame of the video 88). Such a deformation of the shape of the free curved surface of the curtain 106 is performed based on simulation information received from the fluid simulation module 54 by the CG synthesis module 60.

このような映像88の変化は、この映像88と、この映像88以外の他の映像82,84,86,90,92とを互いに重ね合わせて完成する図5の映像80においても、反映されるようになっている。   Such a change in the image 88 is also reflected in the image 80 of FIG. 5 which is completed by superimposing the image 88 and other images 82, 84, 86, 90, 92 other than the image 88. It is like that.

次に、図10に示すように、映像90には、複数のパーティクル112が映し出されている。この映像90のパーティクル112のそれぞれは、この映像90の表示枠の上端部寄りの位置で生成されて、ゆっくりと横方向に広がりながら下方に移動した後に、表示枠の下端部寄りの位置で消滅するように映し出されている。このようなパーティクル112の生成、移動、消滅は、図4に示すCG合成モジュール60が独自に行なっている。また、このようなパーティクル112を、映像90の表示枠内の所定の位置にマッピングする作業も、CG合成モジュール60が行なっている。   Next, as shown in FIG. 10, a plurality of particles 112 are displayed on the video 90. Each of the particles 112 in the image 90 is generated at a position near the upper end of the display frame of the image 90, and moves downward while slowly spreading in the horizontal direction, and then disappears at a position near the lower end of the display frame. It is projected to do. Such generation, movement and disappearance of the particles 112 are independently performed by the CG synthesis module 60 shown in FIG. Further, the CG synthesis module 60 also performs the work of mapping such particles 112 to predetermined positions in the display frame of the video 90.

また、この映像90のパーティクル112は、流体シミュレーションモジュール54が、仮想空間内に一定の風が生じた旨のシミュレーションを行った場合には、図15に示すように、このような仮想空間内の風により横方向に流されながら下降するようになっている。このパーティクル112の移動方向の変更は、CG合成モジュール60が、流体シミュレーションモジュール54から受け取るシミュレーション情報に基づいて行なうようになっている。   In addition, when the fluid simulation module 54 performs a simulation indicating that a certain amount of wind is generated in the virtual space, the particles 112 in the video 90 are stored in the virtual space as shown in FIG. It descends while being swept laterally by the wind. The movement direction of the particles 112 is changed based on simulation information received by the CG synthesis module 60 from the fluid simulation module 54.

このような映像90の変化は、この映像90と、この映像90以外の他の映像82,84,86,88,92とを互いに重ね合わせて完成する図5の映像80においても、反映されるようになっている。   Such a change in the image 90 is also reflected in the image 80 in FIG. 5 which is completed by superimposing the image 90 and other images 82, 84, 86, 88, 92 other than the image 90. It is like that.

また、図4に示す音声合成モジュール66は、パーティクル112が生成されるタイミングに合わせて、このパーティクル112が光り輝いているような印象を与えるような電子音を生成するようになっている。   Also, the speech synthesis module 66 shown in FIG. 4 generates an electronic sound that gives an impression that the particle 112 is shining in accordance with the generation timing of the particle 112.

次に、図11に示すように、映像92には、デザイン化された文字列114が映し出されている。この文字列114は、図4に示すように、CG合成モジュール60が、素材ファイル30のテキストデータ42を読み込んだ後に、このテキストデータ42に基づいてCG映像として生成したものである。   Next, as shown in FIG. 11, the designed character string 114 is displayed on the video 92. As shown in FIG. 4, the character string 114 is generated as a CG image based on the text data 42 after the CG synthesis module 60 reads the text data 42 of the material file 30.

このような本実施の形態に係る映像演出システム2及びその映像演出方法によれば、タッチパネルを用いないようになっているので、図3に示すように、ディスプレイ装置4の表示画面18上に表示されるインタラクティブ映像80そのものに対して視聴者16が操作を行なうようにする際に、この視聴者16以外の不図示の他の複数の視聴者が、同時にインタラクティブ映像80の変化を把握することができる。   According to the video presentation system 2 and the video presentation method according to the present embodiment as described above, the touch panel is not used, so that the display is performed on the display screen 18 of the display device 4 as shown in FIG. When the viewer 16 performs an operation on the interactive video 80 itself, a plurality of other viewers (not shown) other than the viewer 16 can grasp changes in the interactive video 80 at the same time. it can.

また、本実施の形態に係る映像演出システム2及びその映像演出方法によれば、そのコンピュータ8の中央演算処理装置12(制御手段)が、ディスプレイ装置4の表示画面18上に表示されるインタラクティブ映像80内の仮想物体等の形態の変化を、視聴者16等の物体の変動に対応してリアルタイムに、かつ、連続的に生じさせるよう制御するので、視聴者が自然に、或いは意識的に振舞うことによりひとりでに変化するインタラクティブ映像を楽しむことができる。   In addition, according to the video presentation system 2 and the video presentation method according to the present embodiment, an interactive video displayed on the display screen 18 of the display device 4 by the central processing unit 12 (control means) of the computer 8. Control is made so that changes in the shape of the virtual object in 80 are generated in real time and continuously in response to changes in the object such as the viewer 16, so that the viewer behaves naturally or consciously. You can enjoy interactive video that changes by itself.

また、本実施の形態に係る映像演出システム2及びその映像演出方法によれば、そのディスプレイ装置4の前の一定領域内に入り込んだ視聴者16等の物体の大きさ及び形状、並びにこれらが動くときの移動方向及びその速さを、視聴者16等の物体の変動として抽出し、このような変動により生じる風をディスプレイ装置4の表示画面18上に表示されるインタラクティブ映像80に反映させるようになっているので、やはり、視聴者が自然に、或いは意識的に振舞うことによりひとりでに変化するインタラクティブ映像を楽しむことができる。   In addition, according to the video presentation system 2 and the video presentation method according to the present embodiment, the size and shape of the object such as the viewer 16 that has entered the certain area in front of the display device 4, and these move. The moving direction and the speed of the movement are extracted as the fluctuation of the object such as the viewer 16, and the wind generated by such fluctuation is reflected in the interactive video 80 displayed on the display screen 18 of the display device 4. Therefore, it is still possible to enjoy interactive video that changes by the viewer's behavior naturally or consciously.

次に、図1及び図16は、本発明の第2の実施の形態に係る映像演出システム150及びその映像演出方法について説明するために参照する図である。前記第1の実施の形態に係る映像演出システム2と同様の部分には同じ符号を用いて説明し、同様の構成や使用法についての重複する説明は省略するものとする。   Next, FIG.1 and FIG.16 is a figure referred in order to demonstrate the video presentation system 150 which concerns on the 2nd Embodiment of this invention, and its video presentation method. The same parts as those in the video effect system 2 according to the first embodiment will be described using the same reference numerals, and redundant description of the same configuration and usage will be omitted.

本実施の形態に係る映像演出システム150のハードウェア構成は、図1に示すように、前記第1の実施の形態に係る映像演出システム2のハードウェア構成と、全く同様に構成されている。   As shown in FIG. 1, the hardware configuration of the video effect system 150 according to the present embodiment is configured in exactly the same way as the hardware configuration of the video effect system 2 according to the first embodiment.

本実施の形態に係る映像演出システム150は、そのコンピュータ8の記憶装置10に、前記第1の実施の形態に係る映像演出システム2のソフトウェア28(図4参照)の代わりに、図16に示すソフトウェア152を記憶するようになっている。   The video presentation system 150 according to the present embodiment is shown in FIG. 16 in the storage device 10 of the computer 8 instead of the software 28 (see FIG. 4) of the video presentation system 2 according to the first embodiment. Software 152 is stored.

ソフトウェア152は、前記第1の実施の形態に係る映像演出システム2におけるソフトウェア28の素材ファイル30と全く同じ素材ファイル30を備えると共に、この他にも、この素材ファイル30とほぼ同様のデータ構造を有して映像80(図5参照)とは異なる映像の素材となるような素材ファイル154,156を備えている。   The software 152 includes the material file 30 that is exactly the same as the material file 30 of the software 28 in the video presentation system 2 according to the first embodiment. In addition, the software 152 has a data structure substantially the same as that of the material file 30. It has material files 154 and 156 that have different image materials from the image 80 (see FIG. 5).

この素材ファイル154,156のそれぞれは、図示しないが、素材ファイル30の動画データ34、静止画データ36、3Dモデルデータ38、音声データ40、テキストデータ42のそれぞれに相当する内容のデータを、映像80(図5参照)とは異なる独自の映像を映すのに必要な個数分だけ、任意に備えて構成されている。   Although not shown, each of the material files 154 and 156 includes data corresponding to each of the moving image data 34, the still image data 36, the 3D model data 38, the audio data 40, and the text data 42 of the material file 30. As many as necessary for projecting a unique video different from 80 (see FIG. 5).

ここで、この素材ファイル154,156のそれぞれにおける、素材ファイル30の動画データ34、静止画データ36、3Dモデルデータ38、音声データ40、テキストデータ42のそれぞれに相当する内容のデータについては、便宜上、素材ファイル30の各データに付した符号と同じ符号を付して呼ぶこととする。   Here, in the material files 154 and 156, the contents data corresponding to the moving image data 34, the still image data 36, the 3D model data 38, the audio data 40, and the text data 42 of the material file 30 are described for convenience. The same reference numerals as those assigned to the data of the material file 30 will be used.

また、ソフトウェア152は、前記第1の実施の形態に係る映像演出システム2におけるソフトウェア28の映像演出用プログラム32の代わりに、映像演出用プログラム158を備えている。   The software 152 includes a video effect program 158 instead of the video effect program 32 of the software 28 in the video effect system 2 according to the first embodiment.

この映像演出用プログラム158は、前記第1の実施の形態に係る映像演出システム2におけるソフトウェア28の、映像演出用プログラム32の映像演出モジュール48と全く同じ映像演出モジュール48を備えると共に、この他にも、この映像演出モジュール48とは異なる映像演出を行なう映像演出モジュール160,162を備えている。   This video effect program 158 includes the same video effect module 48 as the video effect module 48 of the video effect program 32 of the software 28 in the video effect system 2 according to the first embodiment. In addition, video effect modules 160 and 162 for performing video effects different from the video effect module 48 are provided.

映像演出モジュール160,162のそれぞれは、図示しないが、映像演出モジュール48の流体シミュレーションモジュール54、映像再生モジュール56、映像効果モジュール58、CG合成モジュール60、音声再生モジュール62、音声効果モジュール64、及び音声合成モジュール66のそれぞれに相当するモジュールを備え、これらによって、映像演出モジュール48とは異なる映像演出を行なうようになっている。   Although not shown, each of the video effect modules 160 and 162 includes a fluid simulation module 54, a video playback module 56, a video effect module 58, a CG synthesis module 60, an audio playback module 62, an audio effect module 64, and the like. A module corresponding to each of the speech synthesis modules 66 is provided, and thereby, a video effect different from that of the video effect module 48 is performed.

ここで、この映像演出モジュール160,162のそれぞれにおける、映像演出モジュール48の流体シミュレーションモジュール54、映像再生モジュール56、映像効果モジュール58、CG合成モジュール60、音声再生モジュール62、音声効果モジュール64、及び音声合成モジュール66のそれぞれに相当するモジュールについては、便宜上、映像演出モジュール48の各モジュールに付した符号と同じ符号を付して呼ぶこととする。   Here, in each of the video effect modules 160 and 162, the fluid simulation module 54 of the video effect module 48, the video reproduction module 56, the video effect module 58, the CG synthesis module 60, the audio reproduction module 62, the audio effect module 64, and For convenience, the modules corresponding to each of the speech synthesis modules 66 are referred to with the same reference numerals as those assigned to the modules of the video effect module 48.

特に、映像演出モジュール160,162の流体シミュレーションモジュール54のそれぞれは、前記第1の実施の形態に係る映像演出システム2における流体シミュレーションモジュール54が仮想空間内の風(空気中の流れ)をシミュレーションするようになっていたのに対して、仮想空間内に水が充填されているとの仮定の下におけるこの水の流れ、及び仮想空間内に透明のコロイド溶液が充填されているとの仮定の下におけるこのコロイド溶液の流れをシミュレーションするようになっている。   Particularly, in each of the fluid simulation modules 54 of the video effect modules 160 and 162, the fluid simulation module 54 in the video effect system 2 according to the first embodiment simulates the wind (flow in the air) in the virtual space. The flow of water under the assumption that the virtual space is filled with water, and the assumption that the virtual space is filled with a transparent colloidal solution The flow of this colloidal solution is simulated.

また、映像演出用プログラム158は、演出制御モジュール44、演出構成モジュール50、及び演出設定ファイル52を備えている。   The video effect program 158 includes an effect control module 44, an effect configuration module 50, and an effect setting file 52.

映像演出用プログラム158内の演出設定ファイル52には、複数の素材ファイル30,154,156のうちのいずれを選択して使用するか等についての設定データ、及び映像演出用プログラム158内のセンサモジュール46の動作等に必要な設定データ、並びに複数の映像演出モジュール48,160,162のうちのいずれを選択して動作させるようにするかの設定データ、また、選択して動作させる映像演出モジュール48,160,162のうちのいずれかにおける、流体シミュレーションモジュール54、映像再生モジュール56、映像効果モジュール58、CG合成モジュール60、音声再生モジュール62、音声効果モジュール64、及び音声合成モジュール66のそれぞれをどのように動作させるか等についての設定データ等が、まとめて登録されている。   In the effect setting file 52 in the video effect program 158, setting data on which of the plurality of material files 30, 154, 156 is selected and used, and a sensor module in the video effect program 158 46, setting data necessary for the operation, setting data for selecting which of the plurality of video effect modules 48, 160, 162 to operate, and a video effect module 48 to select and operate. , 160, and 162, each of the fluid simulation module 54, the video reproduction module 56, the video effect module 58, the CG synthesis module 60, the audio reproduction module 62, the audio effect module 64, and the voice synthesis module 66. Setting data on how to operate Data, etc., are collectively registered.

この演出設定ファイル52内の各種の設定データは、映像演出の開始前または映像演出の停止後のメンテナンスモード時において、メンテナンス作業員による図1に示すコンピュータ8の入力装置14からの操作入力が行なわれた場合に、このような操作入力に基づいて、図16に示す演出構成モジュール50が変更するようになっている。   Various setting data in the effect setting file 52 are input by the maintenance worker from the input device 14 of the computer 8 shown in FIG. 1 in the maintenance mode before the start of the image effect or after the stop of the image effect. In such a case, the effect composition module 50 shown in FIG. 16 is changed based on such an operation input.

演出制御モジュール44は、映像演出を開始させるための起動操作の後であって実際に映像演出を開始する前に、演出設定ファイル52の設定データに基づいて、複数の素材ファイル30,154,156のうちのいずれを使用するかについて、及び複数の映像演出モジュール48,160,162のうちのいずれを動作させるか等について、実際に選択したり制御したりするようになっている。   The effect control module 44 is a plurality of material files 30, 154, 156 based on the setting data of the effect setting file 52 after the start operation for starting the image effect and before actually starting the image effect. The user selects and controls which one of the plurality of video effect modules 48, 160, and 162 is to be operated.

また、映像演出用プログラム158内の映像演出モジュール48,160,162のうち、演出制御モジュール44により選択されたものの中の、流体シミュレーションモジュール54、映像再生モジュール56、映像効果モジュール58、CG合成モジュール60、音声再生モジュール62、音声効果モジュール64、及び音声合成モジュール66のそれぞれは、前記第1の実施の形態において説明した動作と同様の動作のほかにも、演出制御モジュール44の制御の下で、必要に応じて以下のような動作を行なうようになっている。   Among the video effect modules 48, 160 and 162 in the video effect program 158, the fluid simulation module 54, the video reproduction module 56, the video effect module 58, and the CG synthesis module among those selected by the effect control module 44. 60, the sound reproduction module 62, the sound effect module 64, and the sound synthesis module 66 are under the control of the effect control module 44 in addition to the same operations as those described in the first embodiment. The following operations are performed as necessary.

すなわち、映像再生モジュール56は、素材ファイル30,154,156のうちの演出制御モジュール44により選択されたものの中に、動画データ34及び/又は静止画データ36が複数ある場合に、これらを同時かつ別個に再生するか、又は順番に再生していくか等について、演出制御モジュール44の制御の下で決定するようになっている。   That is, when there are a plurality of moving image data 34 and / or still image data 36 among the material files 30, 154, 156 selected by the effect control module 44, the video reproduction module 56 simultaneously and It is determined under the control of the effect control module 44 whether to reproduce separately or sequentially.

また、映像再生モジュール56は、演出制御モジュール44の制御の下で、センサモジュール46から送られてくる情報や、流体シミュレーションモジュール54から送られてくるシミュレーション情報に基づいて、映像再生の開始又は停止のタイミングの変更、再生速度の変化、再生する動画データ34及び/又は静止画データ36の切換えなどを行うようになっている。   The video playback module 56 starts or stops video playback based on information sent from the sensor module 46 or simulation information sent from the fluid simulation module 54 under the control of the effect control module 44. The timing is changed, the reproduction speed is changed, and the moving image data 34 and / or the still image data 36 to be reproduced are switched.

また、映像効果モジュール58は、演出制御モジュール44の制御の下で、センサモジュール46から送られてくる情報や、流体シミュレーションモジュール54から送られてくるシミュレーション情報に基づいて、映像再生モジュール56から受取った映像に対して、例えば、この映像を波紋状に歪ませるなどの変形を与えるエフェクト、又は映像を回転若しくは拡大縮小するエフェクト、又は、映像の一部の範囲だけを拡大した後にこの拡大範囲を移動させていくようにするエフェクト、或いは、映像の色彩や明度を変化させるエフェクト等をリアルタイムに加えるようになっている。   Further, the video effect module 58 receives from the video reproduction module 56 based on the information sent from the sensor module 46 and the simulation information sent from the fluid simulation module 54 under the control of the effect control module 44. For example, an effect that gives deformation such as distorting the image into a ripple shape, an effect that rotates or enlarges or reduces the image, or an enlargement range after enlarging only a part of the image. The effect of moving the image or the effect of changing the color or brightness of the video is added in real time.

また、CG合成モジュール60は、演出制御モジュール44の制御の下で、素材ファイル30,154,156のうち演出制御モジュール44により選択されたものの中の3Dモデルデータ38を読み込んで、この3Dモデルデータ38に基づく仮想物体のオブジェクトを生成したり、又は、独自に仮想物体のオブジェクトを生成したりするようになっている。   Further, the CG synthesis module 60 reads the 3D model data 38 in the material files 30, 154, 156 selected by the presentation control module 44 under the control of the presentation control module 44, and this 3D model data. 38 is generated, or a virtual object object is generated independently.

また、CG合成モジュール60は、素材ファイル30,154,156のうち演出制御モジュール44により選択されたものの中のテキストデータ42を読み込んで、デザイン化された特殊文字を2次元のCGとして生成するようになっている。   Further, the CG composition module 60 reads the text data 42 in the material files 30, 154, 156 selected by the effect control module 44, and generates the designed special character as a two-dimensional CG. It has become.

また、CG合成モジュール60は、演出制御モジュール44の制御の下で、生成したCG、及び映像再生モジュール56や映像効果モジュール58から受取った映像等を、仮想空間内の所定の位置に配置するようになっている。このようなCG合成モジュール60の配置作業の中には、このCG合成モジュール60が生成した仮想物体のオブジェクトの表面、又は2次元又は3次元の仮想空間内の任意の領域に、映像再生モジュール56や映像効果モジュール58から受取った映像をテクスチャ(texture)として、マッピング(mapping)するような作業が含まれる。   In addition, the CG synthesis module 60 arranges the generated CG and the video received from the video playback module 56 and the video effect module 58 at predetermined positions in the virtual space under the control of the effect control module 44. It has become. In such an arrangement work of the CG synthesis module 60, the video reproduction module 56 is placed on the surface of the object of the virtual object generated by the CG synthesis module 60, or on an arbitrary area in the two-dimensional or three-dimensional virtual space. And mapping the video received from the video effect module 58 as a texture.

また、CG合成モジュール60は、演出制御モジュール44の制御の下で、センサモジュール46から送られてくる情報や、流体シミュレーションモジュール54から送られてくるシミュレーション情報に基づいて、任意に、仮想空間内における新たなCGの生成、CG同士の合成、CGと映像との合成、CGの変形、及び/又はテクスチャの入れ替えなどをリアルタイムに行うようになっている。   In addition, the CG synthesis module 60 arbitrarily controls the virtual space based on the information sent from the sensor module 46 or the simulation information sent from the fluid simulation module 54 under the control of the effect control module 44. Generation of new CG, synthesis of CGs, synthesis of CG and video, deformation of CG, and / or replacement of texture, etc. are performed in real time.

また、音声再生モジュール62は、演出制御モジュール44の制御の下で、センサモジュール46から送られてくる情報や、流体シミュレーションモジュール54から送られてくるシミュレーション情報に基づいて、素材ファイル30,154,156のうちの演出制御モジュール44により選択されたものの中の音声データ40を読み込んで、これを再生するようになっている。   The sound reproduction module 62 also controls the material files 30, 154, based on the information sent from the sensor module 46 and the simulation information sent from the fluid simulation module 54 under the control of the effect control module 44. The audio data 40 selected by the effect control module 44 of 156 is read and reproduced.

また、音声再生モジュール62は、映像再生モジュール56、映像効果モジュール58及びCG合成モジュール60が作成する映像に対応する音声データ40の割り当て(アサイン)、再生のタイミング及び速度等を制御するようになっている。   The audio playback module 62 controls the assignment (assignment) of audio data 40 corresponding to the video created by the video playback module 56, the video effect module 58, and the CG synthesis module 60, the playback timing and speed, and the like. ing.

また、音声効果モジュール64は、演出制御モジュール44の制御の下で、センサモジュール46から送られてくる情報や、流体シミュレーションモジュール54から送られてくるシミュレーション情報に基づいて、音声再生モジュール62が再生した音声データ40に対してリアルタイムに、リバーブやディレイ等のエフェクト(効果)を加えたり、ピッチ(周波数)を変更したりするようになっている。また、音声効果モジュール64は、ノイズを除去するフィルタ処理も行なうようになっている。   The sound effect module 64 is reproduced by the sound reproduction module 62 based on the information sent from the sensor module 46 and the simulation information sent from the fluid simulation module 54 under the control of the effect control module 44. The effect (effect) such as reverb or delay is added to the audio data 40 in real time, and the pitch (frequency) is changed. The sound effect module 64 also performs filter processing for removing noise.

また、音声合成モジュール66は、演出制御モジュール44の制御の下で、各種のサウンドシンセシスのアルゴリズムを用い、センサモジュール46から送られてくる情報や、流体シミュレーションモジュール54から送られてくるシミュレーション情報に基づいて、電子音データを生成するようになっている。音声合成モジュール66は、音のオシレーター(発振器)を複数有していることにより、様々な波形を組み合わせた電子音の生成・合成(シンセシス)が可能になっている。   In addition, the voice synthesis module 66 uses various sound synthesis algorithms under the control of the effect control module 44 to convert information sent from the sensor module 46 or simulation information sent from the fluid simulation module 54. Based on this, electronic sound data is generated. Since the speech synthesis module 66 has a plurality of sound oscillators (oscillators), it is possible to generate and synthesize (synthesize) electronic sounds by combining various waveforms.

また、音声合成モジュール66は、このように生成した電子音データを、音声再生モジュール62又は音声効果モジュール64から受取った音声データに合成するようになっている。また、音声合成モジュール66は、合成した音声データに対するエフェクトの付加も行なうようになっている。   The voice synthesis module 66 synthesizes the electronic sound data generated in this way with the voice data received from the voice reproduction module 62 or the voice effect module 64. The voice synthesis module 66 also adds an effect to the synthesized voice data.

このような本実施の形態に係る映像演出システム150及びその映像演出方法によれば、前記第1の実施の形態と同様に、図3に示すように、タッチパネルを用いないようになっているので、ディスプレイ装置4の表示画面18上に表示されるインタラクティブ映像80又はその他の映像そのものに対して視聴者16が操作を行なうようにする際に、この視聴者16以外の不図示の他の複数の視聴者が、同時にインタラクティブ映像80又はその他の映像の変化を把握することができる。   According to the video presentation system 150 and the video presentation method according to the present embodiment, as shown in FIG. 3, the touch panel is not used, as in the first embodiment. When the viewer 16 performs an operation on the interactive video 80 displayed on the display screen 18 of the display device 4 or other video itself, other plurals (not shown) other than the viewer 16 are shown. The viewer can grasp the change of the interactive video 80 or other video at the same time.

また、本実施の形態に係る映像演出システム150及びその映像演出方法によれば、前記第1の実施の形態と同様に、そのコンピュータ8の中央演算処理装置12(制御手段)が、ディスプレイ装置4の表示画面18上に表示されるインタラクティブ映像80又はその他の映像の中の仮想物体等の形態の変化を、視聴者16等の物体の変動に対応してリアルタイムに、かつ、連続的に生じさせるよう制御するので、視聴者が自然に、或いは意識的に振舞うことによりひとりでに変化するインタラクティブ映像を楽しむことができる。   Further, according to the video presentation system 150 and the video presentation method according to the present embodiment, the central processing unit 12 (control means) of the computer 8 is connected to the display device 4 as in the first embodiment. A change in the form of a virtual object or the like in the interactive video 80 or other video displayed on the display screen 18 is generated in real time and continuously corresponding to the change in the object such as the viewer 16. Therefore, it is possible to enjoy interactive video that changes by the viewer's behavior naturally or consciously.

また、本実施の形態に係る映像演出システム150及びその映像演出方法によれば、前記第1の実施の形態と同様に、そのディスプレイ装置4の前の一定領域内に入り込んだ視聴者16等の物体の大きさ及び形状、並びにこれらが動くときの移動方向及びその速さを、視聴者16等の物体の変動として抽出し、このような変動により仮想空間内に生じる風、又は水中やコロイド溶液中の流れをディスプレイ装置4の表示画面18上に表示されるインタラクティブ映像80又はその他の映像に反映させるようになっているので、やはり、視聴者が自然に、或いは意識的に振舞うことによりひとりでに変化するインタラクティブ映像を楽しむことができる。   In addition, according to the video presentation system 150 and the video presentation method according to the present embodiment, the viewer 16 or the like who has entered the fixed area in front of the display device 4 can be obtained as in the first embodiment. The size and shape of the objects, and the moving direction and speed when they move are extracted as the fluctuations of the object such as the viewer 16, and the wind generated in the virtual space due to such fluctuations, or water or a colloidal solution Since the flow inside is reflected in the interactive video 80 displayed on the display screen 18 of the display device 4 or other video, it is changed by the viewer's behavior naturally or consciously. You can enjoy interactive video.

なお、本実施の形態に係る映像演出システム150においては、そのコンピュータ8の記憶手段10に3つの素材ファイル30,154,156だけが記憶されるようになっていたが、これらとは別個の新たな素材ファイルを記憶したフレキシブルディスク、光ディスク、メモリカード等の記憶媒体を、コンピュータ8が備える不図示の記憶媒体読み取り装置で読み込むことにより、随時、追加していくことができるようになっていてもよい。   Note that in the video effect system 150 according to the present embodiment, only the three material files 30, 154, 156 are stored in the storage means 10 of the computer 8, but these are separate new files. Even if a storage medium such as a flexible disk, an optical disk, or a memory card storing various material files is read by a storage medium reading device (not shown) provided in the computer 8, it can be added at any time. Good.

また、コンピュータ8に接続された不図示のネットワーク等を介してダウンロードすることにより、随時、新たな素材ファイルを追加していくことができるようになっていてもよい。また、素材ファイル30,154,156のうちのいずれかが不要になった場合には、コンピュータ8の記憶手段10から削除することができるようになっていてもよい。   Further, by downloading via a network (not shown) connected to the computer 8, new material files may be added at any time. Further, when any one of the material files 30, 154 and 156 becomes unnecessary, it may be deleted from the storage means 10 of the computer 8.

また、本実施の形態に係る映像演出システム150においては、その映像演出用プログラム158が3つの映像演出モジュール48,160,162だけを備えるようになっていたが、これらとは別個の新たな映像演出モジュールを、上記素材ファイルと同様に、記憶媒体やネットワークを介して、随時、追加していくことができるようになっていてもよい。また、映像演出モジュール48,160,162のうちのいずれかが不要になった場合には、コンピュータ8の記憶手段10から削除することができるようになっていてもよい。   In the video presentation system 150 according to the present embodiment, the video presentation program 158 includes only the three video presentation modules 48, 160, and 162. The effect module may be added at any time via a storage medium or a network in the same manner as the material file. Further, when any one of the video effect modules 48, 160, 162 becomes unnecessary, it may be deleted from the storage means 10 of the computer 8.

また、前記第1及び第2の実施の形態に係る映像演出システム2,150においては、映像演出用プログラム32,158のセンサモジュール46は、図3に示すカメラセンサ6で撮影した実際の映像から、グレースケール変換、前フレーム差分法の画像処理を行なうようになっていたが、背景差分法等の画像処理を行なうようになっていてもよい。   In the video presentation systems 2 and 150 according to the first and second embodiments, the sensor module 46 of the video presentation programs 32 and 158 is based on the actual video shot by the camera sensor 6 shown in FIG. The image processing of the gray scale conversion and the previous frame difference method is performed, but the image processing such as the background difference method may be performed.

また、前記第1及び第2の実施の形態に係る映像演出システム2,150においては、映像演出用プログラム32,158のセンサモジュール46は、図3に示すカメラセンサ6で撮影した実際の映像から、この映像内の物体等について、その大きさ、形状、移動方向、及び速さの情報を抽出するようになっていたが、大きさ、形状、移動方向、及び速さの情報の中からいずれかだけを抽出するようになっていてもよい。また、色や位置等の情報を抽出するようになっていてもよい。   In the video presentation systems 2 and 150 according to the first and second embodiments, the sensor module 46 of the video presentation programs 32 and 158 is based on the actual video shot by the camera sensor 6 shown in FIG. The information on the size, shape, moving direction, and speed of the object in the video was extracted, but any of the information on the size, shape, moving direction, and speed You may come to extract only. Information such as color and position may be extracted.

また、前記第2の実施の形態に係る映像演出システム150においては、センサモジュール46が、前フレーム差分法の画像処理を行なうか又は背景差分法等の画像処理を行なうかについて、或いは、図3に示すカメラセンサ6で撮影する映像内の物体等について、その大きさ、形状、移動方向、速さ、色、位置等の情報のいずれを抽出するかについて、映像演出用プログラム32,158内の演出設定ファイル52に設定が記憶されておくようにし、演出制御モジュール44が、このような演出設定ファイル52の設定も基づいて、センサモジュール46を制御するようになっていてもよい。   Further, in the video effect system 150 according to the second embodiment, whether the sensor module 46 performs image processing of the previous frame difference method or image processing such as the background difference method, or FIG. In the video effect programs 32 and 158, information about the size, shape, moving direction, speed, color, position, etc. of the object or the like in the video imaged by the camera sensor 6 shown in FIG. The settings may be stored in the effect setting file 52, and the effect control module 44 may control the sensor module 46 based on the settings of the effect setting file 52.

また、前記第1及び第2の実施の形態に係る映像演出システム2,150は、その架台20としてイーゼルを用いるようになっていたが、イーゼル以外の他の架台を用いるようになっていてもよい。   In addition, the video effect systems 2 and 150 according to the first and second embodiments are configured to use an easel as the gantry 20, but may use a gantry other than the easel. Good.

また、前記第1及び第2の実施の形態に係る映像演出システム2,150は、図3に示すように、そのカメラセンサ6が、ディスプレイ装置4の上端部に取り付けられていたが、このカメラセンサ6は、ディスプレイ装置4の表示画面18の前側の一定領域内を撮影することができるようになっていれば、どこに取り付けられていてもよい。   Further, as shown in FIG. 3, in the video effect systems 2 and 150 according to the first and second embodiments, the camera sensor 6 is attached to the upper end portion of the display device 4. The sensor 6 may be attached anywhere as long as it can capture the inside of a certain area on the front side of the display screen 18 of the display device 4.

例えば、ディスプレイ装置4の上端部にひさしを設けると共に、このひさしの先端部にカメラセンサ6を取り付けることにより、このカメラセンサ6が、下側方向を略垂直に見下ろして、ディスプレイ装置4の表示画面18の前側の一定領域内を撮影するようになっていてもよい。   For example, by providing eaves at the upper end of the display device 4 and attaching the camera sensor 6 to the front end of the eaves, the camera sensor 6 looks down at the lower direction substantially vertically, and the display screen of the display device 4 The inside of the fixed area | region of 18 front may be image | photographed.

また、前記第1及び第2の実施の形態に係る映像演出システム2,150においては、その映像演出用プログラム32,158の映像演出モジュール48の流体シミュレーションモジュール54が、必ずしも厳密なシミュレーションを行なうようになっていなければならないわけではなく、簡易的なシミュレーションを行なうようになっていてもよい。   In the video presentation systems 2 and 150 according to the first and second embodiments, the fluid simulation module 54 of the video presentation module 48 of the video presentation programs 32 and 158 always performs a strict simulation. It does not have to be, and a simple simulation may be performed.

例えば、流体シミュレーションモジュール54は、センサモジュール46が、カメラセンサ6が実際に撮影した映像内の何らかの移動物体について、その大きさ、形状、移動方向、及び速さの情報を抽出したときに、これらの情報に基づいて、この映像内の移動物体の外形線上の複数の任意の位置に、これら複数の任意の位置のそれぞれを中心とする複数の仮想円を想定し、これら複数の仮想円のそれぞれを、映像内の移動物体の速度と同じ速度で膨張させたときにおける、これら複数の仮想円の全てに接する包絡線の移動の様子が、カメラセンサ6が実際に撮影した映像内の移動物体により生じた風であるものとして扱うようになっていてもよい。   For example, when the sensor module 46 extracts information on the size, shape, moving direction, and speed of any moving object in the image actually captured by the camera sensor 6, the fluid simulation module 54 extracts these information. Based on the information of the above, assuming a plurality of virtual circles centered on each of the plurality of arbitrary positions at a plurality of arbitrary positions on the outline of the moving object in the video, each of the plurality of virtual circles Is expanded at the same speed as the moving object in the image, the movement of the envelope in contact with all of these virtual circles is determined by the moving object in the image actually captured by the camera sensor 6. You may be made to treat it as the wind which arose.

また、前記第1及び第2の実施の形態に係る映像演出システム2,150は、その映像演出用プログラム32,158内に、この映像演出システム2,150の使用時間又は使用回数に基づいて使用料金を算出する使用料算出モジュール(使用料算出手段)を備えるようになっていてもよい。   The video presentation systems 2 and 150 according to the first and second embodiments are used in the video presentation programs 32 and 158 based on the usage time or the number of times of use of the video presentation systems 2 and 150. A usage fee calculation module (a usage fee calculation means) for calculating a fee may be provided.

また、前記第1及び第2の実施の形態に係る映像演出システム2,150は、このような使用料算出モジュールが、この映像演出システム2,150の使用回数や使用条件を制限するようになっていてもよい。また、このような使用料算出モジュールが、映像演出システム2,150の使用時間やシステム状況などの記録(ログ)を取ったり、これらの記録をネットワーク経由で任意のサーバーに転送するようになっていてもよい。   In addition, in the video presentation systems 2 and 150 according to the first and second embodiments, such a usage fee calculation module limits the number of times and the usage conditions of the video presentation systems 2 and 150. It may be. In addition, such a usage fee calculation module takes a record (log) of the usage time and system status of the video production system 2,150, and transfers these records to an arbitrary server via a network. May be.

本発明の第1及び第2の実施の形態に係る映像演出システム2,150のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the video production systems 2 and 150 which concern on the 1st and 2nd embodiment of this invention. 本発明の第1及び第2の実施の形態に係る映像演出システム2,150のディスプレイ装置4、カメラセンサ6、及び架台20を示す正面図である。It is a front view which shows the display apparatus 4, the camera sensor 6, and the mount frame 20 of the image | video production system 2,150 which concern on the 1st and 2nd embodiment of this invention. 本発明の第1及び第2の実施の形態に係る映像演出システム2,150のディスプレイ装置4、カメラセンサ6、架台20及び視聴者16を示す側面図である。It is a side view which shows the display apparatus 4, the camera sensor 6, the mount frame 20, and the viewer 16 of the image | video production system 2,150 which concern on the 1st and 2nd embodiment of this invention. 本発明の第1の実施の形態に係る映像演出システム2のソフトウェア28の構成を示す概念図である。It is a conceptual diagram which shows the structure of the software 28 of the video presentation system 2 which concerns on the 1st Embodiment of this invention. 図2中のディスプレイ装置4の表示画面18に表示される映像80を示す図である。It is a figure which shows the image | video 80 displayed on the display screen 18 of the display apparatus 4 in FIG. 図5中の映像80の一部を構成する映像82を示す図である。It is a figure which shows the image | video 82 which comprises a part of image | video 80 in FIG. 図5中の映像80の一部を構成する映像84を示す図である。It is a figure which shows the image | video 84 which comprises a part of image | video 80 in FIG. 図5中の映像80の一部を構成する映像86を示す図である。It is a figure which shows the image | video 86 which comprises a part of image | video 80 in FIG. 図5中の映像80の一部を構成する映像88を示す図である。It is a figure which shows the image | video 88 which comprises a part of image | video 80 in FIG. 図5中の映像80の一部を構成する映像90を示す図である。It is a figure which shows the image | video 90 which comprises a part of image | video 80 in FIG. 図5中の映像80の一部を構成する映像92を示す図である。It is a figure which shows the image | video 92 which comprises a part of image | video 80 in FIG. 図5中の映像80の一部を構成する映像86を示す図である。It is a figure which shows the image | video 86 which comprises a part of image | video 80 in FIG. 図5中の映像80の一部を構成する映像86を示す図である。It is a figure which shows the image | video 86 which comprises a part of image | video 80 in FIG. 図5中の映像80の一部を構成する映像88を示す図である。It is a figure which shows the image | video 88 which comprises a part of image | video 80 in FIG. 図5中の映像80の一部を構成する映像90を示す図である。It is a figure which shows the image | video 90 which comprises a part of image | video 80 in FIG. 本発明の第2の実施の形態に係る映像演出システム150のソフトウェア152の構成を示す概念図である。It is a conceptual diagram which shows the structure of the software 152 of the video presentation system 150 which concerns on the 2nd Embodiment of this invention.

符号の説明Explanation of symbols

2 映像演出システム
4 ディスプレイ装置
6 カメラセンサ
8 コンピュータ
10 記憶装置
12 中央演算処理装置
14 入力装置
16 視聴者
18 表示画面
20 架台
28 ソフトウェア
30 素材ファイル
32 映像演出用プログラム
34 動画データ
36,36a,36b,36c,36d,36e,36f 静止画データ
38 3Dモデルデータ
40 音声データ
42 テキストデータ
44 演出制御モジュール
46 センサモジュール
48 映像演出モジュール
50 演出構成モジュール
52 演出設定ファイル
54 流体シミュレーションモジュール
56 映像再生モジュール
58 映像効果モジュール
60 CG合成モジュール
62 音声再生モジュール
64 音声効果モジュール
66 音声合成モジュール
80,82,84,86,88,90,92 映像
102 机
104 アルバム
106 カーテン
108 窓
110 空
112 パーティクル
114 文字列
120c,120d,120e,120f 写真
150 映像演出システム
152 ソフトウェア
154,156 素材ファイル
158 映像演出用プログラム
160,162 映像演出モジュール
2 video production system 4 display device 6 camera sensor 8 computer 10 storage device 12 central processing unit
DESCRIPTION OF SYMBOLS 14 Input device 16 Viewer 18 Display screen 20 Stand 28 Software 30 Material file 32 Image production program 34 Movie data 36, 36a, 36b, 36c, 36d, 36e, 36f Still image data 38 3D model data 40 Audio data 42 Text data 44 Production control module 46 Sensor module 48 Video production module 50 Production composition module 52 Production setting file 54 Fluid simulation module
56 Video playback module
58 Video Effect Module
60 CG synthesis module
62 voice playback module 64 voice effect module 66 voice synthesis module 80, 82, 84, 86, 88, 90, 92 video 102 desk 104 album 106 curtain 108 window 110 sky 112 particle 114 character string 120c, 120d, 120e, 120f photo 150 Video production system 152 Software 154, 156 Material file 158 Video production program 160, 162 Video production module

Claims (5)

画像データを記憶する記憶手段と、
表示画面を有し、この表示画面上に前記画像データに基づく映像を映し出す映像出力手段と、
前記表示画面の前側の一定領域内を撮影するカメラセンサと、
前記カメラセンサが撮影した映像に基づいて前記一定領域内に入り込んだ実世界の物体の変動を抽出し、この実世界の物体の変動に対応して前記映像出力手段が映す映像内の仮想物体の形態を変化させるように制御する制御手段とを備え、
前記制御手段は、前記映像内の仮想物体の周囲に前記実世界の物体の周囲の風を伝播する仮想流体が存在するものと仮定して、この仮想流体中を前記実世界の物体の変動が伝播することをシミュレーションすることにより、前記映像出力手段が映す映像内の仮想物体の形態を変化させるように制御し、
視聴者が自然に、或いは意識的に振舞うことによりひとりでに変化する映像を楽しむことができるようにしたことを特徴とする映像演出システム。
Storage means for storing image data;
A video output means having a display screen, and displaying a video based on the image data on the display screen;
A camera sensor that captures an image of a predetermined area on the front side of the display screen;
Based on the image taken by the camera sensor, the fluctuation of the real world object that has entered the fixed area is extracted, and the virtual object in the video projected by the video output means corresponding to the fluctuation of the real world object is extracted. Control means for controlling to change the form,
The control means assumes that there is a virtual fluid that propagates the wind around the real world object around the virtual object in the video, and the fluctuation of the real world object is in the virtual fluid. By controlling the propagation, by controlling the form of the virtual object in the image projected by the image output means,
A video production system characterized by allowing viewers to enjoy a video that changes by themselves by acting naturally or consciously.
前記制御手段は、前記映像内の仮想物体の形態の変化を、前記実世界の物体の変動に対応してリアルタイムに、かつ、連続的に生じさせるよう制御することを特徴とする請求項に記載の映像演出システム。 Said control means changes the form of the virtual object in the image, the real-time in response to variation of the object in the real world, and, to claim 1, wherein the controller controls so that makes continuously occur The video production system described. 前記制御手段は、前記一定領域内に入り込んだ実世界の物体の位置、大きさ、形状、及び/又は速さを、前記実世界の物体の変動として抽出して、これらを前記映像内の仮想物体の形態の変化に反映させたことを特徴とする請求項1又は2に記載の映像演出システム。 The control means extracts the position, size, shape, and / or speed of an object in the real world that has entered the certain area as a variation of the object in the real world, and extracts these as virtual changes in the video. The video effect system according to claim 1 , wherein the video effect system is reflected in a change in the shape of the object . 前記制御手段は、前記仮想流体の前記仮想空間中における前記実世界の物体の変動の伝播を誇張してシミュレーションするようにしたことを特徴とする請求項1から3のいずれかに記載の映像演出システム。The video effect according to any one of claims 1 to 3, wherein the control means exaggerates and simulates the propagation of the fluctuation of the real world object in the virtual space of the virtual fluid. system. 画像データを記憶する記憶手段と、
表示画面を有し、この表示画面上に前記画像データに基づく映像を映し出す映像出力手段と、
前記表示画面の前側の一定領域内を撮影するカメラセンサと、
前記映像出力手段が映す映像を制御する制御手段とを用いて、
前記制御手段が、前記カメラセンサが撮影した映像に基づいて前記一定領域内に入り込んだ実世界の物体の変動を抽出し、前記映像内の仮想物体の周囲に前記実世界の物体の周囲の風を伝播する仮想流体が存在するものと仮定して、この仮想流体中を前記実世界の物体の変動が伝播することをシミュレーションすることにより、前記映像出力手段が映す映像内の仮想物体の形態を変化させるように制御し、
視聴者が自然に、或いは意識的に振舞うことによりひとりでに変化する映像を楽しむことができるようにしたことを特徴とする映像演出方法。
Storage means for storing image data;
A video output means having a display screen, and displaying a video based on the image data on the display screen;
A camera sensor that captures an image of a predetermined area on the front side of the display screen;
Using the control means for controlling the video projected by the video output means,
The control means extracts fluctuations of a real-world object that has entered the fixed area based on an image captured by the camera sensor , and winds around the virtual object in the video are around the virtual object. Assuming that there is a virtual fluid propagating through the virtual fluid, the virtual object in the image projected by the image output means is simulated by simulating the propagation of changes in the real world object in the virtual fluid. Control to change,
A video production method characterized in that a viewer can enjoy a video that changes by himself or herself by acting naturally or consciously.
JP2008027211A 2008-02-07 2008-02-07 Video production system and video production method Active JP5214267B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008027211A JP5214267B2 (en) 2008-02-07 2008-02-07 Video production system and video production method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008027211A JP5214267B2 (en) 2008-02-07 2008-02-07 Video production system and video production method

Publications (2)

Publication Number Publication Date
JP2009188780A JP2009188780A (en) 2009-08-20
JP5214267B2 true JP5214267B2 (en) 2013-06-19

Family

ID=41071576

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008027211A Active JP5214267B2 (en) 2008-02-07 2008-02-07 Video production system and video production method

Country Status (1)

Country Link
JP (1) JP5214267B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9262015B2 (en) 2010-06-28 2016-02-16 Intel Corporation System for portable tangible interaction
KR20180111991A (en) 2016-03-15 2018-10-11 가부시키가이샤 리코 Image processing apparatus, image processing method, and image processing system
CN107437343A (en) * 2016-05-25 2017-12-05 中央大学 Interactive instructional system and method
CN110278453A (en) * 2019-07-05 2019-09-24 浙江开奇科技有限公司 Panoramic video image display method, mobile terminal and system based on 5G network
CN113615168B (en) * 2020-02-28 2024-07-09 松下电器(美国)知识产权公司 Smart window device, image display method, and recording medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0844490A (en) * 1994-07-28 1996-02-16 Matsushita Electric Ind Co Ltd Interface device
JP3745802B2 (en) * 1995-10-13 2006-02-15 株式会社日立製作所 Image generation / display device
JP2005309640A (en) * 2004-04-20 2005-11-04 Yoshiki Inoue System and method for distributing large content in wide area network
WO2006006642A1 (en) * 2004-07-13 2006-01-19 Yugenkaisha Azu Geijyutu Kagaku Kenkyusho Image producing system and image producing method

Also Published As

Publication number Publication date
JP2009188780A (en) 2009-08-20

Similar Documents

Publication Publication Date Title
US10958889B2 (en) Methods, circuits, devices, systems, and associated computer executable code for rendering a hybrid image frame
JP2020514900A (en) Mixed reality viewer system and method
EP3064257A1 (en) System, device and method of 3d printing
US20200122405A1 (en) System and method of enhancing a 3d printed model
KR100795552B1 (en) 3D Virtual Studio Using VIDEO Texturing
US20100201693A1 (en) System and method for audience participation event with digital avatars
JP5214267B2 (en) Video production system and video production method
JPH11219446A (en) Video/sound reproducing system
US20160257077A1 (en) System, device and method of 3d printing
JPH05174129A (en) Modeling apparatus for imaging three-dimensional model
JP4989605B2 (en) Simple animation creation device
JP4990347B2 (en) Bowling alley video display system and video display method
WO2019097264A1 (en) Virtual reality system for surgical training
JP2022077148A (en) Image processing method, program, and image processing system
JP6431259B2 (en) Karaoke device, dance scoring method, and program
Marner et al. Exploring interactivity and augmented reality in theater: A case study of Half Real
KR101859318B1 (en) Video content production methods using 360 degree virtual camera
CN117788689A (en) Interactive virtual cloud exhibition hall construction method and system based on three-dimensional modeling
JP6313003B2 (en) Karaoke apparatus, image output method, and program
CN108305307A (en) The implementation method of three-dimensional geometry body animation realizes system and terminal
Magnenat-Thalmann et al. Real-time animation of ancient roman sites
JP2011198135A (en) Comic creation support device, comic creation support method, and program
JPH11149285A (en) Image acoustic system
JP6863072B2 (en) Display control device, display control program, display system and display control method
US20170323468A1 (en) Animation techniques

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130227

R150 Certificate of patent or registration of utility model

Ref document number: 5214267

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160308

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250