JP6102181B2 - Image processing apparatus, program, and image processing method - Google Patents

Image processing apparatus, program, and image processing method Download PDF

Info

Publication number
JP6102181B2
JP6102181B2 JP2012238048A JP2012238048A JP6102181B2 JP 6102181 B2 JP6102181 B2 JP 6102181B2 JP 2012238048 A JP2012238048 A JP 2012238048A JP 2012238048 A JP2012238048 A JP 2012238048A JP 6102181 B2 JP6102181 B2 JP 6102181B2
Authority
JP
Japan
Prior art keywords
screen
image
projection
person
video content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012238048A
Other languages
Japanese (ja)
Other versions
JP2014089261A (en
Inventor
喜多 一記
一記 喜多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012238048A priority Critical patent/JP6102181B2/en
Publication of JP2014089261A publication Critical patent/JP2014089261A/en
Application granted granted Critical
Publication of JP6102181B2 publication Critical patent/JP6102181B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)
  • Digital Computer Display Output (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Description

本発明は、画像処理装置、プログラム及び画像処理方法に関する。   The present invention relates to an image processing apparatus, a program, and an image processing method.

お客や鑑賞者に対して広告内容等のコンテンツを提示する際の印象を高めるために、人型に成形された投影スクリーンに、そのスクリーンの外形に合わせた形状のコンテンツ映像などを投影する技術が提案されている(例えば、特許文献1参照)。この技術は、展示会等における斬新で効果的な展示の演出や、あるいは、「バーチャルマネキン」等、人間代わりの商品説明等に利用されている。   In order to enhance the impression when presenting advertisements and other contents to customers and viewers, there is a technology for projecting content images, etc., in a shape that matches the external shape of the screen onto a projection screen that is shaped like a human figure It has been proposed (see, for example, Patent Document 1). This technology is used for the production of novel and effective exhibitions at exhibitions, etc., or for explanation of products for human beings such as “virtual mannequins”.

上記の人型スクリーンとしては、背面投影用のフィルム、例えば、透明塩化ビニルフィルムの投影する背面側にマイクロビーズレンズを配列した層と球状ビーズの隙間に黒い光吸収層を設けた特殊フィルムなどを、人型に成形された透明なアクリル板等の基材に貼り付けて用いることが多く、広い角度から、比較的明るく高輝度で、あたかもそこに人間が立っているかのような存在感のある投影像が得られる。   As the above-mentioned human type screen, a film for rear projection, for example, a special film provided with a black light absorption layer in the gap between the spherical beads and the layer on which the microbead lens is arranged on the back side to be projected of the transparent vinyl chloride film, etc. It is often used by sticking it to a base material such as a transparent acrylic board molded into a human shape, and it is relatively bright and bright from a wide angle and has a presence as if a human is standing there. A projected image is obtained.

上記の技術においては、人物像(人物の投影像)の方が人型スクリーン外形よりも外側にはみ出ると、その部分の人物像の顔や肩などが欠けたり、細くなったり、不自然な形状になる。また、人物の映像を撮影して使用する場合には人物像の輪郭が動いたり変化したりする。そのため、人型スクリーンと人物像との間に余白領域ができるように投影することが行われている。   In the above technology, if the human figure (projected person image) protrudes outside the outer shape of the humanoid screen, the face or shoulder of the human figure in that part may be missing, thinned, or unnaturally shaped. become. Further, when a person image is taken and used, the outline of the person image moves or changes. Therefore, projection is performed so that a blank area is formed between the humanoid screen and the human image.

特開2011−150221号公報JP 2011-150221 A

しかしながら、従来、その余白領域は使用されていなかったため、最大限の演出効果が得られていなかった。   However, conventionally, since the blank area has not been used, the maximum rendering effect has not been obtained.

本発明は、上記のような問題を鑑みてなされたもので、その目的とするところは、スクリーンと投影対象物の像との間の余白領域を利用して、演出効果を向上させることである。   The present invention has been made in view of the above-described problems, and an object thereof is to improve a rendering effect by using a blank area between a screen and an image of a projection object. .

上記課題を解決するため、請求項1に記載の発明は、
人物を含む映像コンテンツを前記人物の形状に成型されたスクリーンに投影する投影装置に接続された画像処理装置であって、
前記スクリーンを含む撮影画像を取得するスクリーン画像取得手段と、
前記取得された撮影画像から前記スクリーンの外形を抽出するスクリーン外形抽出手段と、
前記映像コンテンツの映像データに基づいて前記人物の性別を判別する判別手段と、
前記映像コンテンツの映像データから前記人物の領域を抽出し、当該抽出した人物の領域と、前記撮影画像から抽出されたスクリーンの外形に基づいて、前記映像データにおける、当該映像データを前記スクリーンに投影したときに前記人物の輪郭と前記スクリーンの外形の間に相当する領域に前記判別手段により判別された性別に応じたデザインの画像を合成する合成手段と、
前記合成された映像データに基づいて、前記人物の輪郭と前記スクリーンの外形の間に前記画像が合成された映像コンテンツを前記投影装置により前記スクリーン上に投影させる制御手段と、
を備える。
In order to solve the above-mentioned problem, the invention described in claim 1
An image processing apparatus connected to a projection apparatus that projects video content including a person onto a screen molded into the shape of the person ,
Screen image acquisition means for acquiring a captured image including the screen;
Screen outer shape extraction means for extracting the outer shape of the screen from the acquired photographed image;
Discrimination means for discriminating the gender of the person based on video data of the video content;
The person area is extracted from the video data of the video content, and the video data in the video data is projected onto the screen based on the extracted person area and the outer shape of the screen extracted from the captured image. A synthesizing unit that synthesizes an image of a design according to the gender determined by the determining unit in a region corresponding to the outline of the person and the outer shape of the screen when
On the basis of the synthesized image data, and control means for projecting onto the screen by the projection apparatus a video content which the image is synthesized during the contour and contour of the screen of the person,
Is provided.

本発明によれば、スクリーンと投影対象物の像との間の余白領域を利用して、演出効果を向上させることが可能となる。   According to the present invention, it is possible to improve the effect by using the blank area between the screen and the image of the projection target.

本実施形態におけるコンテンツ再生システムの全体構成例を示す図である。It is a figure which shows the example of whole structure of the content reproduction system in this embodiment. (a)は、映像の投影前のコンテンツ再生システムの正面図、(b)は映像の投影時のコンテンツ再生システムの正面図である。(A) is a front view of the content reproduction system before video projection, and (b) is a front view of the content reproduction system at the time of video projection. 図1の画像処理装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the image processing apparatus of FIG. 図3の制御部において実行される再生制御処理を示すフローチャートである。It is a flowchart which shows the reproduction | regeneration control processing performed in the control part of FIG. 図4のステップS1において実行される位置合わせ処理を示すフローチャートである。It is a flowchart which shows the position alignment process performed in step S1 of FIG. 図4のステップS2において実行されるスクリーン外形抽出処理を示すフローチャートである。It is a flowchart which shows the screen external shape extraction process performed in step S2 of FIG. (a)は、図6のステップS202で取得される撮影画像を模式的に示す図、(b)は、分割線が付加されたフレーム画像を模式的に示す図、(c)は、(a)、(b)に基づいて抽出された余白領域を模式的に示す図である。(A) is a diagram schematically showing the captured image acquired in step S202 of FIG. 6, (b) is a diagram schematically showing a frame image to which a dividing line is added, and (c) is (a). FIG. 6 is a diagram schematically showing a blank area extracted based on (b). 第1の実施形態において図4のステップS3において実行される合成用画像生成処理(合成用画像生成処理A)を示すフローチャートである。5 is a flowchart showing a composition image generation process (composition image generation process A) executed in step S3 of FIG. 4 in the first embodiment. 図8のステップS302において実行される余白領域抽出処理を示すフローチャートである。It is a flowchart which shows the blank area extraction process performed in step S302 of FIG. 図4のステップS4において実行される投影制御処理を示すフローチャートである。It is a flowchart which shows the projection control process performed in step S4 of FIG. フレーム画像のスクリーンの外形と人物領域の輪郭との間に相当する余白領域に画像が合成された例を示す図である。It is a figure which shows the example by which the image was synthesize | combined to the blank area | region corresponded between the external shape of the screen of a frame image, and the outline of a person area. 第2の実施形態におけるコンテンツ再生システムの全体構成例を示す図である。It is a figure which shows the example of a whole structure of the content reproduction system in 2nd Embodiment. 第2の実施形態において実行される合成用画像生成処理(合成用画像生成処理B)を示すフローチャートである。It is a flowchart which shows the image generation process for a synthesis | combination (image generation process for a synthesis | combination B) performed in 2nd Embodiment. 第3の実施形態において実行される合成用画像生成処理(合成用画像生成処理C)を示すフローチャートである。It is a flowchart which shows the image generation process for a synthesis | combination (image generation process C for a synthesis | combination) performed in 3rd Embodiment. 第4の実施形態において実行される合成用画像生成処理(合成用画像生成処理D)を示すフローチャートである。It is a flowchart which shows the image generation process for a synthesis (image generation process for a synthesis D) performed in 4th Embodiment. 第5の実施形態において実行される合成用画像生成処理(合成用画像生成処理E)を示すフローチャートである。It is a flowchart which shows the image generation process for a synthesis (image generation process for a synthesis E) performed in 5th Embodiment. 第6の実施形態において実行される再生制御処理Bを示すフローチャートである。It is a flowchart which shows the reproduction | regeneration control process B performed in 6th Embodiment.

以下、添付図面を参照して本発明に係る好適な実施形態を詳細に説明する。なお、本発明は、図示例に限定されるものではない。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The present invention is not limited to the illustrated example.

[第1の実施形態]
<コンテンツ再生システム100の構成>
図1、図2は、本実施形態のコンテンツ再生システム100の概略構成を示す図である。図1は、コンテンツ再生システム100の側面図、図2は、コンテンツ再生システム100の正面図である。図2(a)は、映像の投影前、図2(b)は映像の投影時の正面図である。
[First Embodiment]
<Configuration of Content Playback System 100>
1 and 2 are diagrams showing a schematic configuration of a content reproduction system 100 according to the present embodiment. FIG. 1 is a side view of the content reproduction system 100, and FIG. 2 is a front view of the content reproduction system 100. FIG. 2A is a front view before image projection, and FIG. 2B is a front view during image projection.

コンテンツ再生システム100は、投影用映像コンテンツを再生してコンテンツに含まれる投影対象物をその投影対象物の形状に成型されたスクリーンに投影するシステムである。本実施形態においては、投影対象物を人物とし、スクリーンは人型である場合を例にとり説明するが、これに限定されるものではない。投影対象物は、例えば、キャラクタや動物等であってもよい。   The content reproduction system 100 is a system that reproduces video content for projection and projects a projection target included in the content onto a screen that is molded into the shape of the projection target. In the present embodiment, the case where the projection target is a person and the screen is a human type will be described as an example. However, the present invention is not limited to this. The projection object may be, for example, a character or an animal.

図1に示すように、コンテンツ再生システム100は、画像処理装置1、プロジェクタ2、カメラ3、スピーカ4、スクリーン5、マイク7等を備えて構成されている。プロジェクタ2、カメラ3、スピーカ4、マイク7は、画像処理装置1に接続されている。   As shown in FIG. 1, the content reproduction system 100 includes an image processing device 1, a projector 2, a camera 3, a speaker 4, a screen 5, a microphone 7, and the like. The projector 2, camera 3, speaker 4, and microphone 7 are connected to the image processing apparatus 1.

画像処理装置1は、投影用映像コンテンツの映像データにおける、当該映像データをスクリーン5に投影したときに人物領域の輪郭とスクリーン5の外形との間に相当する領域(余白領域)に画像を合成し、合成した画像をプロジェクタ2に送信してスクリーン5上に投影させる装置である。画像処理装置1としては、例えば、PC(Personal Computer)、端末装置等が適用可能である。
ここで、スクリーン5の外形とは、スクリーン5の輪郭を指し、スクリーン5の外形領域とは、スクリーン5の外形に囲まれた領域を指す。また、スクリーン5の外形と投影像の人物領域(人物像)の輪郭との間の領域を余白領域と呼び、投影用映像コンテンツの映像データ(フレーム画像)においては、投影時にスクリーン5の外形と人物像の輪郭との間に相当する領域を余白領域と呼ぶ。
The image processing apparatus 1 synthesizes an image in an area (margin area) corresponding to the outline of the person area and the outline of the screen 5 when the video data is projected onto the screen 5 in the video data of the video content for projection. Then, the composite image is transmitted to the projector 2 and projected onto the screen 5. As the image processing apparatus 1, for example, a PC (Personal Computer), a terminal device, or the like is applicable.
Here, the outline of the screen 5 indicates the outline of the screen 5, and the outline area of the screen 5 indicates an area surrounded by the outline of the screen 5. An area between the outline of the screen 5 and the outline of the person area (person image) of the projected image is referred to as a margin area. In the video data (frame image) of the projection video content, A region corresponding to the outline of the person image is called a blank region.

図3に、画像処理装置1の機能構成例を示す。図3に示すように、画像処理装置1は、制御部10、操作部11、表示部12、記憶部13、I/F14、I/F15、音声出力部16、I/F17等を備えて構成されている。   FIG. 3 shows a functional configuration example of the image processing apparatus 1. As shown in FIG. 3, the image processing apparatus 1 includes a control unit 10, an operation unit 11, a display unit 12, a storage unit 13, an I / F 14, an I / F 15, an audio output unit 16, an I / F 17, and the like. Has been.

制御部10は、図示は省略するが、CPU(Central Processing Unit)、RAM(Random Access Memory)等を備えて構成される。制御部10のCPUは、記憶部13のプログラム記憶部131に記憶されているプログラムを読み出し、RAMのワークエリアに展開し、展開したプログラムに従って、後述する再生制御処理を始めとする各種処理を実行する。制御部10のRAMは、揮発性のメモリであり、CPUにより実行される各種プログラムやこれら各種プログラムに係るデータ等を記憶するワークエリアを有する。
制御部10は、再生制御処理を実行することにより、スクリーン画像取得手段、スクリーン外形抽出手段、合成手段、制御手段として機能する。
Although not shown, the control unit 10 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), and the like. The CPU of the control unit 10 reads the program stored in the program storage unit 131 of the storage unit 13, expands it in the work area of the RAM, and executes various processes including a reproduction control process described later according to the expanded program. To do. The RAM of the control unit 10 is a volatile memory and has a work area for storing various programs executed by the CPU and data related to these various programs.
The control unit 10 functions as a screen image acquisition unit, a screen outer shape extraction unit, a synthesis unit, and a control unit by executing a reproduction control process.

操作部11は、各種機能キーやカーソルキー等を有し、ユーザによるキー入力を受け付けてその操作情報を制御部10に出力する。   The operation unit 11 has various function keys, cursor keys, and the like, receives key input by the user, and outputs the operation information to the control unit 10.

表示部12は、LCD(Liquid Crystal Display)等により構成され、制御部10からの表示制御信号に従って、各種表示を行う。   The display unit 12 is configured by an LCD (Liquid Crystal Display) or the like, and performs various displays according to a display control signal from the control unit 10.

記憶部13は、HDD(Hard Disk Drive)や半導体の不揮発性メモリ等により構成される。記憶部13には、図3に示すように、プログラム記憶部131、映像データ記憶部132、設定情報記憶部133が設けられている。   The storage unit 13 includes an HDD (Hard Disk Drive), a semiconductor nonvolatile memory, or the like. As shown in FIG. 3, the storage unit 13 includes a program storage unit 131, a video data storage unit 132, and a setting information storage unit 133.

プログラム記憶部131には、制御部10で実行されるシステムプログラムや各種処理プログラム、これらのプログラムの実行に必要なデータ等が記憶されている。プログラムは、コンピュータ読み取り可能なプログラムコードの形態でプログラム記憶部131に格納されている。制御部10は、当該プログラムコードに従った動作を逐次実行する。   The program storage unit 131 stores a system program executed by the control unit 10 and various processing programs, data necessary for executing these programs, and the like. The program is stored in the program storage unit 131 in the form of computer readable program code. The control unit 10 sequentially executes operations according to the program code.

映像データ記憶部132は、投影用映像コンテンツの映像データを記憶する。映像データは、動画データを構成する複数のフレーム画像のデータ及び各フレーム画像に対応する音声データにより構成されている。   The video data storage unit 132 stores video data of projection video content. The video data is composed of a plurality of frame image data constituting the moving image data and audio data corresponding to each frame image.

設定情報記憶部133は、投影用映像コンテンツの映像データをスクリーン5に投影する際の人物領域の倍率及び位置の移動量を示す設定情報を記憶する。倍率の設定情報は、例えば、投影用映像コンテンツのフレーム画像(例えば、1フレーム目のフレーム画像)から、例えば画像認識等の公知の画像処理によって人物領域を抽出し、抽出した人物領域のサイズ、プロジェクタ2の拡大率、スクリーン5のサイズ等に基づいて、予め算出されて登録されている。位置の移動量の設定情報としては、例えば、投影用映像コンテンツのフレーム画像から画像処理によって人物領域を抽出し、その人物領域の重心を求め、求めた重心位置が画像中央に一致するように移動させたときの移動量及び移動方向が予め登録されている。   The setting information storage unit 133 stores setting information indicating the magnification of the person area and the amount of movement of the position when the video data of the projection video content is projected on the screen 5. For example, the magnification setting information is obtained by extracting a person area from a frame image of the projection video content (for example, a frame image of the first frame) by known image processing such as image recognition, and the size of the extracted person area, Based on the enlargement ratio of the projector 2, the size of the screen 5, etc., it is calculated and registered in advance. As the setting information for the amount of movement of the position, for example, a person area is extracted from the frame image of the video content for projection by image processing, the centroid of the person area is obtained, and the movement is performed so that the obtained centroid position matches the center of the image. The amount of movement and the direction of movement are registered in advance.

I/F14は、プロジェクタ2と接続し、データ送受信を行うためのインターフェースである。
I/F15は、カメラ3と接続し、データ送受信を行うためのインターフェースである。
The I / F 14 is an interface for connecting to the projector 2 and performing data transmission / reception.
The I / F 15 is an interface for connecting to the camera 3 and performing data transmission / reception.

音声出力部16は、スピーカ4が接続され、制御部10により指示された音声データを音声信号に変換してスピーカ4から出力させる。
I/F17は、マイク7と接続し、マイク7からの音声の電気信号を入力する。
The audio output unit 16 is connected to the speaker 4, converts audio data instructed by the control unit 10 into an audio signal, and outputs the audio signal from the speaker 4.
The I / F 17 is connected to the microphone 7 and inputs an electrical electrical signal from the microphone 7.

プロジェクタ2は、画像処理装置1から送信されたフレーム画像に基づいてスクリーン5の背面から映像を投影する背面投射型の投影装置である。プロジェクタ2は、例えば、フレーム画像に基づいて、アレイ状に配列された複数個(XGAの場合、横1024画素×縦768画素)の微小ミラーの各傾斜角度を個々に高速でオン/オフ動作して表示動作することでその反射光により光像を形成する表示素子であるDMD(デジタルマイクロミラーデバイス)を利用したDLP(Digital Light Processing)(登録商標)プロジェクタが適用可能である。投影対象物がフレーム画像中の人物領域である場合には、人物領域に対応する位置の微小ミラーをオンし、その他の領域をオフすることで、人物領域を投影することが可能となる。   The projector 2 is a rear projection type projection device that projects an image from the back surface of the screen 5 based on the frame image transmitted from the image processing device 1. For example, the projector 2 individually turns on / off each tilt angle of a plurality of micromirrors arranged in an array (in the case of XGA, horizontal 1024 pixels × vertical 768 pixels) based on a frame image at a high speed. Thus, a DLP (Digital Light Processing) (registered trademark) projector using a DMD (digital micromirror device) which is a display element that forms a light image by reflected light by performing a display operation can be applied. When the projection target is a person area in the frame image, the person area can be projected by turning on the minute mirror at a position corresponding to the person area and turning off the other areas.

カメラ3は、スクリーン5の外形が視野内に収まる位置に設置され、画像処理装置1からの指示に従ってスクリーン5を撮影し、得られた撮影画像をI/F15を介して画像処理装置1に送信する。   The camera 3 is installed at a position where the outer shape of the screen 5 falls within the field of view, images the screen 5 in accordance with an instruction from the image processing apparatus 1, and transmits the obtained captured image to the image processing apparatus 1 via the I / F 15. To do.

スクリーン5は、支持台6に支持され、プロジェクタ2の出力光照射方向に配置された人型のスクリーンである。スクリーン5は、図1に示すように、投影対象の人型に成型された透明アクリル板等の基材51の前面上側に背面投影用のスクリーンフィルム52が貼付され、下側に投影対象の人物の下半身が印刷されたフィルム53が貼付されて構成されている。このスクリーンフィルムは市販されている高輝度、高コントラストを有するものを用いることにより、日中の明るさであっても、また、明るい居室内であっても、スクリーン5に投影されたコンテンツを視認することができる。   The screen 5 is a human-type screen supported by the support base 6 and arranged in the output light irradiation direction of the projector 2. As shown in FIG. 1, the screen 5 has a screen film 52 for rear projection attached to the upper front side of a base 51 such as a transparent acrylic plate molded into a human shape to be projected, and a person to be projected on the lower side. A film 53 on which the lower half of the body is printed is attached. By using a commercially available screen film having high brightness and high contrast, the content projected on the screen 5 can be visually recognized even in the daytime or in a bright room. can do.

なお、本実施形態においては、人物の上半身が撮影された投影用映像コンテンツをスクリーン5に投影する場合を例としているが、スクリーン5の基材51の全面に背面投影用のスクリーンフィルム52を貼付した構成とし、人物の全身が撮影された投影用映像コンテンツをスクリーン5に投影することとしてもよい。   In the present embodiment, the projection video content in which the upper body of a person is photographed is projected onto the screen 5 as an example. However, a screen film 52 for rear projection is attached to the entire surface of the base 51 of the screen 5. The projection video content in which the whole body of the person is photographed may be projected onto the screen 5.

マイク7は、音声を検出して電気信号に変換する。   The microphone 7 detects sound and converts it into an electric signal.

<画像処理装置1の動作>
次に、本実施形態における動作について説明する。
図1に示すコンテンツ再生システム100の構成においては、投影用映像コンテンツのフレーム画像やスクリーン5に投影した投影像の撮影画像は、正面像とは左右を反転したものとなるが、以下の説明に使用する図においては左右反転は省略し、全て正面像として図示する。
<Operation of Image Processing Apparatus 1>
Next, the operation in this embodiment will be described.
In the configuration of the content reproduction system 100 shown in FIG. 1, the frame image of the projection video content and the captured image of the projection image projected on the screen 5 are reversed from the left and right of the front image. In the figure to be used, left-right reversal is omitted, and all are shown as front images.

図4に、画像処理装置1によって実行される再生制御処理のフローチャートを示す。再生制御処理は、制御部10のCPUとプログラム記憶部131に記憶されているプログラムとの協働により実行される。   FIG. 4 shows a flowchart of the reproduction control process executed by the image processing apparatus 1. The reproduction control process is executed in cooperation with the CPU of the control unit 10 and the program stored in the program storage unit 131.

まず、制御部10は、位置合わせ処理を実行する(ステップS1)。
図5に、位置合わせ処理のフローチャートを示す。位置合わせ処理は、制御部10のCPUとプログラム記憶部131に記憶されているプログラムとの協働により実行される。
First, the control unit 10 executes an alignment process (step S1).
FIG. 5 shows a flowchart of the alignment process. The alignment process is executed in cooperation with the CPU of the control unit 10 and the program stored in the program storage unit 131.

位置合わせ処理において、まず、制御部10は、投影用映像コンテンツのフレーム画像(例えば、1フレーム目)を記憶部13の映像データ記憶部132から読み出して取得する(ステップS101)。
次いで、制御部10は、記憶部13の設定情報記憶部133から設定情報を取得し、取得した設定情報に基づいて、人物領域の倍率及び位置を変更したフレーム画像を作成する(ステップS102)。
In the alignment process, first, the control unit 10 reads and acquires the frame image (for example, the first frame) of the video content for projection from the video data storage unit 132 of the storage unit 13 (step S101).
Next, the control unit 10 acquires setting information from the setting information storage unit 133 of the storage unit 13 and creates a frame image in which the magnification and position of the person area are changed based on the acquired setting information (step S102).

次いで、制御部10は、作成されたフレーム画像から人物領域を抽出し、抽出した人物領域の位置情報及び作成されたフレーム画像をI/F14を介してプロジェクタ2に送信し、プロジェクタ2によりフレーム画像中の人物領域をスクリーン5に投影させる(ステップS103)。人物領域は、例えば、画像認識等の公知の画像処理技術によって抽出することができる。   Next, the control unit 10 extracts a person area from the created frame image, transmits the position information of the extracted person area and the created frame image to the projector 2 via the I / F 14, and the projector 2 transmits the frame image. The person area inside is projected on the screen 5 (step S103). The person region can be extracted by a known image processing technique such as image recognition, for example.

次いで、制御部10は、スクリーン5を含む投影像をカメラ3に撮影させて撮影画像を取得し(ステップS104)、取得した撮影画像からスクリーン5の外形領域を抽出する(ステップS105)。
ステップS105におけるスクリーン5の外形領域は、例えば、撮影画像にぼかし処理及び二値化処理を施すことにより抽出することとするが、これに限らず、その他の公知の画像処理技術を用いて抽出してもよい。
Next, the control unit 10 causes the camera 3 to capture a projected image including the screen 5 to acquire a captured image (step S104), and extracts an outer region of the screen 5 from the acquired captured image (step S105).
The outline area of the screen 5 in step S105 is extracted by, for example, performing blurring processing and binarization processing on the captured image, but is not limited thereto, and is extracted using other known image processing techniques. May be.

次いで、制御部10は、撮影画像から投影像の人物領域を抽出する(ステップS106)。例えば、撮影画像に、ステップS105より高い(明るい)輝度の閾値を用いて二値化処理を施すことにより人物領域を抽出することとするが、これに限らず、その他の公知の画像処理技術を用いて抽出してもよい。   Next, the control unit 10 extracts a person area of the projected image from the captured image (step S106). For example, a person region is extracted by performing binarization processing on a captured image using a threshold value of brightness (brighter) higher than that in step S105. However, the present invention is not limited to this, and other known image processing techniques may be used. May be used for extraction.

次いで、制御部10は、抽出されたスクリーン5の外形領域と人物領域とを比較し、両者の位置合わせを行う(ステップS107)。例えば、スクリーン5の外形領域の重心と人物領域の重心をそれぞれ求め、両者が一致するように人物領域を移動させた後、人物領域がスクリーン5の外形領域に対して予め定められたサイズ(例えば、約0.9倍)となるように人物領域の倍率を変更する。   Next, the control unit 10 compares the extracted outline area of the screen 5 with the person area, and aligns the two (step S107). For example, the center of gravity of the outline area of the screen 5 and the center of gravity of the person area are obtained, and the person area is moved so that they match, and then the person area has a predetermined size with respect to the outline area of the screen 5 (for example, , The magnification of the person area is changed to be about 0.9 times.

次いで、制御部10は、ステップS107の位置合わせで取得した人物領域の倍率及び移動量(及び移動方向)に基づいて、投影時のフレーム画像における人物領域の倍率及び位置の移動量(及び移動方向)を算出し、算出結果により設定情報記憶部133に記憶されている設定情報を更新し(ステップS108)、図4のステップS2の処理に移行する。   Next, based on the magnification and movement amount (and movement direction) of the person area acquired in the alignment in step S107, the control unit 10 calculates the magnification and position movement amount (and movement direction) of the person area in the frame image at the time of projection. ) Is updated, the setting information stored in the setting information storage unit 133 is updated based on the calculation result (step S108), and the process proceeds to step S2 in FIG.

図4のステップS2においては、スクリーン外形抽出処理が実行される(ステップS2)。   In step S2 of FIG. 4, a screen outer shape extraction process is executed (step S2).

図6に、スクリーン外形抽出処理のフローチャートを示す。スクリーン外形抽出処理は、制御部10のCPUとプログラム記憶部131に記憶されているプログラムとの協働により実行される。   FIG. 6 shows a flowchart of the screen outer shape extraction process. The screen outer shape extraction process is executed in cooperation with the CPU of the control unit 10 and the program stored in the program storage unit 131.

まず、制御部10は、投影用映像コンテンツのフレーム画像と同サイズの画像をn×n(nは正の整数)の領域に分割し、分割線の入った画像をI/F14を介してプロジェクタ2に送信し、投影させる(ステップS201)。   First, the control unit 10 divides an image having the same size as the frame image of the projection video content into areas of n × n (n is a positive integer), and the image including the dividing line is projected via the I / F 14 to the projector. 2 to be projected (step S201).

次いで、制御部10は、投影中のスクリーン5を含む投影像をカメラ3に撮影させて撮影画像を取得し(ステップS202)、取得された撮影画像からスクリーン5の外形を抽出し(ステップS203)、図4のステップS3の処理に移行する。スクリーン5の外形の抽出は、図5のステップS105で説明したものと同様の処理によりスクリーン5の外形領域を抽出し、その輪郭を抽出することにより行うことができる。図7(a)に、ステップS202で取得される撮影画像の模式図を示す。   Next, the control unit 10 causes the camera 3 to capture a projected image including the screen 5 being projected, acquires a captured image (step S202), and extracts the outer shape of the screen 5 from the acquired captured image (step S203). Then, the process proceeds to step S3 in FIG. The extraction of the outer shape of the screen 5 can be performed by extracting the outer region of the screen 5 by the same process as described in step S105 of FIG. 5 and extracting the contour. FIG. 7A shows a schematic diagram of the captured image acquired in step S202.

図4のステップS3においては、合成画像生成処理が実行される(ステップS3)。本実施形態においては、合成画像生成処理として、図8に示す合成画像生成処理Aが実行される。
図8に、合成画像生成処理のフローチャートを示す。合成画像生成処理は、制御部10のCPUとプログラム記憶部131に記憶されているプログラムとの協働により実行される。
In step S3 of FIG. 4, a composite image generation process is executed (step S3). In the present embodiment, a composite image generation process A shown in FIG. 8 is executed as the composite image generation process.
FIG. 8 shows a flowchart of the composite image generation process. The composite image generation process is executed in cooperation with the CPU of the control unit 10 and the program stored in the program storage unit 131.

まず、制御部10は、投影用映像コンテンツのフレーム画像を記憶部13の映像データ記憶部132から読み出して取得する(ステップS301)。   First, the control unit 10 reads and acquires the frame image of the projection video content from the video data storage unit 132 of the storage unit 13 (step S301).

次いで、制御部10は、余白領域抽出処理を実行する(ステップS302)。
図9に、余白領域抽出処理のフローチャートを示す。余白領域抽出処理は、制御部10のCPUとプログラム記憶部131に記憶されているプログラムとの協働により実行される。
Next, the control unit 10 performs a blank area extraction process (step S302).
FIG. 9 shows a flowchart of blank area extraction processing. The blank area extraction process is executed in cooperation with the CPU of the control unit 10 and the program stored in the program storage unit 131.

まず、制御部10は、記憶部13の設定情報記憶部133から当該投影用映像コンテンツのフレーム画像を投影する際の人物領域の倍率及び位置の移動量の設定情報を取得し、取得された設定情報に基づいて、人物領域の倍率及び位置を変更したフレーム画像を作成する(ステップS2021)。   First, the control unit 10 acquires the setting information of the magnification and position movement amount of the person area when projecting the frame image of the projection video content from the setting information storage unit 133 of the storage unit 13, and the acquired setting Based on the information, a frame image in which the magnification and position of the person area are changed is created (step S2021).

次いで、制御部10は、作成したフレーム画像をn×nに分割し、分割線をフレーム画像に付加する(ステップS2022、図7(b)参照)。
次いで、制御部10は、上記フレーム画像から人物領域を抽出する(ステップS2023)。人物領域の抽出は、例えば、画像認識等の画像処理等の公知の画像処理技術によって行うことができる。
Next, the control unit 10 divides the created frame image into n × n, and adds a dividing line to the frame image (see step S2022, FIG. 7B).
Next, the control unit 10 extracts a person region from the frame image (step S2023). The extraction of the person area can be performed by a known image processing technique such as image processing such as image recognition.

そして、制御部10は、図4のステップS2のスクリーン外形抽出処理で抽出したスクリーンの外形と、抽出した人物領域の輪郭とを比較して、フレーム画像から余白領域を抽出する(ステップS2024)。例えば、スクリーン外形抽出処理で撮影された撮影画像の分割線とフレーム画像の分割線とで撮影画像とフレーム画像との対応をとり、撮影画像の倍率を変更して撮影画像の分割線をフレーム画像の分割線に合わせる。これにより、フレーム画像中のスクリーン5の外形に相当する位置を特定することができる。次いで、フレーム画像におけるスクリーン5の外形とフレーム画像中の人物領域の輪郭とを比較し、人物領域の輪郭とスクリーンの外形との間の領域を余白領域として抽出する。図7(c)に、図7(a)に示すスクリーン外形と図7(b)に示す人物領域に基づいて抽出された余白領域を示す。図7(c)において斜線で示した部分が余白領域である。余白領域の抽出後、制御部10は、図8のステップS303の処理に移行する。   Then, the control unit 10 compares the outline of the screen extracted by the screen outline extraction process in step S2 of FIG. 4 with the extracted outline of the person area, and extracts a blank area from the frame image (step S2024). For example, by taking a correspondence between a captured image and a frame image by using a dividing line of a captured image and a dividing line of a frame image captured by the screen outer shape extraction process, changing the magnification of the captured image and changing the divided line of the captured image to a frame image Align with the dividing line. Thereby, a position corresponding to the outer shape of the screen 5 in the frame image can be specified. Next, the outline of the screen 5 in the frame image is compared with the outline of the person area in the frame image, and the area between the outline of the person area and the outline of the screen is extracted as a blank area. FIG. 7C shows a blank area extracted based on the screen outer shape shown in FIG. 7A and the person area shown in FIG. 7B. In FIG. 7C, a hatched portion is a blank area. After extracting the blank area, the control unit 10 proceeds to the process of step S303 in FIG.

図8のステップS303においては、抽出された余白領域に所定の色を付した合成用画像が生成される(ステップS303)。所定の色は、例えば、操作部11からユーザが予め設定することができる。また、色に限らず、パターン等を余白領域に付すこととしてもよい。   In step S303 of FIG. 8, a composition image in which a predetermined color is added to the extracted blank area is generated (step S303). The predetermined color can be preset by the user from the operation unit 11, for example. In addition to the color, a pattern or the like may be attached to the blank area.

そして、制御部10は、生成した合成用画像をフレーム画像(ステップS301で取得したフレーム画像)に対応付けて記憶部13に記憶する(ステップS304)。例えば、合成用画像のヘッダ領域にフレーム画像を識別するための識別番号等を書き込んで記憶する。   Then, the control unit 10 stores the generated composition image in the storage unit 13 in association with the frame image (the frame image acquired in step S301) (step S304). For example, an identification number or the like for identifying the frame image is written and stored in the header area of the composition image.

次いで、制御部10は、投影用映像コンテンツの映像データに次のフレーム画像が存在するか否かを判断する(ステップS305)。次のフレーム画像が存在すると判断した場合(ステップS305;YES)、制御部10は、ステップS301の処理に戻り、次のフレーム画像についてステップS301〜ステップS304の処理を繰り返し実行する。次のフレーム画像が存在しないと判断した場合(ステップS305;NO)、制御部10は、図4のステップS4の処理に移行する。   Next, the control unit 10 determines whether or not the next frame image exists in the video data of the projection video content (step S305). When it is determined that the next frame image exists (step S305; YES), the control unit 10 returns to the process of step S301 and repeatedly executes the processes of step S301 to step S304 for the next frame image. When it is determined that the next frame image does not exist (step S305; NO), the control unit 10 proceeds to the process of step S4 in FIG.

なお、余白領域の抽出としては、フレーム画像から抽出した人物領域をスクリーン5に投影し、その投影像を含むスクリーン5をカメラ3により撮影し、取得された撮影画像からスクリーン5の外形と人物領域を抽出し、抽出したスクリーン5の外形と人物領域の輪郭とに基づいて余白領域を抽出することとしてもよい。この場合は、図2のステップS2におけるスクリーン外形抽出処理は不要である。   As the extraction of the blank area, the person area extracted from the frame image is projected on the screen 5, the screen 5 including the projected image is photographed by the camera 3, and the outer shape of the screen 5 and the person area are obtained from the obtained photographed image. And a blank area may be extracted based on the extracted outline of the screen 5 and the outline of the person area. In this case, the screen outline extraction process in step S2 of FIG. 2 is not necessary.

図4のステップS4において、制御部10は、投影制御処理を実行する(ステップS4)。
図10に、投影制御処理のフローチャートを示す。投影制御処理は、制御部10のCPUとプログラム記憶部131に記憶されているプログラムとの協働により実行される。
In step S4 of FIG. 4, the control unit 10 executes a projection control process (step S4).
FIG. 10 shows a flowchart of the projection control process. The projection control process is executed in cooperation with the CPU of the control unit 10 and the program stored in the program storage unit 131.

まず、制御部10は、投影用映像コンテンツのフレーム画像を記憶部13の映像データ記憶部132から読み出して取得する(ステップS401)。   First, the control unit 10 reads and acquires the frame image of the projection video content from the video data storage unit 132 of the storage unit 13 (step S401).

次いで、制御部10は、記憶部13の設定情報記憶部133から当該投影用映像コンテンツのフレーム画像を投影する際の人物領域の倍率及び位置の移動量の設定情報を取得し、取得された設定情報に基づいて、人物領域の倍率及び位置を変更したフレーム画像を作成する(ステップS402)。   Next, the control unit 10 acquires the setting information of the magnification and position movement amount of the person area when projecting the frame image of the projection video content from the setting information storage unit 133 of the storage unit 13, and the acquired setting Based on the information, a frame image in which the magnification and position of the person area are changed is created (step S402).

次いで、制御部10は、作成したフレーム画像から人物領域を抽出する(ステップS403)。人物領域の抽出は、例えば、画像認識等の画像処理等の公知の画像処理技術によって行うことができる。   Next, the control unit 10 extracts a person region from the created frame image (step S403). The extraction of the person area can be performed by a known image processing technique such as image processing such as image recognition.

次いで、制御部10は、記憶部13を検索し、取得したフレーム画像に対応する合成用画像が存在するか否かを判断する(ステップS404)。取得したフレーム画像に対応する合成用画像が存在すると判断した場合(ステップS404;YES)、制御部10は、ステップS403で抽出した人物領域とこれに対応付けられた合成用画像を合成して投影画像とし(ステップS405)、ステップS407の処理に移行する。   Next, the control unit 10 searches the storage unit 13 and determines whether or not there is a composition image corresponding to the acquired frame image (step S404). When it is determined that there is a composition image corresponding to the acquired frame image (step S404; YES), the control unit 10 combines the person region extracted in step S403 and the composition image associated therewith and projects it. The image is set (step S405), and the process proceeds to step S407.

図11に、投影画像の一例を示す。図11に示すように、投影画像においては、投影時にスクリーン外形と、人物領域の輪郭との間の余白領域に、所定の色やパターン等が合成されている。従って、例えば、この余白領域にスクリーン5の背景と同系色の色等やパターン等を合成することにより、人物像が周囲から浮かび上がったような立体的な投影等を可能とし、演出効果を向上させることが可能となる。   FIG. 11 shows an example of the projected image. As shown in FIG. 11, in the projected image, a predetermined color, pattern, or the like is synthesized in a blank area between the screen outer shape and the outline of the person area at the time of projection. Therefore, for example, by synthesizing, for example, a color or pattern of the same color as the background of the screen 5 in this blank area, a three-dimensional projection or the like in which a human image emerges from the surroundings is made possible, and the effect of production is improved. It becomes possible to make it.

一方、取得したフレーム画像に対応付けられた合成用画像が存在しないと判断した場合(ステップS404;NO)、ステップS403で抽出した人物領域を投影画像とし(ステップS406)、ステップS407の処理に移行する。   On the other hand, if it is determined that there is no composition image associated with the acquired frame image (step S404; NO), the person region extracted in step S403 is used as a projection image (step S406), and the process proceeds to step S407. To do.

ステップS407において、制御部10は、合成された投影画像及び投影画像における投影対象領域の位置情報(人物領域+余白領域の位置情報)をI/F14を介してプロジェクタ2に送信し、プロジェクタ2により投影画像中の投影対象領域をスクリーン5に投影させる。また、元のフレーム画像に対応する音声データを音声出力部16により音声信号に変換させ、スピーカ4より音声出力させる(ステップS407)。   In step S <b> 407, the control unit 10 transmits the combined projection image and position information of the projection target area in the projection image (person area + margin area position information) to the projector 2 via the I / F 14. The projection target area in the projection image is projected on the screen 5. Also, the audio data corresponding to the original frame image is converted into an audio signal by the audio output unit 16 and output from the speaker 4 (step S407).

次いで、制御部10は、投影用映像コンテンツの映像データに次のフレーム画像が存在するか否かを判断する(ステップS408)。次のフレーム画像が存在すると判断した場合(ステップS408;YES)、制御部10は、ステップS401の処理に戻り、次のフレーム画像についてステップS401〜ステップS407の処理を繰り返し実行する。次のフレーム画像が存在しないと判断した場合(ステップS408;NO)、制御部10は、再生制御処理を終了する。   Next, the control unit 10 determines whether or not the next frame image exists in the video data of the projection video content (step S408). When it is determined that the next frame image exists (step S408; YES), the control unit 10 returns to the process of step S401 and repeatedly executes the processes of step S401 to step S407 for the next frame image. When it is determined that the next frame image does not exist (step S408; NO), the control unit 10 ends the reproduction control process.

[第2の実施形態]
次に、第2の実施形態について説明する。
第2の実施形態におけるコンテンツ再生システム200は、図12に示すように、図1に示すコンテンツ再生システム100のスクリーン5の前面にカメラ8が設けられている。このカメラ8は、スクリーン5及びその背景を撮影するものであり、画像処理装置1に接続されている。その他の第2の実施形態におけるコンテンツ再生システム200及びこれを構成する各装置の構成は、第1の実施形態で説明したものと同様であるので説明を援用し、以下、第2の実施形態の動作について説明する。
[Second Embodiment]
Next, a second embodiment will be described.
As shown in FIG. 12, the content reproduction system 200 in the second embodiment is provided with a camera 8 on the front surface of the screen 5 of the content reproduction system 100 shown in FIG. The camera 8 captures the screen 5 and its background, and is connected to the image processing apparatus 1. The configuration of the content reproduction system 200 and other devices constituting the second embodiment according to the second embodiment are the same as those described in the first embodiment, and the description is used. The operation will be described.

第2の実施形態においては、図4のステップS3で実行される合成用画像生成処理が第1の実施形態で説明したものと異なる。その他の処理は第1の実施形態で説明したものと同様であるので説明を援用し、以下、第2の実施形態において図4のステップS3で実行される合成用画像生成処理(合成用画像生成処理B)について説明する。
制御部10は、合成用画像生成処理Bを含む再生制御処理を実行することで、スクリーン画像取得手段、スクリーン外形抽出手段、合成手段、制御手段、背景画像取得手段として機能する。
In the second embodiment, the composition image generation process executed in step S3 of FIG. 4 is different from that described in the first embodiment. Since the other processes are the same as those described in the first embodiment, the description is used. Hereinafter, the image generation process for synthesis (image generation for synthesis is executed in step S3 in FIG. 4 in the second embodiment). The process B) will be described.
The control unit 10 functions as a screen image acquisition unit, a screen outer shape extraction unit, a synthesis unit, a control unit, and a background image acquisition unit by executing a reproduction control process including the synthesis image generation process B.

図13に、合成用画像生成処理Bのフローチャートを示す。合成用画像生成処理Bは、制御部10のCPUとプログラム記憶部131に記憶されているプログラムとの協働により実行される。
まず、制御部10は、スクリーン5の背景をカメラ8に撮影させてその撮影画像を取得する(ステップS311)。
次いで、制御部10は、投影用映像コンテンツのフレーム画像を記憶部13の映像データ記憶部132から読み出して取得する(ステップS312)。
FIG. 13 shows a flowchart of the composition image generation process B. The composition image generation process B is executed in cooperation with the CPU of the control unit 10 and the program stored in the program storage unit 131.
First, the control unit 10 causes the camera 8 to capture the background of the screen 5 and acquires the captured image (step S311).
Next, the control unit 10 reads and acquires the frame image of the projection video content from the video data storage unit 132 of the storage unit 13 (step S312).

次いで、制御部10は、余白領域抽出処理を実行する(ステップS313)。余白領域抽出処理は、第1の実施形態において図9を用いて説明したものと同様であるので説明を援用する。   Next, the control unit 10 performs a blank area extraction process (step S313). Since the blank area extraction process is the same as that described with reference to FIG. 9 in the first embodiment, the description is used.

次いで、制御部10は、抽出された余白領域にステップS311で取得された背景の撮影画像を配置した合成用画像を生成する(ステップS314)。図12に示す構成の場合、例えば、背景の撮影画像の左右を反転させ、背景の撮影画像中のスクリーン5の外形を抽出し、これをフレーム画像のスクリーン外形に相当する、抽出した余白領域の外形に合わせるように撮影画像の倍率を変更し、倍率変更した撮影画像の余白領域に対応する部分の画像を切り出して合成用画像を生成する。   Next, the control unit 10 generates a synthesis image in which the background captured image acquired in step S311 is arranged in the extracted blank area (step S314). In the case of the configuration shown in FIG. 12, for example, the left and right sides of the captured image of the background are reversed, the outline of the screen 5 is extracted from the captured image of the background, and this is extracted from the extracted blank area corresponding to the screen outline of the frame image. The magnification of the photographed image is changed so as to match the outer shape, and an image for synthesis is generated by cutting out a part of the image corresponding to the blank area of the photographed image whose magnification has been changed.

そして、制御部10は、生成した合成用画像をフレーム画像(ステップS312で取得したフレーム画像)に対応付けて記憶部13に記憶する(ステップS315)。例えば、合成用画像のヘッダ領域にフレーム画像を識別するための識別番号等を書き込んで記憶する。   Then, the control unit 10 stores the generated composition image in the storage unit 13 in association with the frame image (the frame image acquired in Step S312) (Step S315). For example, an identification number or the like for identifying the frame image is written and stored in the header area of the composition image.

次いで、制御部10は、投影用映像コンテンツの映像データに次のフレーム画像が存在するか否かを判断する(ステップS316)。次のフレーム画像が存在すると判断した場合(ステップS316;YES)、制御部10は、ステップS311の処理に戻り、次のフレーム画像についてステップS311〜ステップS315の処理を繰り返し実行する。次のフレーム画像が存在しないと判断した場合(ステップS316;NO)、制御部10は、図4のステップS4の処理に移行し、図10の投影制御処理を実行する。投影制御処理の実行により、スクリーン5の背景の撮影画像がスクリーン5と人物像との間の余白領域に投影される。   Next, the control unit 10 determines whether or not the next frame image exists in the video data of the projection video content (step S316). If it is determined that the next frame image exists (step S316; YES), the control unit 10 returns to the process of step S311 and repeatedly executes the processes of step S311 to step S315 for the next frame image. When determining that the next frame image does not exist (step S316; NO), the control unit 10 proceeds to the process of step S4 in FIG. 4 and executes the projection control process in FIG. By executing the projection control process, the captured image of the background of the screen 5 is projected onto the blank area between the screen 5 and the person image.

第2の実施形態によれば、スクリーン5と人物像との間の余白領域に背景の撮影画像が投影されるので、背景の前にあたかも人物が存在するかのような自然な投影を行うことが可能となり、演出効果を向上させることが可能となる。   According to the second embodiment, since the background shot image is projected on the blank area between the screen 5 and the person image, natural projection is performed as if a person exists in front of the background. It becomes possible to improve the production effect.

[第3の実施形態]
次に、第3の実施形態について説明する。
第3の実施形態におけるコンテンツ再生システム及びこれを構成する各装置の構成は、第1の実施形態で説明したものと同様であるので説明を援用し、以下、第3の実施形態の動作について説明する。
[Third Embodiment]
Next, a third embodiment will be described.
Since the configuration of the content playback system and each of the devices constituting the content playback system according to the third embodiment is the same as that described in the first embodiment, the description will be used and the operation of the third embodiment will be described below. To do.

第3の実施形態の動作は、図4のステップS3で実行される合成用画像生成処理が第1の実施形態と異なる。その他の処理は第1の実施形態で説明したものと同様であるので説明を援用し、以下、第3の実施形態において図4のステップS3で実行される合成用画像生成処理(合成用画像生成処理C)について説明する。
制御部10は、合成用画像生成処理Cを含む再生制御処理を実行することで、スクリーン画像取得手段、スクリーン外形抽出手段、合成手段、制御手段、テキスト取得手段として機能する。
The operation of the third embodiment differs from that of the first embodiment in the composition image generation process executed in step S3 of FIG. Since the other processes are the same as those described in the first embodiment, the description is used. Hereinafter, the image generation process for synthesis (image generation for synthesis is executed in step S3 in FIG. 4 in the third embodiment). The process C) will be described.
The control unit 10 functions as a screen image acquisition unit, a screen outer shape extraction unit, a synthesis unit, a control unit, and a text acquisition unit by executing a reproduction control process including the synthesis image generation process C.

図14に、合成用画像生成処理Cのフローチャートを示す。合成用画像生成処理Cは、制御部10のCPUとプログラム記憶部131に記憶されているプログラムとの協働により実行される。
まず、制御部10は、投影用映像コンテンツの音声を取得する(ステップS321)。具体的には、制御部10は、投影用映像コンテンツの音声データを映像データ記憶部132から読み出し、音声出力部16により音声信号に変換してスピーカ4により出力させる。そして、マイク7により入力されたその音声信号の音声波形を取得する。
FIG. 14 shows a flowchart of the composition image generation process C. The composition image generation process C is executed in cooperation with the CPU of the control unit 10 and the program stored in the program storage unit 131.
First, the control unit 10 acquires the sound of the projection video content (step S321). Specifically, the control unit 10 reads the audio data of the projection video content from the video data storage unit 132, converts the audio data into an audio signal by the audio output unit 16, and causes the speaker 4 to output the audio signal. Then, the voice waveform of the voice signal input by the microphone 7 is acquired.

次いで、制御部10は、取得された音声波形を解析して音声認識を行い、音声に対応するテキストを作成する(ステップS322)。   Next, the control unit 10 analyzes the acquired speech waveform, performs speech recognition, and creates a text corresponding to the speech (step S322).

次いで、制御部10は、作成されたテキストの区切りを検出し、検出した区切りごとにテキストの表示タイミングを決定し、投影用映像コンテンツの各フレーム画像とテキストとを対応付けて記憶する(ステップS323)。例えば、制御部10は、公知の形態素解析技術等によりテキストの区切りを決定し、区切られたひとまとまりのテキストの音声が再生されるタイミングで表示(投影)される一連のフレーム画像の表示タイミングをそのひとまとまりのテキストの表示タイミングとして決定する。そして、テキストの区切り毎に、テキストをそのテキストの表示タイミングと同じ表示タイミングで表示するフレーム画像に対応付けて記憶する。例えば、テキストを、フレーム画像を識別するための識別番号と対応付けて記憶する。
例えば、「いらっしゃいませ」という音声が再生されるタイミングで表示されるフレーム画像がフレーム番号1〜5の画像である場合、「いらっしゃいませ」というテキストの表示タイミングをフレーム番号1〜5のフレーム画像の表示タイミングに決定する。そして、「いらっしゃいませ」というテキストにフレーム番号1〜5を対応付けて記憶する。
Next, the control unit 10 detects a break of the created text, determines a display timing of the text for each detected break, and stores each frame image of the projection video content and the text in association with each other (step S323). ). For example, the control unit 10 determines a text break using a known morphological analysis technique or the like, and displays a display timing of a series of frame images displayed (projected) at a timing when a sound of the divided text is reproduced. It is determined as the display timing of the group of texts. For each text break, the text is stored in association with a frame image that is displayed at the same display timing as the text display timing. For example, the text is stored in association with an identification number for identifying the frame image.
For example, if the frame image displayed at the timing when the voice “I welcome” is played is an image with frame numbers 1 to 5, the display timing of the text “I welcome” is set to the frame image with frame numbers 1 to 5. Determine the display timing. Then, frame numbers 1 to 5 are stored in association with the text “I welcome you”.

次いで、制御部10は、投影用映像コンテンツのフレーム画像を記憶部13の映像データ記憶部132から読み出して取得し(ステップS324)、余白領域抽出処理を実行する(ステップS325)。余白領域抽出処理は、第1の実施形態において図9を用いて説明したものと同様であるので説明を援用する。   Next, the control unit 10 reads and acquires the frame image of the projection video content from the video data storage unit 132 of the storage unit 13 (step S324), and executes a blank area extraction process (step S325). Since the blank area extraction process is the same as that described with reference to FIG. 9 in the first embodiment, the description is used.

次いで、制御部10は、抽出された余白領域に、このフレーム画像に対応付けられたテキストを配置して合成用画像を生成する(ステップS326)。   Next, the control unit 10 arranges the text associated with the frame image in the extracted blank area and generates a composition image (step S326).

そして、制御部10は、生成した合成用画像をフレーム画像に対応付けて記憶部13に記憶する(ステップS327)。例えば、合成用画像のヘッダ領域にフレーム画像を識別するための識別番号等を書き込んで記憶する。   Then, the control unit 10 stores the generated composition image in the storage unit 13 in association with the frame image (step S327). For example, an identification number or the like for identifying the frame image is written and stored in the header area of the composition image.

次いで、制御部10は、投影用映像コンテンツの映像データに次のフレーム画像が存在するか否かを判断する(ステップS328)。次のフレーム画像が存在すると判断した場合(ステップS328;YES)、制御部10は、ステップS324の処理に戻り、次のフレーム画像についてステップS324〜ステップS327の処理を繰り返し実行する。次のフレーム画像が存在しないと判断した場合(ステップS328;NO)、制御部10は、図4のステップS4の処理に移行し、図10の投影制御処理を実行する。投影制御処理の実行により、出力される音声のテキストがその音声の出力時に投影される人物像とスクリーン5との間の余白領域に表示される。   Next, the control unit 10 determines whether or not the next frame image exists in the video data of the projection video content (step S328). If it is determined that the next frame image exists (step S328; YES), the control unit 10 returns to the process of step S324 and repeatedly executes the processes of step S324 to step S327 for the next frame image. When it is determined that the next frame image does not exist (step S328; NO), the control unit 10 proceeds to the process of step S4 in FIG. 4 and executes the projection control process in FIG. By executing the projection control process, the output voice text is displayed in a blank area between the person image projected when the voice is output and the screen 5.

第3の実施形態によれば、出力されている音声のテキストが人物像とスクリーン5との間の余白領域に表示されるので、音声が聞き取りにくい場合であっても聴衆はその投影されている人物像が何を言っているのかを容易に認識することが可能となる。   According to the third embodiment, since the output voice text is displayed in the blank area between the person image and the screen 5, the audience is projected even when the voice is difficult to hear. It is possible to easily recognize what the person image says.

[第4の実施形態]
次に、第4の実施形態について説明する。
第4の実施形態におけるコンテンツ再生システム及びこれを構成する各装置の構成は、第1の実施形態で説明したものと同様であるので説明を援用し、以下、第4の実施形態の動作について説明する。
[Fourth Embodiment]
Next, a fourth embodiment will be described.
Since the configuration of the content reproduction system and each device configuring the content reproduction system according to the fourth embodiment is the same as that described in the first embodiment, the description will be used and the operation of the fourth embodiment will be described below. To do.

第4の実施形態の動作は、図4のステップS3で実行される合成用画像生成処理が第1の実施形態と異なる。その他の処理は第1の実施形態で説明したものと同様であるので説明を援用し、以下、第4の実施形態において図4のステップS3で実行される合成用画像生成処理(合成用画像生成処理D)について説明する。
制御部10は、合成用画像生成処理Dを含む再生制御処理を実行することで、スクリーン画像取得手段、スクリーン外形抽出手段、合成手段、制御手段として機能する。また、制御部10は、マイク7と協働して検出手段として機能する。
The operation of the fourth embodiment is different from that of the first embodiment in the composition image generation process executed in step S3 of FIG. Since the other processes are the same as those described in the first embodiment, the description is used, and hereinafter, the image generation process for synthesis (image generation for synthesis is executed in step S3 in FIG. 4 in the fourth embodiment). Process D) will be described.
The control unit 10 functions as a screen image acquisition unit, a screen outer shape extraction unit, a synthesis unit, and a control unit by executing a reproduction control process including the synthesis image generation process D. The control unit 10 functions as a detection unit in cooperation with the microphone 7.

図15に、合成用画像生成処理Dのフローチャートを示す。合成用画像生成処理Dは、制御部10のCPUとプログラム記憶部131に記憶されているプログラムとの協働により実行される。
まず、制御部10は、投影用映像コンテンツの音声を取得する(ステップS331)。具体的には、制御部10は、投影用映像コンテンツの音声データを映像データ記憶部132から読み出し、音声出力部16により音声信号に変換してスピーカ4により出力させる。そして、マイク7により入力されたその音声信号の音声波形を取得する。
FIG. 15 shows a flowchart of the composition image generation process D. The composition image generation process D is executed by the cooperation of the CPU of the control unit 10 and the program stored in the program storage unit 131.
First, the control unit 10 acquires the sound of the projection video content (step S331). Specifically, the control unit 10 reads the audio data of the projection video content from the video data storage unit 132, converts the audio data into an audio signal by the audio output unit 16, and causes the speaker 4 to output the audio signal. Then, the voice waveform of the voice signal input by the microphone 7 is acquired.

次いで、制御部10は、取得された音声波形を解析して音声の強度を検出する(ステップS332)。   Next, the control unit 10 analyzes the acquired speech waveform and detects the strength of the speech (step S332).

次いで、制御部10は、検出された音声の強度の値が予め定められた閾値を超えるか否かに基づいて、検出された音声強度が強、中、弱の何れであるかを判別する(ステップS333)。音声強度が強である場合(ステップS333;強)、制御部10は、音声出力時の余白領域の色として明るい色を決定する(ステップS334)。音声強度が中である場合(ステップS333;中)、制御部10は、音声出力時の余白領域の色として中間の色を決定する(ステップS335)。音声強度が弱である場合(ステップS333;弱)、制御部10は、音声出力時の余白領域の色として暗い色を決定する(ステップS336)。ここで、明るい色、中間の色、暗い色のそれぞれに該当する色は、予め定められている。
制御部10は、ステップS332で取得された全ての音声波形に対する解析及び余白領域の色の決定が終了するまでステップS332〜ステップS336の処理を繰り返し実行し、余白領域の色の決定が終了すると(ステップS337;YES)、ステップS338の処理に移行する。
Next, the control unit 10 determines whether the detected sound intensity is strong, medium, or weak based on whether or not the detected sound intensity value exceeds a predetermined threshold ( Step S333). When the sound intensity is high (step S333; strong), the control unit 10 determines a bright color as the color of the blank area at the time of sound output (step S334). When the sound intensity is medium (step S333; medium), the control unit 10 determines an intermediate color as the color of the blank area at the time of sound output (step S335). When the sound intensity is weak (step S333; weak), the control unit 10 determines a dark color as the color of the blank area at the time of sound output (step S336). Here, the color corresponding to each of the bright color, the intermediate color, and the dark color is determined in advance.
The control unit 10 repeatedly executes the processing of Steps S332 to S336 until the analysis and the determination of the color of the blank area for all the audio waveforms acquired in Step S332 are completed, and when the determination of the color of the blank area is completed ( Step S337; YES), the process proceeds to Step S338.

ステップS338において、制御部10は、音声の再生タイミングに応じて各色の表示タイミングを決定し、決定された表示タイミングと同じ表示タイミングで表示されるフレーム画像にその色を対応付けて記憶し(ステップS338)、ステップS339の処理に移行する。例えば、フレーム画像の識別番号と色とを対応付けて記憶する。   In step S338, the control unit 10 determines the display timing of each color according to the audio reproduction timing, and stores the color in association with the frame image displayed at the same display timing as the determined display timing (step S338). S338), the process proceeds to step S339. For example, the identification number and color of the frame image are stored in association with each other.

ステップS339において、制御部10は、投影用映像コンテンツのフレーム画像を記憶部13の映像データ記憶部132から読み出して取得する(ステップS339)。   In step S339, the control unit 10 reads and acquires the frame image of the projection video content from the video data storage unit 132 of the storage unit 13 (step S339).

次いで、制御部10は、余白領域抽出処理を実行する(ステップS340)。余白領域抽出処理は、第1の実施形態において図9を用いて説明したものと同様であるので説明を援用する。   Next, the control unit 10 performs a blank area extraction process (step S340). Since the blank area extraction process is the same as that described with reference to FIG. 9 in the first embodiment, the description is used.

次いで、制御部10は、抽出された余白領域にステップS338で対応付けられた色を配置した合成用画像を生成する(ステップS341)。そして、制御部10は、生成した合成用画像をフレーム画像に対応付けて記憶部13に記憶する(ステップS342)。例えば、合成用画像のヘッダ領域にフレーム画像を識別するための識別番号等を書き込んで記憶する。   Next, the control unit 10 generates a composition image in which the extracted blank area is arranged with the color associated in step S338 (step S341). Then, the control unit 10 stores the generated composition image in the storage unit 13 in association with the frame image (step S342). For example, an identification number or the like for identifying the frame image is written and stored in the header area of the composition image.

次いで、制御部10は、投影用映像コンテンツの映像データに次のフレーム画像が存在するか否かを判断する(ステップS343)。次のフレーム画像が存在すると判断した場合(ステップS343;YES)、制御部10は、ステップS339の処理に戻り、次のフレーム画像についてステップS339〜ステップS342の処理を繰り返し実行する。次のフレーム画像が存在しないと判断した場合(ステップS343;NO)、制御部10は、図4のステップS4の処理に移行し、図10の投影制御処理を実行する。投影制御処理の実行により、音声の強度に応じた色がフレーム画像の余白領域に合成される。   Next, the control unit 10 determines whether or not the next frame image exists in the video data of the projection video content (step S343). When it is determined that the next frame image exists (step S343; YES), the control unit 10 returns to the process of step S339 and repeatedly executes the processes of step S339 to step S342 for the next frame image. When it is determined that the next frame image does not exist (step S343; NO), the control unit 10 proceeds to the process of step S4 of FIG. 4 and executes the projection control process of FIG. By executing the projection control process, a color corresponding to the sound intensity is combined with the blank area of the frame image.

第4の実施形態によれば、人物像とスクリーン5との間の余白領域が音声の強度に応じた色で表示される。従って、投影用映像コンテンツにおいて音声が強調されている時に人物像のまわりが明るい色となるので、強調したい部分を聴衆に印象付けることができる。   According to the fourth embodiment, the blank area between the person image and the screen 5 is displayed in a color corresponding to the sound intensity. Accordingly, when the sound is emphasized in the projection video content, the surroundings of the person image become bright colors, so that the part to be emphasized can be impressed by the audience.

なお、第4の実施形態においては、投影用映像コンテンツの音の強度を解析し、音の強度に応じた色で余白領域を投影することとして説明したが、音量を解析し、音量に応じた色で余白領域を投影することとしてもよい。   In the fourth embodiment, the sound intensity of the projection video content is analyzed and the margin area is projected with a color corresponding to the sound intensity. However, the sound volume is analyzed and the sound volume is analyzed according to the sound volume. The margin area may be projected by color.

[第5の実施形態]
次に、第5の実施形態について説明する。
第5の実施形態におけるコンテンツ再生システム及びこれを構成する各装置の構成は、第1の実施形態で説明したものと同様であるので説明を援用し、以下、第5の実施形態の動作について説明する。
[Fifth Embodiment]
Next, a fifth embodiment will be described.
The configuration of the content reproduction system and each device constituting the same in the fifth embodiment is the same as that described in the first embodiment, so the description will be used and the operation of the fifth embodiment will be described below. To do.

第5の実施形態の動作は、図4のステップS3で実行される合成用画像生成処理が第1の実施形態と異なる。その他の処理は第1の実施形態で説明したものと同様であるので説明を援用し、以下、第5の実施形態において図4のステップS3で実行される合成用画像生成処理(合成用画像生成処理E)について説明する。
制御部10は、合成用画像生成処理Eを含む再生制御処理を実行することで、スクリーン画像取得手段、スクリーン外形抽出手段、合成手段、制御手段、判別手段として機能する。
The operation of the fifth embodiment is different from that of the first embodiment in the composition image generation process executed in step S3 of FIG. Since the other processes are the same as those described in the first embodiment, the description is used. Hereinafter, the image generation process for synthesis (image generation for synthesis is executed in step S3 in FIG. 4 in the fifth embodiment). Processing E) will be described.
The controller 10 functions as a screen image acquisition unit, a screen outer shape extraction unit, a synthesis unit, a control unit, and a determination unit by executing a reproduction control process including the synthesis image generation process E.

図16に、合成用画像生成処理Eのフローチャートを示す。合成用画像生成処理Eは、制御部10のCPUとプログラム記憶部131に記憶されているプログラムとの協働により実行される。   FIG. 16 is a flowchart of the composition image generation process E. The composition image generation process E is executed in cooperation with the CPU of the control unit 10 and the program stored in the program storage unit 131.

まず、制御部10は、投影用映像コンテンツのフレーム画像(例えば、1フレーム目のフレーム画像)を映像データ記憶部132から読み出して取得する(ステップS351)。   First, the control unit 10 reads out and obtains a frame image (for example, a frame image of the first frame) of the projection video content from the video data storage unit 132 (step S351).

次いで、制御部10は、フレーム画像に含まれる人物が男性であるか女性であるかを判別する(ステップS352)。具体的には、公知の顔認識技術を用いて、フレーム画像に含まれる人物が男性であるか女性であるかを判別する。例えば、予め複数の男性、女性の顔画像から予め定められた複数の特徴(例えば、鼻の長さ、幅等)の平均を抽出しておく。そして、フレーム画像に含まれる人物の顔の特徴を解析し、各特徴が男女の何れに近いかによって男性であるか女性であるかを判別する。   Next, the control unit 10 determines whether the person included in the frame image is male or female (step S352). Specifically, a known face recognition technique is used to determine whether the person included in the frame image is male or female. For example, an average of a plurality of predetermined characteristics (for example, the length and width of the nose) is extracted from a plurality of male and female face images in advance. Then, the feature of the face of the person included in the frame image is analyzed, and it is determined whether the character is male or female depending on whether each feature is close to male or female.

ステップS352において、男性であると判別した場合(ステップS352;男)、制御部10は、余白領域のデザインを男性らしいデザインに決定し(ステップS353)、ステップS355の処理に移行する。
一方、ステップS352において、女性であると判別した場合(ステップS352;女性)、制御部10は、余白領域のデザインを女性らしいデザインに決定し(ステップS354)、ステップS355の処理に移行する。
男性らしいデザインと女性らしいデザインの画像は、それぞれ記憶部13に予め記憶されている。
If it is determined in step S352 that the person is male (step S352; male), the control unit 10 determines the design of the blank area as a male-like design (step S353), and the process proceeds to step S355.
On the other hand, if it is determined in step S352 that the woman is a woman (step S352; woman), the control unit 10 determines the design of the margin area as a feminine design (step S354), and proceeds to the process of step S355.
Images of a masculine design and a feminine design are stored in the storage unit 13 in advance.

ステップS355において、制御部10は、投影用映像コンテンツのフレーム画像を記憶部13の映像データ記憶部132から読み出して取得する(ステップS355)。   In step S355, the control unit 10 reads and acquires the frame image of the projection video content from the video data storage unit 132 of the storage unit 13 (step S355).

次いで、制御部10は、余白領域抽出処理を実行する(ステップS356)。余白領域抽出処理は、第1の実施形態において図9を用いて説明したものと同様であるので説明を援用する。   Next, the control unit 10 performs a blank area extraction process (step S356). Since the blank area extraction process is the same as that described with reference to FIG. 9 in the first embodiment, the description is used.

次いで、制御部10は、抽出された余白領域に決定したデザインを配置した合成用画像を生成する(ステップS357)。そして、制御部10は、生成した合成用画像をフレーム画像に対応付けて記憶部13に記憶する(ステップS358)。例えば、合成用画像のヘッダ領域にフレーム画像を識別するための識別番号等を書き込んで記憶する。   Next, the control unit 10 generates a synthesis image in which the determined design is arranged in the extracted blank area (step S357). Then, the control unit 10 stores the generated composition image in the storage unit 13 in association with the frame image (step S358). For example, an identification number or the like for identifying the frame image is written and stored in the header area of the composition image.

次いで、制御部10は、投影用映像コンテンツの映像データに次のフレーム画像が存在するか否かを判断する(ステップS359)。次のフレーム画像が存在すると判断した場合(ステップS359;YES)、制御部10は、ステップS355の処理に戻り、次のフレーム画像についてステップS355〜ステップS358の処理を繰り返し実行する。次のフレーム画像が存在しないと判断した場合(ステップS359;NO)、制御部10は、図4のステップS4の処理に移行し、図10の投影制御処理を実行する。投影制御処理の実行により、投影対象の人物に応じたデザインが人物像とスクリーン5の間に投影される。   Next, the control unit 10 determines whether or not the next frame image exists in the video data of the projection video content (step S359). When it is determined that the next frame image exists (step S359; YES), the control unit 10 returns to the process of step S355, and repeatedly executes the processes of step S355 to step S358 for the next frame image. When it is determined that the next frame image does not exist (step S359; NO), the control unit 10 proceeds to the process of step S4 in FIG. 4 and executes the projection control process in FIG. By executing the projection control process, a design corresponding to the person to be projected is projected between the person image and the screen 5.

第5の実施形態によれば、投影対象の人物が男性か女性かを判別し、判別結果に応じたデザインを人物像とスクリーン5との間の余白領域に表示する。従って、投影対象の人物のまわりにその人物に適したデザインが表示されるので、自然な投影とすることができる。   According to the fifth embodiment, it is determined whether the person to be projected is male or female, and a design corresponding to the determination result is displayed in a blank area between the person image and the screen 5. Accordingly, since a design suitable for the person is displayed around the person to be projected, a natural projection can be achieved.

[第6の実施形態]
次に、第6の実施形態について説明する。
第6の実施形態におけるコンテンツ再生システム及びこれを構成する各装置の構成は、第1の実施形態で説明したものと同様であるので説明を援用し、以下、第6の実施形態の動作について説明する。
[Sixth Embodiment]
Next, a sixth embodiment will be described.
The configuration of the content reproduction system and each device that configures the content reproduction system in the sixth embodiment is the same as that described in the first embodiment, so the description will be used and the operation of the sixth embodiment will be described below. To do.

図17に、第6の実施形態において実行される再生制御処理(再生制御処理Bとする)のフローチャートを示す。再生制御処理Bは、制御部10のCPUとプログラム記憶部131に記憶されているプログラムとの協働により実行される。
制御部10は、再生制御処理Bを実行することで、スクリーン画像取得手段、スクリーン外形抽出手段、合成手段、制御手段、人数取得手段、聴衆画像取得手段として機能する。
FIG. 17 shows a flowchart of the reproduction control process (reproduction control process B) executed in the sixth embodiment. The reproduction control process B is executed in cooperation with the CPU of the control unit 10 and the program stored in the program storage unit 131.
By executing the reproduction control process B, the control unit 10 functions as a screen image acquisition unit, a screen outer shape extraction unit, a synthesis unit, a control unit, a number of people acquisition unit, and an audience image acquisition unit.

まず、制御部10は、位置合わせ処理を実行する(ステップS11)。位置合わせ処理は、図5を用いて説明したものと同様であるので説明を援用する。   First, the control unit 10 executes alignment processing (step S11). Since the alignment processing is the same as that described with reference to FIG.

次いで、制御部10は、スクリーン外形抽出処理を実行する(ステップS12)。スクリーン外形抽出処理は、図6を用いて説明したものと同様であるので説明を援用する。   Next, the control unit 10 executes screen outer shape extraction processing (step S12). The screen outer shape extraction processing is the same as that described with reference to FIG.

次いで、制御部10は、投影用映像コンテンツのフレーム画像(例えば、1フレーム目のフレーム画像)を映像データ記憶部132から読み出して取得する(ステップS13)。   Next, the control unit 10 reads out and acquires the frame image (for example, the frame image of the first frame) of the video content for projection from the video data storage unit 132 (step S13).

次いで、制御部10は、カメラ3に聴衆の撮影を行わせて撮影画像を取得し(ステップS14)、取得した撮影画像を解析して聴衆の人数を取得する(ステップS15)。例えば、撮影画像で顔認識できた人数を取得する。また、止まっている人数、即ち、1つ前の撮影画像で顔認識した人物のうち、位置が予め定められた閾値以上移動していない人数を取得することとしてもよい。なお、聴衆の撮影は、カメラ3とは別途設けたカメラにより行うこととしてもよい。   Next, the control unit 10 causes the camera 3 to photograph the audience to obtain a photographed image (step S14), and analyzes the obtained photographed image to obtain the number of audiences (step S15). For example, the number of people whose faces can be recognized in the captured image is acquired. In addition, it is possible to acquire the number of people who have stopped, that is, the number of people whose positions have not moved more than a predetermined threshold among the people whose faces have been recognized in the previous photographed image. Note that the audience may be photographed by a camera provided separately from the camera 3.

人数が10人以上であった場合(ステップS16;10人以上)、制御部10は、投影される人物像とスクリーン5の間の余白領域に配置する色を明るい色に決定し(ステップS17)、ステップS20の処理に移行する。人数が5〜9人以上であった場合(ステップS16;5〜9人)、制御部10は、人物像とスクリーン5の間の余白領域に配置する色を中間の色に決定し(ステップS18)、ステップS20の処理に移行する。人数が0〜4人であった場合(ステップS16;0〜4人)、制御部10は、人物像とスクリーン5の間の余白領域に配置する色を暗い色に決定し(ステップS19)、ステップS20の処理に移行する。
ここで、明るい色、中間の色、暗い色のそれぞれに該当する色は、予め定められている。
When the number of persons is 10 or more (step S16; 10 or more), the control unit 10 determines a color to be arranged in a blank area between the projected person image and the screen 5 as a bright color (step S17). The process proceeds to step S20. When the number of persons is 5 to 9 or more (step S16; 5 to 9 persons), the control unit 10 determines the color to be arranged in the blank area between the person image and the screen 5 as an intermediate color (step S18). ), The process proceeds to step S20. When the number of persons is 0 to 4 (step S16; 0 to 4 persons), the control unit 10 determines the color to be arranged in the blank area between the person image and the screen 5 as a dark color (step S19). The process proceeds to step S20.
Here, the color corresponding to each of the bright color, the intermediate color, and the dark color is determined in advance.

ステップS20において、制御部10は、余白領域抽出処理を実行する(ステップS20)。余白領域抽出処理は、第1の実施形態において図9を用いて説明したものと同様であるので説明を援用する。   In step S20, the control unit 10 performs a blank area extraction process (step S20). Since the blank area extraction process is the same as that described with reference to FIG. 9 in the first embodiment, the description is used.

次いで、制御部10は、抽出された余白領域に決定した色の画像を合成し、投影画像を生成する(ステップS21)。そして、制御部10は、合成された投影画像及び投影画像における投影対象領域の位置情報(人物領域+余白領域の位置情報)をI/F14を介してプロジェクタ2に送信し、プロジェクタ2により投影画像中の投影対象領域をスクリーン5に投影させる。また、元のフレーム画像に対応する音声データを音声出力部16により音声信号に変換させ、スピーカ4より音声出力させる(ステップS22)。   Next, the control unit 10 combines the image of the determined color with the extracted blank area and generates a projection image (step S21). Then, the control unit 10 transmits the combined projection image and position information of the projection target area in the projection image (person area + margin area position information) to the projector 2 via the I / F 14. The projection target area inside is projected onto the screen 5. Also, the audio data corresponding to the original frame image is converted into an audio signal by the audio output unit 16 and output from the speaker 4 (step S22).

次いで、制御部10は、投影用映像コンテンツの映像データに次のフレーム画像が存在するか否かを判断する(ステップS23)。次のフレーム画像が存在すると判断した場合(ステップS23;YES)、制御部10は、ステップS13の処理に戻り、次のフレーム画像についてステップS13〜ステップS22の処理を繰り返し実行する。次のフレーム画像が存在しないと判断した場合(ステップS23;NO)、制御部10は、再生制御処理Bを終了する。   Next, the control unit 10 determines whether or not the next frame image exists in the video data of the projection video content (step S23). When it is determined that the next frame image exists (step S23; YES), the control unit 10 returns to the process of step S13 and repeatedly executes the processes of step S13 to step S22 for the next frame image. When it is determined that the next frame image does not exist (step S23; NO), the control unit 10 ends the reproduction control process B.

第6の実施形態によれば、投影用映像コンテンツを見ている聴衆の人数によって人物像とスクリーン5との間の余白領域に配置する色を変更する。具体的には、人数が多いときには明るい色を配置する。従って、多くの聴衆が集まっているときに投影する人物の周囲をより明るい色にして目立たせることによって、より注目度を挙げて演出を効果的にすることが可能となる。また、投影用映像コンテンツの提供側は、投影像を一瞥するだけで聴衆のおおよその数を容易に把握することが可能となる。   According to the sixth embodiment, the color to be arranged in the blank area between the person image and the screen 5 is changed according to the number of the audience watching the projection video content. Specifically, bright colors are arranged when the number of people is large. Therefore, when a large number of audiences are gathered, the surroundings of the person to be projected are highlighted in a brighter color, thereby making it possible to increase the degree of attention and make the production more effective. Also, the projection video content provider can easily grasp the approximate number of audiences by simply looking at the projected images.

以上説明したように、画像処理装置1の制御部10は、映像コンテンツの映像データから投影対象物である人物領域を抽出し、当該抽出した人物領域の輪郭と、撮影画像から抽出されたスクリーン5の外形に基づいて、映像データにおける、当該映像データをスクリーン5に投影したときに人物領域の輪郭とスクリーン5の外形の間に相当する余白領域に画像を合成する。そして、合成された映像データに基づいて、人物像の輪郭とスクリーン5の外形の間に画像が合成された映像コンテンツをプロジェクタ2によりスクリーン5上に投影させる。
従って、スクリーンと人物像との間の余白領域に合成した画像が投影されるので、スクリーンと人物像との間の余白領域を利用して、演出効果を向上させることが可能となる。
As described above, the control unit 10 of the image processing apparatus 1 extracts the human area that is the projection target from the video data of the video content, and the screen 5 extracted from the outline of the extracted human area and the captured image. In the video data, an image is synthesized with a blank area corresponding to the outline of the person area and the outline of the screen 5 when the video data is projected onto the screen 5. Then, based on the synthesized video data, the projector 2 projects the video content on which the image is synthesized between the outline of the person image and the outline of the screen 5 on the screen 5.
Therefore, since the synthesized image is projected on the blank area between the screen and the person image, it is possible to improve the effect by using the blank area between the screen and the person image.

例えば、映像データにおける人物領域の輪郭とスクリーン5の外形の間に相当する領域に、背景と同系色の色又はパターンの画像を合成することで、人物像が周囲から浮かび上がったような立体的な投影等を可能とし、演出効果を向上させることが可能となる。   For example, by synthesizing an image of a color or pattern of the same color as the background in an area corresponding to the outline of the person area and the outline of the screen 5 in the video data, a three-dimensional image in which a person image is raised from the surroundings. Projection and the like can be performed, and the production effect can be improved.

また、映像データにおける人物領域の輪郭とスクリーン5の外形の間に相当する領域に、スクリーン5の背景の撮影画像を合成することで、背景の前にあたかも人物が存在するかのような自然な投影を行うことが可能となり、演出効果を向上させることが可能となる。   Further, by synthesizing the captured image of the background of the screen 5 in an area corresponding to the outline of the person area and the outline of the screen 5 in the video data, it is natural as if a person exists in front of the background. Projection can be performed, and the production effect can be improved.

また、例えば、映像データにおける人物領域の輪郭とスクリーン5の外形の間に相当する領域に、映像コンテンツの音声のテキスト情報を合成することで、投影時に出力されている音声のテキストが人物像とスクリーン5との余白領域に表示されるので、音声が聞き取りにくい場合であっても聴衆はその投影されている人物像が何を言っているのかを容易に認識することが可能となる。   Further, for example, by synthesizing the audio text information of the video content in an area corresponding to the outline between the outline of the person area and the outline of the screen 5 in the video data, the audio text output at the time of projection becomes a human image. Since it is displayed in a margin area with the screen 5, the audience can easily recognize what the projected person image is saying even when it is difficult to hear the sound.

また、例えば、映像データにおける人物領域の輪郭とスクリーン5の外形の間に相当する領域に、映像コンテンツの音声の強度に対応する色(強度が高いほど明るい色)の画像を合成することで、投影の際に、音声が強調されている時に人物像のまわりを明るい色とすることができ、強調したい部分を聴衆に印象付けることができる。   Further, for example, by synthesizing an image of a color corresponding to the audio intensity of the video content (a brighter color as the intensity is higher) in an area corresponding to the outline of the person area in the video data and the outer shape of the screen 5, At the time of projection, when the sound is emphasized, the person image can be brightly colored, and the part to be emphasized can be impressed by the audience.

また、例えば、映像データにおける人物領域の輪郭とスクリーン5の外形の間に相当する領域に、人物像の性別に応じたデザインの画像を合成することで、投影時には人物像のまわりにその人物像に適したデザインの画像を表示することができる。   In addition, for example, by synthesizing an image having a design according to the gender of the person image in an area corresponding to the outline of the person area in the video data and the outer shape of the screen 5, the person image is displayed around the person image at the time of projection. It is possible to display an image with a suitable design.

また、例えば、映像データにおける人物領域の輪郭とスクリーン5の外形の間に相当する領域に、聴衆の人数に応じた色の画像を合成する(具体的には、人数が多いときには明るい色を合成する)ことで、多くの聴衆が集まっているときに投影する人物の周囲をより明るい色にして目立たせることができ、演出を効果的にすることが可能となる。また、投影用映像コンテンツの提供側は、聴衆のおおよその数を、投影像を一瞥するだけで容易に把握することが可能となる。   Further, for example, a color image corresponding to the number of audiences is synthesized in an area corresponding to the outline of the person area in the video data and the outline of the screen 5 (specifically, a bright color is synthesized when the number of people is large). By doing so, it is possible to make the surroundings of the person to be projected stand out in a brighter color when many audiences are gathered, and it is possible to make the production effective. Also, the projection video content provider can easily grasp the approximate number of audiences by glanceping at the projected image.

なお、上記実施形態における記述内容は、本発明に係るコンテンツ再生システムの好適な一例であり、これに限定されるものではない。   In addition, the description content in the said embodiment is a suitable example of the content reproduction | regeneration system which concerns on this invention, and is not limited to this.

例えば、上記実施形態においては、画像処理装置1とプロジェクタ2とは別体であることとして説明したが、一体的に構成されたものであってもよい。また、プロジェクタ2とカメラ3は一体的に構成されたものであってもよい。   For example, in the above-described embodiment, the image processing apparatus 1 and the projector 2 have been described as separate bodies, but may be integrally configured. Further, the projector 2 and the camera 3 may be integrally configured.

また、上記実施形態においては、プロジェクタ2の出力光がスクリーン5の背面に直接照射される構成を例にとり説明したが、プロジェクタ2の出力光を反射するミラーを設け、ミラーの反射光をプロジェクタ2の背面に投影することとしてもよい。   In the above-described embodiment, the configuration in which the output light of the projector 2 is directly applied to the back surface of the screen 5 has been described as an example. However, a mirror that reflects the output light of the projector 2 is provided, and the reflected light of the mirror is supplied to the projector 2. It is good also as projecting on the back surface.

また、上記実施形態においては、投影用映像コンテンツの映像データは記憶部13に記憶されていることとして説明したが、画像処理装置1に通信ネットワークを介して接続されるサーバから配信される構成としてもよい。また、USBメモリや各種の記録媒体から映像データを取り込む構成としてもよい。   In the above embodiment, the video data of the projection video content has been described as being stored in the storage unit 13. However, as a configuration in which the video data is distributed from a server connected to the image processing apparatus 1 via a communication network. Also good. Further, the video data may be captured from a USB memory or various recording media.

また、上記第1〜第5の実施形態においては、まず、余白領域に配置する色やテキスト、デザイン等の合成用画像を生成し、その後で各フレーム画像に合成用画像を合成することとして説明したが、決定した色やテキスト、デザイン等を直接各フレーム画像に合成することとしてもよい。   In the first to fifth embodiments described above, first, a synthesis image such as a color, text, and design to be arranged in the blank area is generated, and then the synthesis image is synthesized with each frame image. However, the determined color, text, design, etc. may be directly combined with each frame image.

また、上記実施形態においては、制御部10がカメラ3やカメラ8を制御して撮影を行わせることにより各種撮影画像を取得することとして説明したが、予め撮影された撮影画像を記憶部13に記憶しておき、制御部10が必要時に記憶部13から読み出すことにより取得することとしてもよい。   In the above-described embodiment, the control unit 10 controls the camera 3 and the camera 8 to perform shooting and acquires various shot images. However, the shot image shot in advance is stored in the storage unit 13. It is good also as memorize | storing and acquiring by reading from the memory | storage part 13 when the control part 10 is needed.

また、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。   Also, as a computer-readable medium storing a program for executing each of the above processes, a non-volatile memory such as a flash memory, a portable recording medium such as a CD-ROM, in addition to a ROM, a hard disk, etc. Is also possible. A carrier wave is also used as a medium for providing program data via a predetermined communication line.

その他、コンテンツ再生システムを構成する各装置の細部構成及び細部動作に関しても、発明の趣旨を逸脱することのない範囲で適宜変更可能である。   In addition, the detailed configuration and detailed operation of each device constituting the content reproduction system can be changed as appropriate without departing from the spirit of the invention.

(付記)
本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
<請求項1>
投影対象物を含む映像コンテンツを前記投影対象物の形状に成型されたスクリーンに投影する投影装置に接続された画像処理装置であって、
前記スクリーンを含む撮影画像を取得するスクリーン画像取得手段と、
前記取得された撮影画像から前記スクリーンの外形を抽出するスクリーン外形抽出手段と、
前記映像コンテンツの映像データから前記投影対象物の領域を抽出し、当該抽出した投影対象物の領域と、前記撮影画像から抽出されたスクリーンの外形に基づいて、前記映像データにおける、当該映像データを前記スクリーンに投影したときに前記投影対象物の輪郭と前記スクリーンの外形の間に相当する領域に画像を合成する合成手段と、
前記合成された映像データに基づいて、前記投影対象物の輪郭と前記スクリーンの外形の間に画像が合成された映像コンテンツを前記投影装置により前記スクリーン上に投影させる制御手段と、
を備える画像処理装置。
<請求項2>
前記合成手段は、前記映像データにおける前記投影対象物の輪郭と前記スクリーンの外形の間に相当する領域に、所定の色又はパターンの画像を合成する請求項1に記載の画像処理装置。
<請求項3>
前記スクリーンの背景の撮影画像を取得する背景画像取得手段を備え、
前記合成手段は、前記映像データにおける前記投影対象物の輪郭と前記スクリーンの外形の間に相当する領域に、前記スクリーンの背景の撮影画像を合成する請求項1に記載の画像処理装置。
<請求項4>
前記映像コンテンツの音声を出力する音声出力手段と、
前記映像コンテンツの音声を解析して音声のテキスト情報を取得するテキスト取得手段を備え、
前記合成手段は、前記映像データにおける前記投影対象物の輪郭と前記スクリーンの外形の間に相当する領域に、前記映像コンテンツの音声のテキスト情報を合成する請求項1に記載の画像処理装置。
<請求項5>
前記映像コンテンツの音声を出力する音声出力手段と、
前記映像コンテンツの音声を解析して音声の強度を検出する検出手段を備え、
前記合成手段は、前記映像データにおける前記投影対象物の輪郭と前記スクリーンの外形の間に相当する領域に、前記映像コンテンツの音声の強度に対応する色の画像を合成する請求項1に記載の画像処理装置。
<請求項6>
前記映像コンテンツの映像データに基づいて前記投影対象物の性別を判別する判別手段を備え、
前記合成手段は、前記映像データにおける前記投影対象物の輪郭と前記スクリーンの外形の間に相当する領域に、前記判別手段により判別された性別に応じたデザインの画像を合成する請求項1に記載の画像処理装置。
<請求項7>
前記スクリーンに投影された映像コンテンツの聴衆の人数を取得する人数取得手段を備え、
前記合成手段は、前記映像データにおける前記投影対象物の輪郭と前記スクリーンの外形の間に相当する領域に、前記人数取得手段により取得された人数に応じた色の画像を合成する請求項1に記載の画像処理装置。
<請求項8>
前記映像コンテンツの聴衆の撮影画像を取得する聴衆画像取得手段を備え、
前記人数取得手段は、前記映像コンテンツの聴衆の撮影画像を解析して前記聴衆の人数を取得する請求項7に記載の画像処理装置。
<請求項9>
投影対象物を含む映像コンテンツを前記投影対象物の形状に成型されたスクリーンに投影する投影装置に接続された画像処理装置における画像処理方法であって、
前記スクリーンを含む撮影画像を取得する工程と、
前記取得された撮影画像から前記スクリーンの外形を抽出する工程と、
前記映像コンテンツの映像データから前記投影対象物の領域を抽出し、当該抽出した投影対象物の領域と、前記撮影画像から抽出されたスクリーンの外形に基づいて、前記映像データにおける、当該映像データを前記スクリーンに投影したときに前記投影対象物の輪郭と前記スクリーンの外形の間に相当する領域に画像を合成する工程と、
前記合成された映像データに基づいて、前記投影対象物の輪郭と前記スクリーンの外形の間に画像が合成された映像コンテンツを前記投影装置により前記スクリーン上に投影させる工程と、
を含む画像処理方法。
<請求項10>
投影対象物を含む映像コンテンツを前記投影対象物の形状に成型されたスクリーンに投影する投影装置に接続された画像処理装置に用いられるコンピュータを、
前記スクリーンを含む撮影画像を取得するスクリーン画像取得手段、
前記取得された撮影画像から前記スクリーンの外形を抽出するスクリーン外形抽出手段、
前記映像コンテンツの映像データから前記投影対象物の領域を抽出し、当該抽出した投影対象物の領域と、前記撮影画像から抽出されたスクリーンの外形に基づいて、前記映像データにおける、当該映像データを前記スクリーンに投影したときに前記投影対象物の輪郭と前記スクリーンの外形の間に相当する領域に画像を合成する合成手段、
前記合成された映像データに基づいて、前記投影対象物の輪郭と前記スクリーンの外形の間に画像が合成された映像コンテンツを前記投影装置により前記スクリーン上に投影させる制御手段、
として機能させるためのプログラム。
(Appendix)
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
<Claim 1>
An image processing apparatus connected to a projection apparatus that projects video content including a projection object onto a screen molded into the shape of the projection object,
Screen image acquisition means for acquiring a captured image including the screen;
Screen outer shape extraction means for extracting the outer shape of the screen from the acquired photographed image;
An area of the projection target is extracted from the video data of the video content, and the video data in the video data is extracted based on the extracted area of the projection target and the outer shape of the screen extracted from the captured image. A synthesizing unit that synthesizes an image in a region corresponding to the outline of the projection object and the outline of the screen when projected onto the screen;
Control means for projecting on the screen by the projection device video content in which an image is synthesized between the outline of the projection object and the outline of the screen based on the synthesized video data;
An image processing apparatus comprising:
<Claim 2>
The image processing apparatus according to claim 1, wherein the synthesizing unit synthesizes an image of a predetermined color or pattern in an area corresponding to an outline between the projection object and the outline of the screen in the video data.
<Claim 3>
A background image acquisition means for acquiring a captured image of the background of the screen;
The image processing apparatus according to claim 1, wherein the synthesizing unit synthesizes a captured image of the background of the screen in an area corresponding to the outline of the projection object and the outline of the screen in the video data.
<Claim 4>
Audio output means for outputting audio of the video content;
A text acquisition means for analyzing the audio of the video content and acquiring audio text information;
The image processing apparatus according to claim 1, wherein the synthesizing unit synthesizes audio text information of the video content in an area corresponding to an outline between the projection object and the screen in the video data.
<Claim 5>
Audio output means for outputting audio of the video content;
Detecting means for analyzing the sound of the video content and detecting the sound intensity;
The said synthetic | combination means synthesize | combines the image of the color corresponding to the audio | voice intensity | strength of the said video content to the area | region corresponded between the outline of the said projection target object in the said video data, and the external shape of the said screen. Image processing device.
<Claim 6>
Determining means for determining the gender of the projection object based on video data of the video content;
2. The composition unit according to claim 1, wherein the composition unit synthesizes an image having a design corresponding to the gender determined by the determination unit, in a region corresponding to the outline of the projection object and the outline of the screen in the video data. Image processing apparatus.
<Claim 7>
Comprising number-of-people obtaining means for obtaining the number of audiences of the video content projected on the screen;
2. The composition means for compositing an image of a color corresponding to the number of persons acquired by the number of persons acquisition means in an area corresponding to the outline of the projection object and the outline of the screen in the video data. The image processing apparatus described.
<Claim 8>
Audience image acquisition means for acquiring a captured image of the audience of the video content,
The image processing apparatus according to claim 7, wherein the number-of-persons acquisition unit analyzes a photographed image of an audience of the video content and acquires the number of audiences.
<Claim 9>
An image processing method in an image processing apparatus connected to a projection apparatus that projects video content including a projection object onto a screen molded into the shape of the projection object,
Obtaining a captured image including the screen;
Extracting the outer shape of the screen from the acquired captured image;
An area of the projection target is extracted from the video data of the video content, and the video data in the video data is extracted based on the extracted area of the projection target and the outer shape of the screen extracted from the captured image. Synthesizing an image in a region corresponding to the outline of the projection object and the outline of the screen when projected onto the screen;
A step of projecting on the screen by the projection device video content in which an image is synthesized between the outline of the projection object and the outline of the screen based on the synthesized video data;
An image processing method including:
<Claim 10>
A computer used in an image processing apparatus connected to a projection apparatus that projects video content including the projection object onto a screen molded into the shape of the projection object;
Screen image acquisition means for acquiring a captured image including the screen;
Screen outer shape extracting means for extracting the outer shape of the screen from the acquired photographed image;
An area of the projection target is extracted from the video data of the video content, and the video data in the video data is extracted based on the extracted area of the projection target and the outer shape of the screen extracted from the captured image. A synthesizing unit that synthesizes an image in a region corresponding to an outline between the outline of the projection object and the outline of the screen when projected onto the screen;
Control means for projecting video content, in which an image is synthesized between the outline of the projection object and the outline of the screen, on the screen by the projection device based on the synthesized video data;
Program to function as.

100 コンテンツ再生システム
200 コンテンツ再生システム
1 画像処理装置
10 制御部
11 操作部
12 表示部
13 記憶部
131 プログラム記憶部
132 映像データ記憶部
133 設定情報記憶部
14 I/F
15 I/F
16 音声出力部
17 I/F
2 プロジェクタ
3 カメラ
4 スピーカ
5 スクリーン
51 基材
52 スクリーンフィルム
53 フィルム
6 支持台
7 マイク
DESCRIPTION OF SYMBOLS 100 Content reproduction system 200 Content reproduction system 1 Image processing apparatus 10 Control part 11 Operation part 12 Display part 13 Storage part 131 Program storage part 132 Video data storage part 133 Setting information storage part 14 I / F
15 I / F
16 Audio output unit 17 I / F
2 Projector 3 Camera 4 Speaker 5 Screen 51 Base Material 52 Screen Film 53 Film 6 Support Stand 7 Microphone

Claims (7)

人物を含む映像コンテンツを前記人物の形状に成型されたスクリーンに投影する投影装置に接続された画像処理装置であって、
前記スクリーンを含む撮影画像を取得するスクリーン画像取得手段と、
前記取得された撮影画像から前記スクリーンの外形を抽出するスクリーン外形抽出手段と、
前記映像コンテンツの映像データに基づいて前記人物の性別を判別する判別手段と、
前記映像コンテンツの映像データから前記人物の領域を抽出し、当該抽出した人物の領域と、前記撮影画像から抽出されたスクリーンの外形に基づいて、前記映像データにおける、当該映像データを前記スクリーンに投影したときに前記人物の輪郭と前記スクリーンの外形の間に相当する領域に前記判別手段により判別された性別に応じたデザインの画像を合成する合成手段と、
前記合成された映像データに基づいて、前記人物の輪郭と前記スクリーンの外形の間に前記画像が合成された映像コンテンツを前記投影装置により前記スクリーン上に投影させる制御手段と、
を備える画像処理装置。
An image processing apparatus connected to a projection apparatus that projects video content including a person onto a screen molded into the shape of the person ,
Screen image acquisition means for acquiring a captured image including the screen;
Screen outer shape extraction means for extracting the outer shape of the screen from the acquired photographed image;
Discrimination means for discriminating the gender of the person based on video data of the video content;
The person area is extracted from the video data of the video content, and the video data in the video data is projected onto the screen based on the extracted person area and the outer shape of the screen extracted from the captured image. A synthesizing unit that synthesizes an image of a design according to the gender determined by the determining unit in a region corresponding to the outline of the person and the outer shape of the screen when
On the basis of the synthesized image data, and control means for projecting onto the screen by the projection apparatus a video content which the image is synthesized during the contour and contour of the screen of the person,
An image processing apparatus comprising:
投影対象物を含む映像コンテンツを前記投影対象物の形状に成型されたスクリーンに投影する投影装置に接続された画像処理装置であって、An image processing apparatus connected to a projection apparatus that projects video content including a projection object onto a screen molded into the shape of the projection object,
前記スクリーンを含む撮影画像を取得するスクリーン画像取得手段と、Screen image acquisition means for acquiring a captured image including the screen;
前記取得された撮影画像から前記スクリーンの外形を抽出するスクリーン外形抽出手段と、Screen outer shape extraction means for extracting the outer shape of the screen from the acquired photographed image;
前記スクリーンに投影された映像コンテンツの聴衆の人数を取得する人数取得手段と、Number-of-people acquisition means for acquiring the number of audiences of the video content projected on the screen;
前記映像コンテンツの映像データから前記投影対象物の領域を抽出し、当該抽出した投影対象物の領域と、前記撮影画像から抽出されたスクリーンの外形に基づいて、前記映像データにおける、当該映像データを前記スクリーンに投影したときに前記投影対象物の輪郭と前記スクリーンの外形の間に相当する領域に前記人数取得手段により取得された人数に応じた色の画像を合成する合成手段と、An area of the projection target is extracted from the video data of the video content, and the video data in the video data is extracted based on the extracted area of the projection target and the outer shape of the screen extracted from the captured image. A synthesizing unit that synthesizes an image of a color corresponding to the number of people acquired by the number of people acquiring unit in a region corresponding to an outline between the outline of the projection object and the outer shape of the screen when projected onto the screen;
前記合成された映像データに基づいて、前記投影対象物の輪郭と前記スクリーンの外形の間に前記画像が合成された映像コンテンツを前記投影装置により前記スクリーン上に投影させる制御手段と、Control means for projecting video content, in which the image is synthesized between the outline of the projection object and the outline of the screen, on the screen by the projection device based on the synthesized video data;
を備える画像処理装置。An image processing apparatus comprising:
前記映像コンテンツの聴衆の撮影画像を取得する聴衆画像取得手段を備え、
前記人数取得手段は、前記映像コンテンツの聴衆の撮影画像を解析して前記聴衆の人数を取得する請求項に記載の画像処理装置。
Audience image acquisition means for acquiring a captured image of the audience of the video content,
The image processing apparatus according to claim 2 , wherein the number-of-persons acquiring unit acquires a number of the audiences by analyzing a photographed image of the audience of the video content.
人物を含む映像コンテンツを前記人物の形状に成型されたスクリーンに投影する投影装置に接続された画像処理装置における画像処理方法であって、
前記スクリーンを含む撮影画像を取得する工程と、
前記取得された撮影画像から前記スクリーンの外形を抽出する工程と、
前記映像コンテンツの映像データに基づいて前記人物の性別を判別する工程と、
前記映像コンテンツの映像データから前記人物の領域を抽出し、当該抽出した人物の領域と、前記撮影画像から抽出されたスクリーンの外形に基づいて、前記映像データにおける、当該映像データを前記スクリーンに投影したときに前記人物の輪郭と前記スクリーンの外形の間に相当する領域に前記判別された性別に応じたデザインの画像を合成する工程と、
前記合成された映像データに基づいて、前記人物の輪郭と前記スクリーンの外形の間に前記画像が合成された映像コンテンツを前記投影装置により前記スクリーン上に投影させる工程と、
を含む画像処理方法。
An image processing method in an image processing apparatus connected to a projection apparatus that projects video content including a person onto a screen molded into the shape of the person ,
Obtaining a captured image including the screen;
Extracting the outer shape of the screen from the acquired captured image;
Determining the gender of the person based on video data of the video content;
The person area is extracted from the video data of the video content, and the video data in the video data is projected onto the screen based on the extracted person area and the outer shape of the screen extracted from the captured image. A step of synthesizing an image of the design according to the determined gender in a region corresponding to the outline of the person and the outline of the screen when
On the basis of the synthesized image data, a step of projecting a video content which the image is synthesized during the outer contour and the screen of the person on the screen by the projection device,
An image processing method including:
投影対象物を含む映像コンテンツを前記投影対象物の形状に成型されたスクリーンに投影する投影装置に接続された画像処理装置における画像処理方法であって、An image processing method in an image processing apparatus connected to a projection apparatus that projects video content including a projection object onto a screen molded into the shape of the projection object,
前記スクリーンを含む撮影画像を取得する工程と、Obtaining a captured image including the screen;
前記取得された撮影画像から前記スクリーンの外形を抽出する工程と、Extracting the outer shape of the screen from the acquired captured image;
前記スクリーンに投影された映像コンテンツの聴衆の人数を取得する工程と、Obtaining the number of audiences of the video content projected on the screen;
前記映像コンテンツの映像データから前記投影対象物の領域を抽出し、当該抽出した投影対象物の領域と、前記撮影画像から抽出されたスクリーンの外形に基づいて、前記映像データにおける、当該映像データを前記スクリーンに投影したときに前記投影対象物の郭と前記スクリーンの外形の間に相当する領域に前記取得された人数に応じた色の画像を合成する工程と、An area of the projection target is extracted from the video data of the video content, and the video data in the video data is extracted based on the extracted area of the projection target and the outer shape of the screen extracted from the captured image. Synthesizing an image of a color corresponding to the acquired number of people in a region corresponding to the outline of the projection object and the outline of the screen when projected onto the screen;
前記合成された映像データに基づいて、前記投影対象物の輪郭と前記スクリーンの外形の間に前記画像が合成された映像コンテンツを前記投影装置により前記スクリーン上に投影させる工程と、Projecting on the screen by the projection device video content in which the image is synthesized between the outline of the projection object and the outline of the screen based on the synthesized video data;
を含む画像処理方法。An image processing method including:
人物を含む映像コンテンツを前記人物の形状に成型されたスクリーンに投影する投影装置に接続された画像処理装置に用いられるコンピュータを、
前記スクリーンを含む撮影画像を取得するスクリーン画像取得手段、
前記取得された撮影画像から前記スクリーンの外形を抽出するスクリーン外形抽出手段、
前記映像コンテンツの映像データに基づいて前記人物の性別を判別する判別手段、
前記映像コンテンツの映像データから前記人物の領域を抽出し、当該抽出した人物の領域と、前記撮影画像から抽出されたスクリーンの外形に基づいて、前記映像データにおける、当該映像データを前記スクリーンに投影したときに前記人物の輪郭と前記スクリーンの外形の間に相当する領域に前記判別手段により判別された性別に応じたデザインの画像を合成する合成手段、
前記合成された映像データに基づいて、前記人物の輪郭と前記スクリーンの外形の間に前記画像が合成された映像コンテンツを前記投影装置により前記スクリーン上に投影させる制御手段、
として機能させるためのプログラム。
A computer used in an image processing apparatus connected to a projection apparatus that projects video content including a person onto a screen molded into the shape of the person ,
Screen image acquisition means for acquiring a captured image including the screen;
Screen outer shape extracting means for extracting the outer shape of the screen from the acquired photographed image;
Discrimination means for discriminating the gender of the person based on video data of the video content;
The person area is extracted from the video data of the video content, and the video data in the video data is projected onto the screen based on the extracted person area and the outer shape of the screen extracted from the captured image. Combining means for combining an image of a design according to the gender determined by the determining means in a region corresponding to the outline of the person and the outer shape of the screen when
On the basis of the synthesized image data, control means for projecting onto the screen the video content which the image is synthesized by the projection apparatus during the outer contour and the screen of the person,
Program to function as.
投影対象物を含む映像コンテンツを前記投影対象物の形状に成型されたスクリーンに投影する投影装置に接続された画像処理装置に用いられるコンピュータを、A computer used in an image processing apparatus connected to a projection apparatus that projects video content including the projection object onto a screen molded into the shape of the projection object;
前記スクリーンを含む撮影画像を取得するスクリーン画像取得手段、Screen image acquisition means for acquiring a captured image including the screen;
前記取得された撮影画像から前記スクリーンの外形を抽出するスクリーン外形抽出手段、Screen outer shape extracting means for extracting the outer shape of the screen from the acquired photographed image;
前記スクリーンに投影された映像コンテンツの聴衆の人数を取得する人数取得手段、Number acquisition means for acquiring the number of audiences of the video content projected on the screen;
前記映像コンテンツの映像データから前記投影対象物の領域を抽出し、当該抽出した投影対象物の領域と、前記撮影画像から抽出されたスクリーンの外形に基づいて、前記映像データにおける、当該映像データを前記スクリーンに投影したときに前記投影対象物の輪郭と前記スクリーンの外形の間に相当する領域に前記人数取得手段により取得された人数に応じた色の画像を合成する合成手段、An area of the projection target is extracted from the video data of the video content, and the video data in the video data is extracted based on the extracted area of the projection target and the outer shape of the screen extracted from the captured image. A synthesizing unit that synthesizes an image of a color corresponding to the number of people acquired by the number of people acquiring unit in a region corresponding to an outline between the outline of the projection object and the outer shape of the screen when projected onto the screen;
前記合成された映像データに基づいて、前記投影対象物の輪郭と前記スクリーンの外形の間に前記画像が合成された映像コンテンツを前記投影装置により前記スクリーン上に投影させる制御手段、Control means for projecting video content, in which the image is synthesized between the outline of the projection object and the outline of the screen, on the screen by the projection device based on the synthesized video data;
として機能させるためのプログラム。Program to function as.
JP2012238048A 2012-10-29 2012-10-29 Image processing apparatus, program, and image processing method Expired - Fee Related JP6102181B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012238048A JP6102181B2 (en) 2012-10-29 2012-10-29 Image processing apparatus, program, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012238048A JP6102181B2 (en) 2012-10-29 2012-10-29 Image processing apparatus, program, and image processing method

Publications (2)

Publication Number Publication Date
JP2014089261A JP2014089261A (en) 2014-05-15
JP6102181B2 true JP6102181B2 (en) 2017-03-29

Family

ID=50791217

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012238048A Expired - Fee Related JP6102181B2 (en) 2012-10-29 2012-10-29 Image processing apparatus, program, and image processing method

Country Status (1)

Country Link
JP (1) JP6102181B2 (en)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004072570A (en) * 2002-08-08 2004-03-04 Casio Comput Co Ltd Display controller, information terminal device and display control program
GB2410359A (en) * 2004-01-23 2005-07-27 Sony Uk Ltd Display
JP2006350174A (en) * 2005-06-20 2006-12-28 Seiko Epson Corp Projector
JP2010261989A (en) * 2009-04-30 2010-11-18 Konica Minolta Business Technologies Inc Image processing device, display history confirmation support method, and computer program
JP2011082798A (en) * 2009-10-07 2011-04-21 Sanyo Electric Co Ltd Projection graphic display device
JP2011139261A (en) * 2009-12-28 2011-07-14 Sony Corp Image processing device, image processing method, and program
JP2012044407A (en) * 2010-08-18 2012-03-01 Sony Corp Image processing device, method, and program
JP2012053227A (en) * 2010-08-31 2012-03-15 Sanyo Electric Co Ltd Projection type video display device

Also Published As

Publication number Publication date
JP2014089261A (en) 2014-05-15

Similar Documents

Publication Publication Date Title
JP6785282B2 (en) Live broadcasting method and equipment by avatar
CN104683723B (en) Display device, camera and display methods
WO2017157272A1 (en) Information processing method and terminal
JP4775066B2 (en) Image processing device
CN108958610A (en) Special efficacy generation method, device and electronic equipment based on face
JP6016322B2 (en) Information processing apparatus, information processing method, and program
JP7347597B2 (en) Video editing device, video editing method and program
JP2015007928A (en) Information processing apparatus, content charging system, and program
CN109064387A (en) Image special effect generation method, device and electronic equipment
JP2016045814A (en) Virtual reality service providing system and virtual reality service providing method
JP2014095853A (en) Image processor, projector, image processing method, and program
CN106339705B (en) Image acquisition method and device
JP2010015076A (en) Display system, display control device, and display control method
US20210383097A1 (en) Object scanning for subsequent object detection
US10349022B2 (en) Image processing apparatus, projector, image processing method, and storage medium storing image processing program
WO2021065694A1 (en) Information processing system and method
JP6102181B2 (en) Image processing apparatus, program, and image processing method
JP6191418B2 (en) Display device, display method, and program
CN102790852B (en) Image synthesis display device, image synthesis display method and photographing device
JP2006202188A (en) Image composition device and pattern checking method thereof
JP6217696B2 (en) Information processing apparatus, information processing method, and program
JP2015159460A (en) Projection system, projection device, photographing device, method for generating guide frame, and program
JP6586978B2 (en) Image output apparatus, image output method, and program
JP6079135B2 (en) Image processing apparatus, video data correction method, and program
JP2016057417A (en) Information output device, content output method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170213

R150 Certificate of patent or registration of utility model

Ref document number: 6102181

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees