JP6079135B2 - Image processing apparatus, video data correction method, and program - Google Patents

Image processing apparatus, video data correction method, and program Download PDF

Info

Publication number
JP6079135B2
JP6079135B2 JP2012237752A JP2012237752A JP6079135B2 JP 6079135 B2 JP6079135 B2 JP 6079135B2 JP 2012237752 A JP2012237752 A JP 2012237752A JP 2012237752 A JP2012237752 A JP 2012237752A JP 6079135 B2 JP6079135 B2 JP 6079135B2
Authority
JP
Japan
Prior art keywords
screen
area
projection
extracted
projection object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012237752A
Other languages
Japanese (ja)
Other versions
JP2014089242A (en
Inventor
喜多 一記
一記 喜多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012237752A priority Critical patent/JP6079135B2/en
Publication of JP2014089242A publication Critical patent/JP2014089242A/en
Application granted granted Critical
Publication of JP6079135B2 publication Critical patent/JP6079135B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence

Landscapes

  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Projection Apparatus (AREA)
  • Image Processing (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、画像処理装置、映像データ補正方法及びプログラムに関する。   The present invention relates to an image processing apparatus, a video data correction method, and a program.

お客や鑑賞者に対して広告内容等のコンテンツを提示する際の印象を高めるために、人型に成形された投影スクリーンに、そのスクリーンの外形に合わせた形状のコンテンツ映像などを投影する技術が提案されている(例えば、特許文献1参照)。この技術は、展示会等における斬新で効果的な展示の演出や、あるいは、「バーチャルマネキン」等、人間代わりの商品説明等に利用されている。   In order to enhance the impression when presenting advertisements and other contents to customers and viewers, there is a technology for projecting content images, etc., in a shape that matches the external shape of the screen onto a projection screen that is shaped like a human figure It has been proposed (see, for example, Patent Document 1). This technology is used for the production of novel and effective exhibitions at exhibitions, etc., or for explanation of products for human beings such as “virtual mannequins”.

上記のスクリーンとしては、背面投影用のフィルム、例えば、透明塩化ビニルフィルムの投影する背面側にマイクロビーズレンズを配列した層と球状ビーズの隙間に黒い光吸収層を設けた特殊フィルムなどを、人型に成形された透明なアクリル板等の基材に貼り付けて用いることが多く、広い角度から、比較的明るく高輝度で、あたかもそこに人間が立っているかのような存在感のある投影像が得られる。   As the above-mentioned screen, a film for rear projection, for example, a special film having a black light-absorbing layer in the gap between spherical beads and a layer on which microbead lenses are arranged on the back side of a transparent vinyl chloride film projected, Affixed to a base material such as a transparent acrylic plate that is molded into a mold, it is often used as a projection image with a presence as if a human is standing on it from a wide angle, relatively bright and bright. Is obtained.

特開2011−150221号公報JP 2011-150221 A

しかしながら、上記の技術においては、投影像の輪郭とスクリーンの外形とがぴったり適合するように設置しないと、効果的な投影ができない。そのため、プロジェクタもしくはその投影像とスクリーンとの位置関係の調整に、時間や手間がかかるという問題があった。
例えば、投影像の方がスクリーン外形よりも外側にはみ出ると、その部分の顔や肩などが欠けたり、細くなったり、不自然な形状になったりする。このように、投影像とスクリーン外形とが適合しないと、せっかくの「バーチャルマネキン」としての迫力やリアリティ、立体的な存在感などが損なわれることになり、展示や演出の効果が半減されてしまう。
However, in the above technique, effective projection cannot be performed unless the outline of the projection image and the outline of the screen are closely matched. For this reason, there is a problem that it takes time and labor to adjust the positional relationship between the projector or its projected image and the screen.
For example, if the projected image protrudes outside the outer shape of the screen, the face, shoulders, etc. of that portion may be missing, thinned, or become unnatural. In this way, if the projected image and the screen outline do not match, the power, reality, and three-dimensional presence of the “virtual mannequin” will be impaired, and the effects of exhibition and production will be halved. .

また、予めプロジェクタとミラーやスクリーン等との位置関係や角度、距離などを固定できる専用の置き台を設ける方法もあるが、設置や調整が簡単になる反面、必要な面積や設置できる場所が制限され、アドホックに自由な設置がしにくい。専用の置き台は、形状がやや大掛かりになり、コストもかかる。また、人物の映像を撮影して投影用映像コンテンツとして使用する場合には、その人物像の輪郭外形が動いたり変化したりしないように撮影する必要があった。つまり、被写体モデルとなる人物は殆ど動かないように、略同じ姿勢を撮影中ずっと維持して実演することを強いられることになり、モデルやカメラマン、スタジオなどをしっかり準備して撮影する必要があった。   In addition, there is a method of providing a dedicated stand that can fix the positional relationship, angle, distance, etc. between the projector and the mirror or screen in advance, but installation and adjustment are easy, but the required area and installation location are limited. It is difficult to set up ad hoc freely. The dedicated stand is slightly larger in shape and costs more. In addition, when a person's video is shot and used as projection video content, it is necessary to shoot so that the outline of the person image does not move or change. In other words, the person who becomes the subject model will be forced to perform the demonstration while maintaining almost the same posture so that it will not move, and it is necessary to prepare and photograph the model, photographer, studio etc. It was.

また、スクリーンは、厚いアクリル板等を投影対象物の輪郭に合せて切り抜き加工するが、投影するコンテンツ毎に外形形状の異なるスクリーンを作り変えると、費用がかかる問題もあった。スクリーンを他のコンテンツにも流用したいような場合には、共通の大きさや外形等が前提条件となるため、同じような姿勢で、身振り手振りや身体の動き等も押さえたような実演や映像に限られ、独自性や新鮮味に欠ける問題もあった。   Further, the screen is cut out of a thick acrylic plate or the like according to the outline of the projection object. However, if a screen having a different outer shape is recreated for each content to be projected, there is a problem that it is expensive. If you want to use the screen for other content, the common size and outline are preconditions, so you can use the same posture for demonstrations and videos that hold down gestures and body movements. There was also a problem that was limited and lacked originality and freshness.

本発明は、上記のような問題を鑑みてなされたもので、その目的とするところは、投影対象物に応じた形状のスクリーンに投影を行う場合に、投影対象物が動いても適切に投影できるようにすることである。   The present invention has been made in view of the above-described problems, and an object of the present invention is to appropriately project even if the projection object moves when projecting onto a screen having a shape corresponding to the projection object. Is to be able to do it.

上記課題を解決するため、請求項1に記載の発明は、
投影対象物を含む映像コンテンツを前記投影対象物の形状に成型されたスクリーンに投影する投影装置に接続された画像処理装置であって、
前記スクリーンを含む撮影画像を取得するスクリーン画像取得手段と、
前記取得された撮影画像から前記スクリーンの外形領域を抽出するスクリーン外形領域抽出手段と、
前記映像コンテンツの映像データから前記投影対象物の領域を抽出する対象領域抽出手段と、
前記対象領域抽出手段により抽出された前記投影対象物の領域に基づいて、前記映像コンテンツにおける前記投影対象物の動きを示す情報を取得する動き情報取得手段と、
前記スクリーン外形領域抽出手段により抽出された前記スクリーンの外形領域、前記対象領域抽出手段により抽出された前記投影対象物の領域、及び前記動き情報取得手段により取得された前記投影対象物の動きを示す情報に基づいて、前記映像コンテンツの映像データの位置又は倍率を補正する補正手段と、
前記補正された映像データに基づいて前記投影装置により前記スクリーン上に前記投影対象物を投影させる制御手段と、
を備える。
In order to solve the above-mentioned problem, the invention described in claim 1
An image processing apparatus connected to a projection apparatus that projects video content including a projection object onto a screen molded into the shape of the projection object,
Screen image acquisition means for acquiring a captured image including the screen;
Screen outer area extraction means for extracting the outer area of the screen from the acquired photographed image;
Target area extracting means for extracting the area of the projection target from the video data of the video content;
Movement information acquisition means for acquiring information indicating movement of the projection object in the video content based on the area of the projection object extracted by the target area extraction means;
The outline area of the screen extracted by the screen outline area extraction unit, the area of the projection object extracted by the target area extraction unit, and the movement of the projection object acquired by the motion information acquisition unit Correction means for correcting the position or magnification of the video data of the video content based on the information;
Control means for projecting the projection object onto the screen by the projection device based on the corrected video data;
Is provided.

本発明によれば、投影対象物に応じた形状のスクリーンに投影を行う場合に、投影対象が動いても適切に投影することが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, when projecting on the screen of the shape according to a projection target object, it becomes possible to project appropriately even if a projection target moves.

本実施形態におけるコンテンツ再生システムの全体構成例を示す図である。It is a figure which shows the example of whole structure of the content reproduction system in this embodiment. (a)は、映像の投影前のコンテンツ再生システムの正面図、(b)は映像の投影時のコンテンツ再生システムの正面図である。(A) is a front view of the content reproduction system before video projection, and (b) is a front view of the content reproduction system at the time of video projection. 図1の画像処理装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the image processing apparatus of FIG. 図3の制御部において実行される再生制御処理を示すフローチャートである。It is a flowchart which shows the reproduction | regeneration control processing performed in the control part of FIG. 図4の初期位置合わせ処理を示すフローチャートである。It is a flowchart which shows the initial position alignment process of FIG. 図4の再生及び補正処理を示すフローチャートである。It is a flowchart which shows the reproduction | regeneration and correction process of FIG. 図4の再生制御処理における人物領域の補正動作の概念を模式的に示す図である。FIG. 5 is a diagram schematically showing a concept of a person area correction operation in the reproduction control process of FIG. 4. 第2の実施形態において図3の制御部により実行される再生制御処理Bを示すフローチャートである。It is a flowchart which shows the reproduction | regeneration control process B performed by the control part of FIG. 3 in 2nd Embodiment. 撮影画像のスクリーン外形領域とフレーム画像の最大領域の比較方法を説明するための図である。It is a figure for demonstrating the comparison method of the screen external region of a picked-up image, and the largest area | region of a frame image.

以下、添付図面を参照して本発明に係る好適な実施形態を詳細に説明する。なお、本発明は、図示例に限定されるものではない。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The present invention is not limited to the illustrated example.

[第1の実施形態]
<コンテンツ再生システム100の構成>
図1、図2は、本実施形態のコンテンツ再生システム100の概略構成を示す図である。図1は、コンテンツ再生システム100の側面の模式図、図2は、コンテンツ再生システム100の正面図である。図2(a)は、映像の投影前、図2(b)は映像の投影時の正面図である。
[First Embodiment]
<Configuration of Content Playback System 100>
1 and 2 are diagrams showing a schematic configuration of a content reproduction system 100 according to the present embodiment. FIG. 1 is a schematic side view of the content reproduction system 100, and FIG. 2 is a front view of the content reproduction system 100. FIG. 2A is a front view before image projection, and FIG. 2B is a front view during image projection.

コンテンツ再生システム100は、投影用映像コンテンツを再生して投影対象物の形状に成型されたスクリーンに投影対象物を投影するシステムである。本実施形態においては、投影対象物を人物とし、スクリーンは人型である場合を例にとり説明するが、これに限定されるものではない。投影対象物は、例えば、キャラクタや動物等であってもよい。   The content reproduction system 100 is a system that reproduces the projection video content and projects the projection target onto a screen molded into the shape of the projection target. In the present embodiment, the case where the projection target is a person and the screen is a human type will be described as an example. However, the present invention is not limited to this. The projection object may be, for example, a character or an animal.

図1に示すように、コンテンツ再生システム100は、画像処理装置1、プロジェクタ2、カメラ3、スピーカ4、スクリーン5等を備えて構成されている。プロジェクタ2、カメラ3、スピーカ4は、画像処理装置1に接続されている。   As shown in FIG. 1, a content reproduction system 100 includes an image processing device 1, a projector 2, a camera 3, a speaker 4, a screen 5, and the like. The projector 2, the camera 3, and the speaker 4 are connected to the image processing apparatus 1.

画像処理装置1は、投影用映像コンテンツの投影対象物である人物の動きに応じて、プロジェクタ2に投影される人物領域がスクリーン5の外形領域に収まるよう、投影用映像コンテンツの映像データにおける人物領域の倍率や位置を補正し、補正した映像データをプロジェクタ2に送信してスクリーン5上に投影させる装置である。スクリーン5の外形領域とは、スクリーン5の外形(輪郭)に囲まれた領域をさす。画像処理装置1としては、例えば、PC(Personal Computer)、端末装置等が適用可能である。   The image processing apparatus 1 uses the person in the video data of the projection video content so that the person area projected on the projector 2 fits in the outline area of the screen 5 according to the movement of the person who is the projection target of the projection video content. This is a device that corrects the magnification and position of an area, transmits the corrected video data to the projector 2, and projects it onto the screen 5. The outline area of the screen 5 refers to an area surrounded by the outline (outline) of the screen 5. As the image processing apparatus 1, for example, a PC (Personal Computer), a terminal device, or the like is applicable.

図3に、画像処理装置1の機能構成例を示す。図3に示すように、画像処理装置1は、制御部10、操作部11、表示部12、記憶部13、I/F14、I/F15、音声出力部16等を備えて構成されている。   FIG. 3 shows a functional configuration example of the image processing apparatus 1. As shown in FIG. 3, the image processing apparatus 1 includes a control unit 10, an operation unit 11, a display unit 12, a storage unit 13, an I / F 14, an I / F 15, an audio output unit 16, and the like.

制御部10は、図示は省略するが、CPU(Central Processing Unit)、RAM(Random Access Memory)等を備えて構成される。制御部10のCPUは、記憶部13のプログラム記憶部131に記憶されているプログラムを読み出し、RAMのワークエリアに展開し、展開したプログラムに従って、後述する再生制御処理を始めとする各種処理を実行する。
制御部10は、再生制御処理を実行することにより、スクリーン画像取得手段、スクリーン外形領域抽出手段、対象領域抽出手段、第2の対象領域抽出手段、補正手段、動き情報取得手段、制御手段として機能する。
Although not shown, the control unit 10 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), and the like. The CPU of the control unit 10 reads the program stored in the program storage unit 131 of the storage unit 13, expands it in the work area of the RAM, and executes various processes including a reproduction control process described later according to the expanded program. To do.
The control unit 10 functions as screen image acquisition means, screen outline area extraction means, target area extraction means, second target area extraction means, correction means, motion information acquisition means, and control means by executing reproduction control processing. To do.

操作部11は、各種機能キーやカーソルキー等を有し、ユーザによるキー入力を受け付けてその操作情報を制御部10に出力する。   The operation unit 11 has various function keys, cursor keys, and the like, receives key input by the user, and outputs the operation information to the control unit 10.

表示部12は、LCD(Liquid Crystal Display)等により構成され、制御部10からの表示制御信号に従って、各種表示を行う。   The display unit 12 is configured by an LCD (Liquid Crystal Display) or the like, and performs various displays according to a display control signal from the control unit 10.

記憶部13は、HDD(Hard Disk Drive)や半導体の不揮発性メモリ等により構成される。記憶部13には、図3に示すように、プログラム記憶部131、映像データ記憶部132、設定情報記憶部133が設けられている。   The storage unit 13 includes an HDD (Hard Disk Drive), a semiconductor nonvolatile memory, or the like. As shown in FIG. 3, the storage unit 13 includes a program storage unit 131, a video data storage unit 132, and a setting information storage unit 133.

プログラム記憶部131には、制御部10で実行されるシステムプログラムや各種処理プログラム、これらのプログラムの実行に必要なデータ等が記憶されている。プログラムは、コンピュータ読み取り可能なプログラムコードの形態でプログラム記憶部131に格納されている。制御部10は、当該プログラムコードに従った動作を逐次実行する。   The program storage unit 131 stores a system program executed by the control unit 10 and various processing programs, data necessary for executing these programs, and the like. The program is stored in the program storage unit 131 in the form of computer readable program code. The control unit 10 sequentially executes operations according to the program code.

映像データ記憶部132は、投影用映像コンテンツの映像データを記憶する。映像データは、動画データを構成する複数のフレーム画像のデータ及び各フレーム画像に対応する音声データにより構成されている。   The video data storage unit 132 stores video data of projection video content. The video data is composed of a plurality of frame image data constituting the moving image data and audio data corresponding to each frame image.

設定情報記憶部133は、投影用映像コンテンツの映像データ(フレーム画像)をスクリーン5に投影する際の人物領域の倍率及び位置の移動量を示す設定情報を記憶する。倍率の設定情報は、例えば、投影用映像コンテンツの任意のフレーム画像(例えば、1フレーム目)から、例えば画像認識等の公知の画像処理によって人物領域を抽出し、抽出した人物領域のサイズ、プロジェクタ2の拡大率、スクリーン5のサイズ等に基づいて、予め算出されて登録されている。位置の移動量の設定情報としては、例えば、投影用映像コンテンツのフレーム画像から画像処理によって人物領域を抽出し、その人物領域の重心位置を求め、求めた重心位置が画像中央に一致するように移動させたときの移動量及び移動方向が予め登録されている。   The setting information storage unit 133 stores setting information indicating the magnification of the person area and the amount of movement of the position when the video data (frame image) of the video content for projection is projected on the screen 5. For example, the setting information of the magnification is obtained by extracting a person area from an arbitrary frame image (for example, the first frame) of the projection video content by known image processing such as image recognition, and the size of the extracted person area, projector Based on the enlargement ratio of 2, the size of the screen 5, etc., it is calculated and registered in advance. As the setting information of the amount of movement of the position, for example, a person area is extracted from the frame image of the video content for projection by image processing, the center of gravity position of the person area is obtained, and the obtained center of gravity position matches the center of the image. The movement amount and the movement direction when moved are registered in advance.

I/F14は、プロジェクタ2と接続し、データ送受信を行うためのインターフェースである。
I/F15は、カメラ3と接続し、データ送受信を行うためのインターフェースである。
The I / F 14 is an interface for connecting to the projector 2 and performing data transmission / reception.
The I / F 15 is an interface for connecting to the camera 3 and performing data transmission / reception.

音声出力部16は、スピーカ4が接続され、制御部10により指示された音声データを音声信号に変換してスピーカ4から出力させる。   The audio output unit 16 is connected to the speaker 4, converts audio data instructed by the control unit 10 into an audio signal, and outputs the audio signal from the speaker 4.

プロジェクタ2は、画像処理装置1から送信されたフレーム画像に基づいてスクリーン5の背面から映像を投影する背面投射型の投影装置である。プロジェクタ2は、例えば、フレーム画像に基づいて、アレイ状に配列された複数個(XGAの場合、横1024画素×縦768画素)の微小ミラーの各傾斜角度を個々に高速でオン/オフ動作して表示動作することでその反射光により光像を形成する表示素子であるDMD(デジタルマイクロミラーデバイス)を利用したDLP(Digital Light Processing)(登録商標)プロジェクタが適用可能である。投影対象物がフレーム画像中の人物領域である場合には、人物領域に対応する位置の微小ミラーをオンし、その他の領域をオフすることで、人物領域のみを投影することが可能となる。   The projector 2 is a rear projection type projection device that projects an image from the back surface of the screen 5 based on the frame image transmitted from the image processing device 1. For example, the projector 2 individually turns on / off each tilt angle of a plurality of micromirrors arranged in an array (in the case of XGA, horizontal 1024 pixels × vertical 768 pixels) based on a frame image at a high speed. Thus, a DLP (Digital Light Processing) (registered trademark) projector using a DMD (digital micromirror device) which is a display element that forms a light image by reflected light by performing a display operation can be applied. When the projection target is a person area in the frame image, it is possible to project only the person area by turning on the minute mirror at the position corresponding to the person area and turning off the other areas.

カメラ3は、スクリーン5の外形領域が視野内に収まる位置に設置され、画像処理装置1からの指示に従ってスクリーン5を撮影し、得られた撮影画像をI/F15を介して画像処理装置1に送信する。   The camera 3 is installed at a position where the outer area of the screen 5 falls within the field of view, and the screen 5 is photographed in accordance with an instruction from the image processing apparatus 1, and the obtained photographed image is transferred to the image processing apparatus 1 via the I / F 15. Send.

スクリーン5は、支持台6に支持され、プロジェクタ2の出力光照射方向に配置された人型のスクリーンである。スクリーン5は、図1に示すように、投影対象の人型に成型された透明アクリル板等の基材51の前面上側に背面投影用のスクリーンフィルム52が貼付され、下側に投影対象の人物の下半身が印刷されたフィルム53が貼付されて構成されている。このスクリーンフィルムは市販されている高輝度、高コントラストを有するものを用いることにより、日中の明るさであっても、また、明るい居室内であっても、スクリーン5に投影されたコンテンツを視認することができる。   The screen 5 is a human-type screen supported by the support base 6 and arranged in the output light irradiation direction of the projector 2. As shown in FIG. 1, the screen 5 has a screen film 52 for rear projection attached to the upper front side of a base 51 such as a transparent acrylic plate molded into a human shape to be projected, and a person to be projected on the lower side. A film 53 on which the lower half of the body is printed is attached. By using a commercially available screen film having high brightness and high contrast, the content projected on the screen 5 can be visually recognized even in the daytime or in a bright room. can do.

なお、本実施形態においては、人物の上半身が撮影された投影用映像コンテンツをスクリーン5に投影する場合を例としているが、スクリーン5の基材51の全面に背面投影用のスクリーンフィルム52を貼付した構成とし、人物の全身が撮影された投影用映像コンテンツをスクリーン5に投影することとしてもよい。   In the present embodiment, the projection video content in which the upper body of a person is photographed is projected onto the screen 5 as an example. However, a screen film 52 for rear projection is attached to the entire surface of the base 51 of the screen 5. The projection video content in which the whole body of the person is photographed may be projected onto the screen 5.

<画像処理装置1の動作>
次に、本実施形態における動作について説明する。
図1に示すコンテンツ再生システム100の構成においては、投影用映像コンテンツのフレーム画像やスクリーン5に投影した投影像の撮影画像は、正面像とは左右を反転したものとなるが、以下の説明に使用する図においては左右反転は省略し、全て正面像として図示する。
<Operation of Image Processing Apparatus 1>
Next, the operation in this embodiment will be described.
In the configuration of the content reproduction system 100 shown in FIG. 1, the frame image of the projection video content and the captured image of the projection image projected on the screen 5 are reversed from the left and right of the front image. In the figure to be used, left-right reversal is omitted, and all are shown as front images.

図4に、画像処理装置1によって実行される再生制御処理のフローチャートを示す。再生制御処理は、制御部10のCPUと記憶部13のプログラム記憶部131に記憶されているプログラムとの協働により実行される。   FIG. 4 shows a flowchart of the reproduction control process executed by the image processing apparatus 1. The reproduction control process is executed in cooperation with the CPU of the control unit 10 and the program stored in the program storage unit 131 of the storage unit 13.

まず、制御部10は、操作部11からの入力に応じて補正閾値の設定を行う(ステップS1)。補正閾値は、後述する再生及び補正処理において、投影用映像コンテンツにおける人物領域の動きが閾値以上であるか否かを判断する際に用いられる値である。例えば、投影に使用するフレーム画像の人物領域の位置が標準位置(後述する初期位置合わせ処理で設定される)を基準として左、右、上、又は下に何%以上(何ピクセル以上)ずれていれば補正を行うかを示す値である。操作部11から入力された補正閾値は、制御部10によりプログラム記憶部131に記憶される。   First, the control unit 10 sets a correction threshold according to an input from the operation unit 11 (step S1). The correction threshold is a value used when determining whether or not the movement of the person area in the projection video content is equal to or greater than the threshold in the reproduction and correction processing described later. For example, the position of the person area of the frame image used for projection is shifted by% or more (how many pixels or more) to the left, right, top, or bottom with respect to the standard position (set in the initial alignment process described later). If so, the value indicates whether correction is performed. The correction threshold value input from the operation unit 11 is stored in the program storage unit 131 by the control unit 10.

次いで、制御部10は、初期位置合わせ処理を実行する(ステップS2)。
図5に、画像処理装置1によって実行される初期位置合わせ処理のフローチャートを示す。初期位置合わせ処理は、制御部10のCPUと記憶部13のプログラム記憶部131に記憶されているプログラムとの協働により実行される。
Next, the control unit 10 executes an initial alignment process (step S2).
FIG. 5 shows a flowchart of the initial alignment process executed by the image processing apparatus 1. The initial alignment process is executed in cooperation with the CPU of the control unit 10 and the program stored in the program storage unit 131 of the storage unit 13.

初期位置合わせ処理において、まず、制御部10は、投影用映像コンテンツのフレーム画像(例えば、1フレーム目)を記憶部13の映像データ記憶部132から読み出して取得する(ステップS201)。
次いで、制御部10は、記憶部13の設定情報記憶部133から設定情報を取得し、取得された設定情報に基づいて、人物領域の倍率及び位置を変更したフレーム画像を作成する(ステップS202)。
In the initial alignment process, first, the control unit 10 reads and acquires the frame image (for example, the first frame) of the projection video content from the video data storage unit 132 of the storage unit 13 (step S201).
Next, the control unit 10 acquires setting information from the setting information storage unit 133 of the storage unit 13 and creates a frame image in which the magnification and position of the person area are changed based on the acquired setting information (step S202). .

次いで、制御部10は、作成されたフレーム画像から人物領域を抽出し、抽出した人物領域の位置情報及び作成されたフレーム画像をI/F14を介してプロジェクタ2に送信し、プロジェクタ2によりフレーム画像中の人物領域をスクリーン5に投影させる(ステップS203)。人物領域は、例えば、画像認識等の公知の画像処理技術によって抽出することができる。   Next, the control unit 10 extracts a person area from the created frame image, transmits the position information of the extracted person area and the created frame image to the projector 2 via the I / F 14, and the projector 2 transmits the frame image. The person area inside is projected on the screen 5 (step S203). The person region can be extracted by a known image processing technique such as image recognition, for example.

次いで、制御部10は、投影中のスクリーン5を含む投影像をカメラ3に撮影させて撮影画像を取得し(ステップS204)、取得した撮影画像からスクリーン5の外形領域を抽出する(ステップS205)。
ステップS205において、スクリーン5の外形領域は、例えば、撮影画像にぼかし処理及び二値化処理を施すことにより抽出することとするが、これに限らず、その他の公知の画像処理技術を用いて抽出してもよい。
Next, the control unit 10 causes the camera 3 to capture a projected image including the screen 5 being projected, acquires a captured image (step S204), and extracts an outer region of the screen 5 from the acquired captured image (step S205). .
In step S205, the outline region of the screen 5 is extracted by performing, for example, blurring processing and binarization processing on the captured image, but is not limited thereto, and is extracted using other known image processing techniques. May be.

次いで、制御部10は、撮影画像から投影像の人物領域を抽出する(ステップS206)。ステップS206においては、例えば、ステップS205より高い(明るい)輝度の閾値を用いて撮影画像に二値化処理を施すことにより投影像の人物領域を抽出することとするが、これに限らず、その他の公知の画像処理技術を用いて抽出してもよい。   Next, the control unit 10 extracts a person area of the projected image from the captured image (step S206). In step S206, for example, the person area of the projected image is extracted by performing binarization processing on the captured image using a threshold value of brightness (brighter) higher than that in step S205. The image may be extracted using a known image processing technique.

次いで、制御部10は、撮影画像から抽出されたスクリーン5の外形領域と人物領域とを比較し、両者の位置合わせを行う(ステップS207)。例えば、スクリーン5の外形領域の重心と人物領域の重心をそれぞれ求め、両者が一致するように人物領域を移動させた後、人物領域がスクリーン5の外形領域に対して予め定められたサイズ(例えば、約0.9倍)となるように倍率を変更する。   Next, the control unit 10 compares the outline area of the screen 5 extracted from the captured image with the person area, and aligns the two (step S207). For example, the center of gravity of the outline area of the screen 5 and the center of gravity of the person area are obtained, and the person area is moved so that they match, and then the person area has a predetermined size with respect to the outline area of the screen 5 (for example, , The magnification is changed to about 0.9 times.

次いで、制御部10は、ステップS207の位置合わせにおける人物領域の倍率及び移動量(及び移動方向)に基づいて、投影時のフレーム画像の倍率及び位置の移動量(及び移動方向)を算出し、算出結果により設定情報記憶部133の設定情報を更新する。また、更新された設定情報に基づいて、ステップS201において取得されたフレーム画像の倍率及び位置を変更したフレーム画像(位置合わせ後のフレーム画像)を作成する(ステップS208)。   Next, the control unit 10 calculates the magnification and the moving amount (and moving direction) of the frame image at the time of projection based on the magnification and moving amount (and moving direction) of the person area in the alignment in step S207, The setting information in the setting information storage unit 133 is updated with the calculation result. Further, based on the updated setting information, a frame image (frame image after alignment) in which the magnification and position of the frame image acquired in step S201 are changed is created (step S208).

次いで、制御部10は、位置合わせ後のフレーム画像から人物領域を抽出する(ステップS209)。人物領域の抽出は、例えば、画像認識等の画像処理等の公知の画像処理技術によって行うことができる。
そして、制御部10は、抽出した人物領域から重心を求め、求めた重心位置の座標を人物領域の標準位置としてRAMに記憶し(ステップS210)、処理は図4のステップS3に移行する。
Next, the control unit 10 extracts a person region from the frame image after alignment (step S209). The extraction of the person area can be performed by a known image processing technique such as image processing such as image recognition.
And the control part 10 calculates | requires a gravity center from the extracted person area | region, memorize | stores the coordinate of the calculated | required gravity center position in RAM as a standard position of a person area (step S210), and a process transfers to step S3 of FIG.

図4のステップS3においては、再生及び補正処理が実行される。
図6に、画像処理装置1によって実行される再生及び補正処理のフローチャートを示す。再生及び補正処理は、制御部10のCPUと記憶部13のプログラム記憶部131に記憶されているプログラムとの協働により実行される。
In step S3 of FIG. 4, reproduction and correction processes are executed.
FIG. 6 shows a flowchart of the reproduction and correction process executed by the image processing apparatus 1. The reproduction and correction processing is executed in cooperation with the CPU of the control unit 10 and the program stored in the program storage unit 131 of the storage unit 13.

再生及び補正処理において、制御部10は、投影用映像コンテンツの投影対象のフレーム画像を記憶部13の映像データ記憶部132から読み出して取得する(ステップS301)。
次いで、制御部10は、記憶部13の設定情報記憶部133から倍率及び位置の移動量の設定情報を取得し、取得された設定情報に基づいて、フレーム画像の人物領域の倍率及び位置を変更したフレーム画像を作成する(ステップS302)。
In the reproduction and correction processing, the control unit 10 reads out and acquires the projection target frame image of the video content for projection from the video data storage unit 132 of the storage unit 13 (step S301).
Next, the control unit 10 acquires the setting information of the magnification and the moving amount of the position from the setting information storage unit 133 of the storage unit 13, and changes the magnification and the position of the person area of the frame image based on the acquired setting information. A frame image is created (step S302).

次いで、制御部10は、作成したフレーム画像から人物領域を抽出する(ステップS303)。人物領域の抽出は、例えば、画像認識等の画像処理等の公知の画像処理技術によって行うことができる。   Next, the control unit 10 extracts a person region from the created frame image (step S303). The extraction of the person area can be performed by a known image processing technique such as image processing such as image recognition.

次いで、制御部10は、抽出した人物領域の重心位置を求め、この重心位置とRAMに記憶された標準位置とを比較し、標準位置からの人物領域の重心位置の移動量(及び移動方向)を人物領域の動きを示す情報として取得する(ステップS304)。そして、標準位置からの人物領域の重心位置の移動量が予め設定された補正閾値以上であるか否かに基づいて、人物領域の動きが閾値以上であるか否かを判断する(ステップS305)。   Next, the control unit 10 obtains the centroid position of the extracted person area, compares the centroid position with the standard position stored in the RAM, and moves the centroid position of the person area from the standard position (and the movement direction). Is acquired as information indicating the movement of the person area (step S304). Then, based on whether or not the movement amount of the center of gravity position of the person area from the standard position is equal to or greater than a preset correction threshold value, it is determined whether or not the movement of the person area is equal to or greater than the threshold value (step S305). .

ステップS305において、人物領域の動きが閾値以上ではないと判断した場合(ステップS305;NO)、制御部10は、ステップS307の処理に移行する。人物領域の動きが閾値以上であると判断した場合(ステップS305;YES)、制御部10は、抽出した人物領域の重心位置が標準位置となるようにフレーム画像を補正し(ステップS306)、ステップS307の処理に移行する。   If it is determined in step S305 that the movement of the person area is not equal to or greater than the threshold (step S305; NO), the control unit 10 proceeds to the process of step S307. If it is determined that the movement of the person area is equal to or greater than the threshold (step S305; YES), the control unit 10 corrects the frame image so that the center of gravity of the extracted person area becomes the standard position (step S306). The process proceeds to S307.

ステップS307において、制御部10は、フレーム画像(補正されたフレーム画像。補正されていない場合はステップS302で作成されたフレーム画像)から人物領域を抽出し、抽出した人物領域の位置情報及び当該フレーム画像をI/F14を介してプロジェクタ2に送信し、プロジェクタ2によりフレーム画像中の人物領域をスクリーン5に投影させる。また、対応する音声データを音声出力部16により音声信号に変換させ、スピーカ4より音声出力させる(ステップS307)。   In step S307, the control unit 10 extracts a person area from the frame image (corrected frame image; if not corrected, the frame image created in step S302), and extracts the position information of the extracted person area and the frame. The image is transmitted to the projector 2 via the I / F 14, and the projector 2 causes the person area in the frame image to be projected on the screen 5. Corresponding audio data is converted into an audio signal by the audio output unit 16 and output from the speaker 4 (step S307).

次いで、制御部10は、投影用映像コンテンツに次のフレーム画像があるか否かを判断する(ステップS308)。次のフレーム画像がある場合は(ステップS308;YES)、制御部10はステップS301の処理に戻り、次のフレーム画像についてステップS301〜ステップS307の処理を実行する。次のフレーム画像がないと判断した場合(ステップS308;NO)、制御部10は、再生制御処理を終了する。   Next, the control unit 10 determines whether or not there is a next frame image in the projection video content (step S308). If there is a next frame image (step S308; YES), the control unit 10 returns to the process of step S301, and executes the processes of step S301 to step S307 for the next frame image. When it is determined that there is no next frame image (step S308; NO), the control unit 10 ends the reproduction control process.

図7に、上記再生制御処理における人物領域の補正動作の概念を模式的に示す。図7(a)は、スクリーン5に投影用映像コンテンツを投影したときのスクリーン5及び投影像を撮影した撮影画像の一例を示す図である。投影像の撮影画像が図7(a)に示すものである場合、撮影画像のスクリーン5の外形領域及び投影像である人物領域を抽出し、人物領域の重心位置を移動してスクリーン5の外形領域の重心位置に合わせるとともに、人物領域の倍率を変更して人物領域がスクリーン5に収まる所定倍率となるように合わせる。このときの移動量(及び移動方向)及び変更した倍率に基づいて、図7(b)に示すように元のフレーム画像の倍率及び移動量を変更したフレーム画像を作成する。このフレーム画像に基づく映像をスクリーン5に投影すると、図7(c)に示すようにスクリーン5内に収まるように適切に人物領域が投影される。また、このときのフレーム画像における人物領域の重心位置を標準位置として記憶しておき、投影する投影用映像コンテンツの人物領域に動きがある場合、各フレーム画像の人物領域の重心位置が標準位置となるようにフレーム画像を補正することで、人物領域に動きがあっても、人物像の一部がはみ出したり欠けたりすることなくスクリーン5内の適切な位置に投影することが可能となる。   FIG. 7 schematically shows the concept of the human region correction operation in the reproduction control process. FIG. 7A is a diagram illustrating an example of a captured image obtained by capturing the screen 5 and the projected image when the projection video content is projected onto the screen 5. When the photographed image of the projected image is as shown in FIG. 7A, the contour area of the screen 5 of the photographed image and the person area that is the projected image are extracted, the center of gravity position of the person area is moved, and the contour of the screen 5 is extracted. Along with the position of the center of gravity of the area, the magnification of the person area is changed so that the person area has a predetermined magnification that fits on the screen 5. Based on the moving amount (and moving direction) at this time and the changed magnification, a frame image in which the magnification and moving amount of the original frame image are changed is created as shown in FIG. When a video based on this frame image is projected onto the screen 5, a person region is appropriately projected so as to be within the screen 5 as shown in FIG. In addition, the center of gravity position of the person area in the frame image at this time is stored as a standard position, and when the person area of the projection video content to be projected has a motion, the position of the center of gravity of the person area of each frame image is the standard position. By correcting the frame image in such a manner, even if there is a movement in the person area, it is possible to project the person image onto an appropriate position in the screen 5 without protruding or missing a part of the person image.

なお、上記第1の実施形態においては、初期位置合わせ処理のステップS209において位置合わせ後のフレーム画像から人物領域を抽出し、抽出した人物領域の重心位置を標準位置として記憶することとしたが、公知の顔認識技術を用いてフレーム画像から顔領域を抽出し、顔領域の重心位置を標準位置として記憶することとしてもよい。そして、再生及び補正処理のステップS303においては、作成したフレーム画像から顔領域を抽出し、ステップS304においては、抽出した顔領域の重心位置と標準位置とを比較し、ステップS305においては、標準位置からの顔領域の重心位置の移動量が予め設定された補正閾値以上であるか否かに基づいて、人物領域の動きが閾値以上であるか否かを判断することとしてもよい。なお、この場合、再生制御処理のステップS1で設定される補正閾値は、顔領域の位置がその標準位置を基準として左、右、上、又は下に何%以上(何ピクセル以上)ずれていれば補正を行うかを示す値とする。   In the first embodiment, the person area is extracted from the frame image after the alignment in step S209 of the initial alignment process, and the center of gravity position of the extracted person area is stored as the standard position. A face area may be extracted from the frame image using a known face recognition technique, and the center of gravity position of the face area may be stored as a standard position. In step S303 of the reproduction and correction process, a face area is extracted from the created frame image. In step S304, the center of gravity position of the extracted face area is compared with the standard position. In step S305, the standard position is extracted. Whether the movement of the person area is equal to or greater than the threshold may be determined based on whether the amount of movement of the center of gravity of the face area from the threshold is equal to or greater than a preset correction threshold. In this case, the correction threshold value set in step S1 of the reproduction control process is such that the position of the face area is shifted by% or more (how many pixels or more) to the left, right, top, or bottom with respect to the standard position. Is a value indicating whether correction is to be performed.

また、標準位置や移動量の算出の基準として、人物領域の重心位置を使用することとして説明したが、これに限定されず、例えば、人物領域の中心(人物領域に外接する矩形領域の対角線が交わる位置)等を使用することとしてもよい。   In addition, although it has been described that the position of the center of gravity of the person area is used as a standard for calculating the standard position and the movement amount, the present invention is not limited to this. For example, the center of the person area (the diagonal line of the rectangular area circumscribing the person area) It is also possible to use a crossing position).

[第2の実施形態]
次に、第2の実施形態について説明する。
第1の実施形態においては、投影用映像コンテンツの各フレーム画像を投影する際に、投影するフレーム画像における人物領域の動きを補正して投影する例について説明した。第2の実施形態においては、全てのフレーム画像の動きの補正を行ってから投影用映像コンテンツの投影を行う例について説明する。
[Second Embodiment]
Next, a second embodiment will be described.
In the first embodiment, an example has been described in which, when each frame image of the projection video content is projected, the movement of the person area in the projected frame image is corrected and projected. In the second embodiment, an example will be described in which the projection video content is projected after the motion of all the frame images is corrected.

第2の実施形態において、記憶部13のプログラム記憶部131は、後述する再生制御処理Bを実行するためのプログラムを記憶している。その他の第2の実施形態におけるコンテンツ再生システム100及びこれを構成する各装置の構成は、第1の実施形態で説明したものと同様であるので説明を援用し、以下、第2の実施形態の動作について説明する。   In the second embodiment, the program storage unit 131 of the storage unit 13 stores a program for executing a reproduction control process B described later. Since the configurations of the content reproduction system 100 and other devices constituting the content reproduction system 100 according to the second embodiment are the same as those described in the first embodiment, the description thereof is incorporated, and the second embodiment is hereinafter described. The operation will be described.

図8に、第2の実施形態において画像処理装置1によって実行される再生制御処理Bのフローチャートを示す。再生制御処理Bは、制御部10のCPUと記憶部13のプログラム記憶部131に記憶されているプログラムとの協働により実行される。   FIG. 8 shows a flowchart of the reproduction control process B executed by the image processing apparatus 1 in the second embodiment. The reproduction control process B is executed in cooperation with the CPU of the control unit 10 and the program stored in the program storage unit 131 of the storage unit 13.

まず、制御部10は、初期位置合わせ処理を実行する(ステップS10)。具体的には、制御部10は、図5の初期位置合わせ処理のステップS201〜S207の処理を行い、ステップS207の位置合わせにおける人物領域の倍率及び移動量(及び移動方向)に基づいて、投影時の人物領域の倍率及び位置の移動量(及び移動方向)を算出し、算出結果により設定情報記憶部133の設定情報を更新する。   First, the control unit 10 performs an initial alignment process (step S10). Specifically, the control unit 10 performs the processes of steps S201 to S207 of the initial alignment process of FIG. 5, and performs projection based on the magnification and movement amount (and movement direction) of the person area in the alignment of step S207. The magnification and position movement amount (and movement direction) of the person area at the time are calculated, and the setting information in the setting information storage unit 133 is updated with the calculation result.

次いで、制御部10は、投影用映像コンテンツのフレーム画像と同サイズの画像をn×n(nは正の整数)の領域に分割し、分割線の入った画像をI/F14を介してプロジェクタ2に送信し、画像全体を投影させる(ステップS11)。   Next, the control unit 10 divides an image having the same size as the frame image of the projection video content into areas of n × n (n is a positive integer), and the image including the dividing line is projected via the I / F 14 to the projector. 2 to project the entire image (step S11).

次いで、制御部10は、投影中のスクリーン5を含む投影像をカメラ3に撮影させて撮影画像を取得し(ステップS12)、取得した撮影画像からスクリーン5の外形領域を抽出する(ステップS13)。スクリーン5の外形領域の抽出は、図5のステップS205で説明したものと同様の処理により行うことができる。図9(a)に、ステップS12で取得される撮影画像の模式図を示す。   Next, the control unit 10 causes the camera 3 to capture a projected image including the screen 5 being projected, acquires a captured image (step S12), and extracts an outline area of the screen 5 from the acquired captured image (step S13). . The extraction of the outer region of the screen 5 can be performed by the same process as described in step S205 of FIG. FIG. 9A shows a schematic diagram of the captured image acquired in step S12.

次いで、制御部10は、記憶部13の設定情報記憶部133から当該投影用映像コンテンツのフレーム画像を投影する際の人物領域の倍率及び位置の移動量の設定情報を取得し(ステップS14)、取得された設定情報に基づいて、人物領域の倍率及び位置を変更したフレーム画像を作成する(ステップS15)。   Next, the control unit 10 acquires setting information on the magnification and position movement amount of the person area when projecting the frame image of the projection video content from the setting information storage unit 133 of the storage unit 13 (step S14). Based on the acquired setting information, a frame image in which the magnification and position of the person area are changed is created (step S15).

次いで、制御部10は、作成されたフレーム画像から人物領域を抽出する(ステップS16)。人物領域の抽出は、例えば、画像認識等の画像処理等の公知の画像処理技術によって行うことができる。   Next, the control unit 10 extracts a person region from the created frame image (step S16). The extraction of the person area can be performed by a known image processing technique such as image processing such as image recognition.

次いで、制御部10は、RAMに最大領域が設定されているか否かを判断する(ステップS17)。ここで、最大領域とは、投影用映像コンテンツを構成する複数のフレーム画像を重ね合わせたときの最大の人物領域である。RAMには、最初のフレーム画像から直前のフレーム画像までの複数のフレーム画像の人物領域の論理和をとった領域(OR領域と呼ぶ))が最大領域として順次設定されている。なお、最初のフレーム画像の場合は、まだOR領域が算出されていないので最大領域は設定されていない。   Next, the control unit 10 determines whether or not the maximum area is set in the RAM (step S17). Here, the maximum area is the maximum person area when a plurality of frame images constituting the projection video content are superimposed. In the RAM, an area obtained by ORing the person areas of a plurality of frame images from the first frame image to the immediately preceding frame image (referred to as an OR area) is sequentially set as the maximum area. In the case of the first frame image, since the OR region has not yet been calculated, the maximum region is not set.

最大領域が設定されていないと判断した場合(ステップS17;NO)、制御部10は、抽出された人物領域を最大領域としてRAMに設定し(ステップS18)、ステップS21の処理に移行する。   If it is determined that the maximum area is not set (step S17; NO), the control unit 10 sets the extracted person area as the maximum area in the RAM (step S18), and proceeds to the process of step S21.

最大領域が設定されていると判断した場合(ステップS17;YES)、制御部10は、抽出した人物領域と最大領域を比較し、人物領域に最大領域からはみ出している部分があるか否かを判断する(ステップS19)。ここで、本実施形態においては、抽出された人物領域と最大領域とを比較し、はみ出している部分があるか否かによって、人物領域の動きを検出している。最大領域からはみ出している部分があると判断した場合(ステップS19;YES)、制御部10は、そのはみ出している部分を最大領域に追加してRAMの最大領域を更新する(ステップS20)。即ち、それまでの最大領域と抽出した人物領域とのOR領域を最大領域として設定する。   If it is determined that the maximum area is set (step S17; YES), the control unit 10 compares the extracted person area with the maximum area, and determines whether or not the person area has a portion protruding from the maximum area. Judgment is made (step S19). Here, in the present embodiment, the extracted person area is compared with the maximum area, and the movement of the person area is detected depending on whether or not there is a protruding part. If it is determined that there is a portion protruding from the maximum area (step S19; YES), the control unit 10 adds the protruding portion to the maximum area and updates the maximum area of the RAM (step S20). That is, the OR area between the maximum area so far and the extracted person area is set as the maximum area.

次いで、制御部10は、投影用映像コンテンツに次のフレーム画像があるか否かを判断する(ステップS21)。次のフレーム画像がある場合は(ステップS21;YES)、制御部10は、ステップS14の処理に戻り、ステップS14〜ステップS20の処理を繰り返し実行する。次のフレーム画像がないと判断した場合(ステップS21;NO)、制御部10は、ステップS22に移行する。
全てのフレーム画像の人物領域を重ね合わせた最大領域は、投影用映像コンテンツにおける人物領域の動きの範囲を示す情報となる。
Next, the control unit 10 determines whether there is a next frame image in the projection video content (step S21). When there is a next frame image (step S21; YES), the control unit 10 returns to the process of step S14 and repeatedly executes the processes of step S14 to step S20. When determining that there is no next frame image (step S21; NO), the control unit 10 proceeds to step S22.
The maximum area obtained by superimposing the person areas of all the frame images is information indicating the range of movement of the person area in the projection video content.

ステップS22において、制御部10は、ステップS13で抽出されたスクリーン5の外形領域と最大領域を比較し、人物領域の倍率を決定する(ステップS22)。例えば、制御部10は、最大領域が形成された画像をn×nに分割し、そのときの分割線を画像に付加する。図9(b)に、分割線を付加した最大領域の画像を模式的に示す。最大領域は点線で示した領域である。そして、ステップS12で撮影された撮影画像の分割線と最大領域の画像の分割線とにより撮影画像とフレーム画像の対応をとってスクリーン5と最大領域とを比較し(図9(c)参照)、最大領域がスクリーン5からはみ出ない最大の倍率を決定し(図9(d)参照)、決定した倍率により設定情報の倍率を更新する。
このように、スクリーン5の外形領域から最大領域がはみ出ない倍率に設定情報の倍率を更新することで、次のステップS23において倍率が補正されたフレーム画像を作成することができる。
In step S22, the control unit 10 compares the outline area of the screen 5 extracted in step S13 with the maximum area, and determines the magnification of the person area (step S22). For example, the control unit 10 divides the image in which the maximum area is formed into n × n, and adds a dividing line at that time to the image. FIG. 9B schematically shows an image of the maximum area to which the dividing line is added. The maximum area is an area indicated by a dotted line. Then, the screen 5 and the maximum area are compared by taking the correspondence between the captured image and the frame image by using the dividing line of the captured image captured in step S12 and the dividing line of the image of the maximum area (see FIG. 9C). The maximum magnification at which the maximum area does not protrude from the screen 5 is determined (see FIG. 9D), and the magnification of the setting information is updated with the determined magnification.
In this way, by updating the magnification of the setting information so that the maximum area does not protrude from the outer area of the screen 5, a frame image with the magnification corrected in the next step S23 can be created.

次いで、制御部10は、更新した倍率及び位置の設定情報に基づいて、投影用映像コンテンツの各フレーム画像の人物領域を順次プロジェクタ2に投影させるとともに、対応する音声データを音声出力部16により音声信号に変換させ、スピーカ4より音声出力させる(ステップS23)。具体的には、設定情報に基づいて各フレーム画像の倍率及び位置を変更(補正)したフレーム画像を作成し、作成したフレーム画像から人物領域を抽出し、抽出した人物領域の位置情報及び作成されたフレーム画像を順次I/F14を介してプロジェクタ2に送信し、プロジェクタ2によりフレーム画像中の人物領域をスクリーン5に投影させる。また、対応する音声データを音声出力部16により音声信号に変換させ、スピーカ4より音声出力させる。   Next, the control unit 10 causes the projector 2 to sequentially project the person area of each frame image of the projection video content based on the updated magnification and position setting information, and the corresponding audio data is output to the audio output unit 16. The signal is converted into a signal, and the sound is output from the speaker 4 (step S23). Specifically, a frame image in which the magnification and position of each frame image is changed (corrected) based on the setting information is created, a person area is extracted from the created frame image, and the position information and the created person area are created. The frame images are sequentially transmitted to the projector 2 via the I / F 14, and the projector 2 projects the person area in the frame image onto the screen 5. Corresponding audio data is converted into an audio signal by the audio output unit 16 and output from the speaker 4.

このように、第2の実施形態においては、各フレーム画像を重ね合わせたときの最大領域がスクリーン5の外形領域に収まるようにフレーム画像を補正するので、人物領域に動きがあっても、人物像の一部がはみ出したり欠けたりすることなくスクリーン5内の適切な位置に投影することが可能となる。   As described above, in the second embodiment, since the frame image is corrected so that the maximum area when the frame images are superimposed is within the outline area of the screen 5, even if there is a movement in the person area, A part of the image can be projected to an appropriate position in the screen 5 without protruding or missing.

以上説明したように、コンテンツ再生システム100によれば、制御部10は、人型のスクリーン5を含む撮影画像からスクリーン5の外形領域を抽出し、投影用映像コンテンツのフレーム画像から投影対象の人物領域を抽出し、抽出したスクリーン5の外形領域及び人物領域に基づいて、投影用映像コンテンツのフレーム画像を補正する。そして、補正したフレーム画像に基づいてプロジェクタ2によりスクリーン5上に人物を投影させる。
従って、人物領域がスクリーン5に収まるようにフレーム画像を補正することで、投影用映像コンテンツ中の人物が動いても、プロジェクタ2とスクリーン5の位置関係を調整することなく、スクリーン5内に人物像が収まるように適切に投影を行うことが可能となる。
As described above, according to the content reproduction system 100, the control unit 10 extracts the outer area of the screen 5 from the captured image including the human-shaped screen 5, and the person to be projected from the frame image of the projection video content. The area is extracted, and the frame image of the projection video content is corrected based on the extracted outline area and person area of the screen 5. A person is projected on the screen 5 by the projector 2 based on the corrected frame image.
Therefore, by correcting the frame image so that the person area fits on the screen 5, even if a person in the projection video content moves, the person in the screen 5 is not adjusted without adjusting the positional relationship between the projector 2 and the screen 5. It is possible to perform projection appropriately so that the image fits.

例えば、投影用映像コンテンツの複数のフレーム画像から抽出された人物領域に基づいて、当該映像コンテンツにおける人物領域の動きを示す情報を取得し、取得した人物の動きを示す情報と撮影画像から抽出したスクリーンの外形領域に基づいて映像コンテンツの各フレーム画像を補正することで、投影用映像コンテンツ中の人物が動いてもスクリーン5内に人物像が収まるように適切に投影を行うことが可能となる。   For example, based on the person area extracted from the plurality of frame images of the video content for projection, information indicating the movement of the person area in the video content is acquired, and extracted from the acquired information indicating the movement of the person and the captured image By correcting each frame image of the video content based on the outline area of the screen, it is possible to appropriately perform projection so that the person image fits within the screen 5 even if a person in the projection video content moves. .

具体的に、複数のフレーム画像から抽出された複数の人物領域を重ね合わせたときの最大領域を投影用映像コンテンツにおける人物領域の動きの範囲を示す情報として取得し、最大領域と撮影画像から抽出したスクリーン5の外形領域とに基づいて、最大領域がスクリーン5に収まるように映像コンテンツのフレーム画像を補正することで、投影用映像コンテンツ中の人物が動いてもスクリーン5内に人物像が収まるように適切に投影を行うことが可能となる。   Specifically, the maximum area when a plurality of person areas extracted from a plurality of frame images are superimposed is acquired as information indicating the range of movement of the person area in the projection video content, and extracted from the maximum area and the photographed image. By correcting the frame image of the video content so that the maximum area can be accommodated on the screen 5 based on the outer shape area of the screen 5, the person image can be accommodated in the screen 5 even if a person in the projection video content moves. Thus, it becomes possible to perform projection appropriately.

また、例えば、撮影画像から抽出されたスクリーン5の外形領域及び投影用映像コンテンツの各フレーム画像から抽出された人物領域に基づいて、投影用映像コンテンツにおける人物領域の動きを示す情報を取得し、取得した人物領域の動きを示す情報に基づいて、各フレーム画像を補正することで、投影用映像コンテンツ中の人物が動いてもスクリーン5内に人物像が収まるように適切に投影を行うことが可能となる。   Further, for example, based on the outline area of the screen 5 extracted from the captured image and the person area extracted from each frame image of the projection video content, information indicating the movement of the person area in the projection video content is acquired. By correcting each frame image based on the acquired information indicating the movement of the person area, it is possible to appropriately perform projection so that the person image fits within the screen 5 even if the person in the projection video content moves. It becomes possible.

具体的に、人物像が投影されたスクリーン5を含む撮影画像からスクリーン5の外形領域とともに人物領域を抽出し、抽出されたスクリーンの外形領域と人物領域に基づいて、投影用映像コンテンツの複数のフレーム画像における人物領域の標準位置を決定する。そして、複数のフレーム画像のそれぞれにおける人物領域の標準位置からの移動量を人物領域の動きを示す情報として取得し、取得した取得した人物領域の動きを示す情報に基づいて、各フレーム画像を補正することで、投影用映像コンテンツ中の人物が動いてもスクリーン5内に人物像が収まるように適切に投影を行うことが可能となる。   Specifically, a person area is extracted together with an outline area of the screen 5 from a photographed image including the screen 5 on which the person image is projected, and a plurality of pieces of projection video content are based on the extracted outline area and person area of the screen. The standard position of the person area in the frame image is determined. Then, the movement amount from the standard position of the person area in each of the plurality of frame images is acquired as information indicating the movement of the person area, and each frame image is corrected based on the acquired information indicating the movement of the person area. As a result, even if a person in the projection video content moves, it is possible to appropriately perform projection so that the person image fits within the screen 5.

なお、上記実施形態における記述内容は、本発明に係るコンテンツ再生システムの好適な一例であり、これに限定されるものではない。   In addition, the description content in the said embodiment is a suitable example of the content reproduction | regeneration system which concerns on this invention, and is not limited to this.

例えば、上記実施形態においては、画像処理装置1とプロジェクタ2とは別体であることとして説明したが、一体的に構成されたものであってもよい。また、プロジェクタ2とカメラ3は一体的に構成されたものであってもよい。   For example, in the above-described embodiment, the image processing apparatus 1 and the projector 2 have been described as separate bodies, but may be integrally configured. Further, the projector 2 and the camera 3 may be integrally configured.

また、上記実施形態においては、プロジェクタ2の出力光がスクリーン5の背面に直接照射される構成を例にとり説明したが、プロジェクタ2の出力光を反射するミラーを設け、ミラーの反射光をプロジェクタ2の背面に投影することとしてもよい。   In the above-described embodiment, the configuration in which the output light of the projector 2 is directly applied to the back surface of the screen 5 has been described as an example. However, a mirror that reflects the output light of the projector 2 is provided, and the reflected light of the mirror is supplied to the projector 2. It is good also as projecting on the back surface.

また、上記実施形態においては、投影用映像コンテンツの映像データは記憶部13に記憶されていることとして説明したが、画像処理装置1に通信ネットワークを介して接続されるサーバから配信される構成としてもよい。また、USBメモリや各種の記録媒体から映像データを取り込む構成としてもよい。   In the above embodiment, the video data of the projection video content has been described as being stored in the storage unit 13. However, as a configuration in which the video data is distributed from a server connected to the image processing apparatus 1 via a communication network. Also good. Further, the video data may be captured from a USB memory or various recording media.

また、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。   Also, as a computer-readable medium storing a program for executing each of the above processes, a non-volatile memory such as a flash memory, a portable recording medium such as a CD-ROM, in addition to a ROM, a hard disk, etc. Is also possible. A carrier wave is also used as a medium for providing program data via a predetermined communication line.

その他、コンテンツ再生システムを構成する各装置の細部構成及び細部動作に関しても、発明の趣旨を逸脱することのない範囲で適宜変更可能である。   In addition, the detailed configuration and detailed operation of each device constituting the content reproduction system can be changed as appropriate without departing from the spirit of the invention.

(付記)
本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
<請求項1>
投影対象物を含む映像コンテンツを前記投影対象物の形状に成型されたスクリーンに投影する投影装置に接続された画像処理装置であって、
前記スクリーンを含む撮影画像を取得するスクリーン画像取得手段と、
前記取得された撮影画像から前記スクリーンの外形領域を抽出するスクリーン外形領域抽出手段と、
前記映像コンテンツの映像データから前記投影対象物の領域を抽出する対象領域抽出手段と、
前記対象領域抽出手段により抽出された前記投影対象物の領域に基づいて、前記映像コンテンツにおける前記投影対象物の動きを示す情報を取得する動き情報取得手段と、
前記スクリーン外形領域抽出手段により抽出された前記スクリーンの外形領域、前記対象領域抽出手段により抽出された前記投影対象物の領域、及び前記動き情報取得手段により取得された前記投影対象物の動きを示す情報に基づいて、前記映像コンテンツの映像データを補正する補正手段と、
前記補正された映像データに基づいて前記投影装置により前記スクリーン上に前記投影対象物を投影させる制御手段と、
を備える画像処理装置。
<請求項2>
前記対象領域抽出手段は、前記映像データを構成する複数のフレーム画像のそれぞれから前記投影対象物の領域を抽出し、
前記動き情報取得手段は、前記対象領域抽出手段により複数のフレーム画像から抽出された複数の前記投影対象物の領域を重ね合わせたときの最大領域を前記映像コンテンツにおいて前記投影対象物の動きの範囲を示す情報として取得し、
前記補正手段は、前記動き情報取得手段により取得された前記最大領域と前記スクリーン外形領域抽出手段により抽出されたスクリーンの外形領域に基づいて、前記映像コンテンツの映像データを補正する請求項1に記載の画像処理装置。
<請求項3>
前記動き情報取得手段は、更に前記スクリーン外形領域抽出手段により抽出されたスクリーンの外形領域に基づいて、前記映像コンテンツにおける前記投影対象物の動きを示す情報を取得する請求項1に記載の画像処理装置。
<請求項4>
前記スクリーン画像取得手段は、前記投影装置により前記投影対象物が投影された前記スクリーンを含む撮影画像を取得し、
前記対象領域抽出手段は、前記映像データを構成する複数のフレーム画像のそれぞれから前記投影対象物の領域を抽出し、
前記投影対象物が投影された前記スクリーンを含む撮影画像から前記投影対象物の領域を抽出する第2の対象領域抽出手段を備え、
前記動き情報取得手段は、前記スクリーン外形領域抽出手段により抽出された前記スクリーンの外形領域と前記第2の対象領域抽出手段により抽出された前記投影対象物の領域に基づいて、前記映像データにおける前記投影対象物の標準位置を決定し、前記対象領域抽出手段により抽出された前記複数のフレーム画像のそれぞれにおける前記投影対象物の領域の前記標準位置からの移動量を前記投影対象物の動きを示す情報として取得する請求項3に記載の画像処理装置。
<請求項5>
投影対象物を含む映像コンテンツを前記投影対象物の形状に成型されたスクリーンに投影する投影装置に接続された画像処理装置における映像データ補正方法であって、
前記スクリーンを含む撮影画像を取得する工程と、
前記取得された撮影画像から前記スクリーンの外形領域を抽出する工程と、
前記映像コンテンツの映像データから前記投影対象物の領域を抽出する工程と、
前記抽出された前記投影対象物の領域に基づいて、前記映像コンテンツにおける前記投影対象物の動きを示す情報を取得する工程と、
前記抽出された前記スクリーンの外形領域、前記抽出された前記投影対象物の領域、及び前記取得された前記対象物の動きを示す情報に基づいて、前記映像コンテンツの映像データを補正する工程と、
前記補正された映像データに基づいて前記投影装置により前記スクリーン上に前記投影対象物を投影させる工程と、
を含む映像データ補正方法。
<請求項6>
投影対象物を含む映像コンテンツを前記投影対象物の形状に成型されたスクリーンに投影する投影装置に接続された画像処理装置に用いられるコンピュータを、
前記スクリーンを含む撮影画像を取得するスクリーン画像取得手段、
前記取得された撮影画像から前記スクリーンの外形領域を抽出するスクリーン外形領域抽出手段、
前記映像コンテンツの映像データから前記投影対象物の領域を抽出する対象領域抽出手段、
前記対象領域抽出手段により抽出された前記投影対象物の領域に基づいて、前記映像コンテンツにおける前記投影対象物の動きを示す情報を取得する動き情報取得手段と、
前記スクリーン外形領域抽出手段により抽出された前記スクリーンの外形領域、前記対象領域抽出手段により抽出された前記投影対象物の領域、及び前記動き情報取得手段により取得された前記投影対象物の動きを示す情報に基づいて、前記映像コンテンツの映像データを補正する補正手段、
前記補正された映像データに基づいて前記投影装置により前記スクリーン上に前記投影対象物を投影させる制御手段、
として機能させるためのプログラム。
(Appendix)
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
<Claim 1>
An image processing apparatus connected to a projection apparatus that projects video content including a projection object onto a screen molded into the shape of the projection object,
Screen image acquisition means for acquiring a captured image including the screen;
Screen outer area extraction means for extracting the outer area of the screen from the acquired photographed image;
Target area extracting means for extracting the area of the projection target from the video data of the video content;
Movement information acquisition means for acquiring information indicating movement of the projection object in the video content based on the area of the projection object extracted by the target area extraction means;
The outline area of the screen extracted by the screen outline area extraction unit, the area of the projection object extracted by the target area extraction unit, and the movement of the projection object acquired by the motion information acquisition unit Correction means for correcting the video data of the video content based on the information;
Control means for projecting the projection object onto the screen by the projection device based on the corrected video data;
An image processing apparatus comprising:
<Claim 2>
The target area extracting means extracts the area of the projection target from each of a plurality of frame images constituting the video data,
The motion information acquisition means is a range of motion of the projection object in the video content that is the maximum area when the areas of the plurality of projection objects extracted from the plurality of frame images by the target area extraction means are overlapped. Is obtained as information indicating
The correction means corrects video data of the video content based on the maximum area acquired by the motion information acquisition means and the outline area of the screen extracted by the screen outline area extraction means. Image processing apparatus.
<Claim 3>
The image processing according to claim 1, wherein the motion information acquisition unit further acquires information indicating the movement of the projection target in the video content based on the screen outer region extracted by the screen outer region extraction unit. apparatus.
<Claim 4>
The screen image acquisition means acquires a captured image including the screen on which the projection object is projected by the projection device,
The target area extracting means extracts the area of the projection target from each of a plurality of frame images constituting the video data,
A second target area extracting unit that extracts a region of the projection target from a captured image including the screen onto which the projection target is projected;
The motion information acquisition unit is configured to select the screen data in the video data based on the outline region of the screen extracted by the screen outline region extraction unit and the region of the projection target extracted by the second target region extraction unit. A standard position of the projection object is determined, and a movement amount of the area of the projection object from the standard position in each of the plurality of frame images extracted by the target area extraction means indicates the movement of the projection object. The image processing apparatus according to claim 3, which is acquired as information.
<Claim 5>
A video data correction method in an image processing apparatus connected to a projection apparatus that projects video content including a projection object onto a screen molded into the shape of the projection object,
Obtaining a captured image including the screen;
Extracting an outer area of the screen from the acquired captured image;
Extracting a region of the projection object from video data of the video content;
Obtaining information indicating the movement of the projection object in the video content based on the extracted region of the projection object;
Correcting the video data of the video content based on the extracted outline area of the screen, the extracted area of the projection object, and the acquired information indicating the movement of the object;
Projecting the projection object onto the screen by the projection device based on the corrected video data;
Video data correction method including
<Claim 6>
A computer used in an image processing apparatus connected to a projection apparatus that projects video content including the projection object onto a screen molded into the shape of the projection object;
Screen image acquisition means for acquiring a captured image including the screen;
A screen outer region extraction means for extracting an outer region of the screen from the acquired photographed image;
Target area extracting means for extracting the area of the projection target from the video data of the video content;
Movement information acquisition means for acquiring information indicating movement of the projection object in the video content based on the area of the projection object extracted by the target area extraction means;
The outline area of the screen extracted by the screen outline area extraction unit, the area of the projection object extracted by the target area extraction unit, and the movement of the projection object acquired by the motion information acquisition unit Correction means for correcting the video data of the video content based on the information;
Control means for projecting the projection object onto the screen by the projection device based on the corrected video data;
Program to function as.

100 コンテンツ再生システム
1 画像処理装置
10 制御部
11 操作部
12 表示部
13 記憶部
131 プログラム記憶部
132 映像データ記憶部
133 設定情報記憶部
14 I/F
15 I/F
16 音声出力部
2 プロジェクタ
3 カメラ
4 スピーカ
5 スクリーン
51 基材
52 スクリーンフィルム
53 フィルム
6 支持台
100 content reproduction system 1 image processing apparatus 10 control unit 11 operation unit 12 display unit 13 storage unit 131 program storage unit 132 video data storage unit 133 setting information storage unit 14 I / F
15 I / F
16 Audio output unit 2 Projector 3 Camera 4 Speaker 5 Screen 51 Base material 52 Screen film 53 Film 6 Support stand

Claims (5)

投影対象物を含む映像コンテンツを前記投影対象物の形状に成型されたスクリーンに投影する投影装置に接続された画像処理装置であって、
前記スクリーンを含む撮影画像を取得するスクリーン画像取得手段と、
前記取得された撮影画像から前記スクリーンの外形領域を抽出するスクリーン外形領域抽出手段と、
前記映像コンテンツの映像データから前記投影対象物の領域を抽出する対象領域抽出手段と、
前記対象領域抽出手段により抽出された前記投影対象物の領域に基づいて、前記映像コンテンツにおける前記投影対象物の動きを示す情報を取得する動き情報取得手段と、
前記スクリーン外形領域抽出手段により抽出された前記スクリーンの外形領域、前記対象領域抽出手段により抽出された前記投影対象物の領域、及び前記動き情報取得手段により取得された前記投影対象物の動きを示す情報に基づいて、前記映像コンテンツの映像データの位置又は倍率を補正する補正手段と、
前記補正された映像データに基づいて前記投影装置により前記スクリーン上に前記投影対象物を投影させる制御手段と、
を備える画像処理装置。
An image processing apparatus connected to a projection apparatus that projects video content including a projection object onto a screen molded into the shape of the projection object,
Screen image acquisition means for acquiring a captured image including the screen;
Screen outer area extraction means for extracting the outer area of the screen from the acquired photographed image;
Target area extracting means for extracting the area of the projection target from the video data of the video content;
Movement information acquisition means for acquiring information indicating movement of the projection object in the video content based on the area of the projection object extracted by the target area extraction means;
The outline area of the screen extracted by the screen outline area extraction unit, the area of the projection object extracted by the target area extraction unit, and the movement of the projection object acquired by the motion information acquisition unit Correction means for correcting the position or magnification of the video data of the video content based on the information;
Control means for projecting the projection object onto the screen by the projection device based on the corrected video data;
An image processing apparatus comprising:
前記対象領域抽出手段は、前記映像データを構成する複数のフレーム画像のそれぞれから前記投影対象物の領域を抽出し、
前記動き情報取得手段は、前記対象領域抽出手段により複数のフレーム画像から抽出された複数の前記投影対象物の領域を重ね合わせたときの最大領域を前記映像コンテンツにおいて前記投影対象物の動きの範囲を示す情報として取得し、
前記補正手段は、前記動き情報取得手段により取得された前記最大領域と前記スクリーン外形領域抽出手段により抽出されたスクリーンの外形領域に基づいて、前記映像コンテンツの映像データを補正する請求項1に記載の画像処理装置。
The target area extracting means extracts the area of the projection target from each of a plurality of frame images constituting the video data,
The motion information acquisition means is a range of motion of the projection object in the video content that is the maximum area when the areas of the plurality of projection objects extracted from the plurality of frame images by the target area extraction means are overlapped. Is obtained as information indicating
The correction means corrects video data of the video content based on the maximum area acquired by the motion information acquisition means and the outline area of the screen extracted by the screen outline area extraction means. Image processing apparatus.
前記スクリーン画像取得手段は、前記投影装置により前記投影対象物が投影された前記スクリーンを含む撮影画像を取得し、
前記対象領域抽出手段は、前記映像データを構成する複数のフレーム画像のそれぞれから前記投影対象物の領域を抽出し、
前記投影対象物が投影された前記スクリーンを含む撮影画像から前記投影対象物の領域を抽出する第2の対象領域抽出手段を備え、
前記動き情報取得手段は、前記スクリーン外形領域抽出手段により抽出された前記スクリーンの外形領域と前記第2の対象領域抽出手段により抽出された前記投影対象物の領域に基づいて、前記映像データにおける前記投影対象物の標準位置を決定し、前記対象領域抽出手段により抽出された前記複数のフレーム画像のそれぞれにおける前記投影対象物の領域の前記標準位置からの移動量を前記投影対象物の動きを示す情報として取得する請求項に記載の画像処理装置。
The screen image acquisition means acquires a captured image including the screen on which the projection object is projected by the projection device,
The target area extracting means extracts the area of the projection target from each of a plurality of frame images constituting the video data,
A second target area extracting unit that extracts a region of the projection target from a captured image including the screen onto which the projection target is projected;
The motion information acquisition unit is configured to select the screen data in the video data based on the outline region of the screen extracted by the screen outline region extraction unit and the region of the projection target extracted by the second target region extraction unit. A standard position of the projection object is determined, and a movement amount of the area of the projection object from the standard position in each of the plurality of frame images extracted by the target area extraction means indicates the movement of the projection object. The image processing apparatus according to claim 1, which is acquired as information.
投影対象物を含む映像コンテンツを前記投影対象物の形状に成型されたスクリーンに投影する投影装置に接続された画像処理装置における映像データ補正方法であって、
前記スクリーンを含む撮影画像を取得する工程と、
前記取得された撮影画像から前記スクリーンの外形領域を抽出する工程と、
前記映像コンテンツの映像データから前記投影対象物の領域を抽出する工程と、
前記抽出された前記投影対象物の領域に基づいて、前記映像コンテンツにおける前記投影対象物の動きを示す情報を取得する工程と、
前記抽出された前記スクリーンの外形領域、前記抽出された前記投影対象物の領域、及び前記取得された前記対象物の動きを示す情報に基づいて、前記映像コンテンツの映像データの位置又は倍率を補正する工程と、
前記補正された映像データに基づいて前記投影装置により前記スクリーン上に前記投影対象物を投影させる工程と、
を含む映像データ補正方法。
A video data correction method in an image processing apparatus connected to a projection apparatus that projects video content including a projection object onto a screen molded into the shape of the projection object,
Obtaining a captured image including the screen;
Extracting an outer area of the screen from the acquired captured image;
Extracting a region of the projection object from video data of the video content;
Obtaining information indicating the movement of the projection object in the video content based on the extracted region of the projection object;
The position or magnification of the video data of the video content is corrected based on the extracted outline area of the screen, the extracted area of the projection object, and information indicating the movement of the acquired object. And a process of
Projecting the projection object onto the screen by the projection device based on the corrected video data;
Video data correction method including
投影対象物を含む映像コンテンツを前記投影対象物の形状に成型されたスクリーンに投影する投影装置に接続された画像処理装置に用いられるコンピュータを、
前記スクリーンを含む撮影画像を取得するスクリーン画像取得手段、
前記取得された撮影画像から前記スクリーンの外形領域を抽出するスクリーン外形領域抽出手段、
前記映像コンテンツの映像データから前記投影対象物の領域を抽出する対象領域抽出手段、
前記対象領域抽出手段により抽出された前記投影対象物の領域に基づいて、前記映像コンテンツにおける前記投影対象物の動きを示す情報を取得する動き情報取得手段と、
前記スクリーン外形領域抽出手段により抽出された前記スクリーンの外形領域、前記対象領域抽出手段により抽出された前記投影対象物の領域、及び前記動き情報取得手段により取得された前記投影対象物の動きを示す情報に基づいて、前記映像コンテンツの映像データの位置又は倍率を補正する補正手段、
前記補正された映像データに基づいて前記投影装置により前記スクリーン上に前記投影対象物を投影させる制御手段、
として機能させるためのプログラム。
A computer used in an image processing apparatus connected to a projection apparatus that projects video content including the projection object onto a screen molded into the shape of the projection object;
Screen image acquisition means for acquiring a captured image including the screen;
A screen outer region extraction means for extracting an outer region of the screen from the acquired photographed image;
Target area extracting means for extracting the area of the projection target from the video data of the video content;
Movement information acquisition means for acquiring information indicating movement of the projection object in the video content based on the area of the projection object extracted by the target area extraction means;
The outline area of the screen extracted by the screen outline area extraction unit, the area of the projection object extracted by the target area extraction unit, and the movement of the projection object acquired by the motion information acquisition unit Correction means for correcting the position or magnification of the video data of the video content based on the information;
Control means for projecting the projection object onto the screen by the projection device based on the corrected video data;
Program to function as.
JP2012237752A 2012-10-29 2012-10-29 Image processing apparatus, video data correction method, and program Expired - Fee Related JP6079135B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012237752A JP6079135B2 (en) 2012-10-29 2012-10-29 Image processing apparatus, video data correction method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012237752A JP6079135B2 (en) 2012-10-29 2012-10-29 Image processing apparatus, video data correction method, and program

Publications (2)

Publication Number Publication Date
JP2014089242A JP2014089242A (en) 2014-05-15
JP6079135B2 true JP6079135B2 (en) 2017-02-15

Family

ID=50791204

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012237752A Expired - Fee Related JP6079135B2 (en) 2012-10-29 2012-10-29 Image processing apparatus, video data correction method, and program

Country Status (1)

Country Link
JP (1) JP6079135B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016063367A (en) * 2014-09-17 2016-04-25 カシオ計算機株式会社 Image distribution device, image distribution method and program

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05249428A (en) * 1992-03-05 1993-09-28 Koudo Eizou Gijutsu Kenkyusho:Kk Projection system
JPH086158A (en) * 1994-06-17 1996-01-12 Hitachi Ltd Projection type display device
US6554431B1 (en) * 1999-06-10 2003-04-29 Sony Corporation Method and apparatus for image projection, and apparatus controlling image projection
JP2004072570A (en) * 2002-08-08 2004-03-04 Casio Comput Co Ltd Display controller, information terminal device and display control program
JP2006201673A (en) * 2005-01-24 2006-08-03 Seiko Epson Corp Projector
JP4274154B2 (en) * 2005-05-31 2009-06-03 富士ゼロックス株式会社 3D display device
JP2007208819A (en) * 2006-02-03 2007-08-16 Funai Electric Co Ltd Imaging and display device
JP2009124681A (en) * 2007-10-22 2009-06-04 Seiko Epson Corp Projector and projection display method
JP5371310B2 (en) * 2008-07-24 2013-12-18 キヤノン株式会社 Image processing device
JP5300649B2 (en) * 2009-08-11 2013-09-25 キヤノン株式会社 Image processing apparatus and control method thereof
JP2011082798A (en) * 2009-10-07 2011-04-21 Sanyo Electric Co Ltd Projection graphic display device
JP2011150221A (en) * 2010-01-25 2011-08-04 Seiko Epson Corp Apparatus for mounting video output equipment, and method for projection of video output equipment
JP2011254411A (en) * 2010-06-04 2011-12-15 Hokkaido Univ Video projection system and video projection program
JP2013192189A (en) * 2012-03-15 2013-09-26 Casio Comput Co Ltd Image processing device, projection system, program and image processing method

Also Published As

Publication number Publication date
JP2014089242A (en) 2014-05-15

Similar Documents

Publication Publication Date Title
US10389938B2 (en) Device and method for panoramic image processing
US10379610B2 (en) Information processing device and information processing method
US9253457B2 (en) Image processing apparatus, projection apparatus, and computer readable medium
US11562717B2 (en) Image processing apparatus, image processing method, and storage medium
JP2006229768A (en) Video signal processing device, method therefor, and virtual reality creator
TW201738847A (en) Assembly instruction system and assembly instruction method
CN110870304B (en) Method and apparatus for providing information to a user for viewing multi-view content
US10349022B2 (en) Image processing apparatus, projector, image processing method, and storage medium storing image processing program
JP6079135B2 (en) Image processing apparatus, video data correction method, and program
US20200225467A1 (en) Method for projecting immersive audiovisual content
JP6191418B2 (en) Display device, display method, and program
JP5645448B2 (en) Image processing apparatus, image processing method, and program
US10013736B1 (en) Image perspective transformation system
KR20180091794A (en) Method of projection mapping
JP6859763B2 (en) Program, information processing device
TW202036369A (en) Image processing apparatus and method thereof
JP6085951B2 (en) Image processing apparatus and image selection method
KR102630904B1 (en) Roi tracking and optimization technology in multi projection system for building xr environment
JP2019009700A (en) Multi-viewpoint video output device and multi-viewpoint video system
JP2016170290A (en) Content output device, content output method and program
TWI621356B (en) Method of Projection Mapping
EP3506210A1 (en) Handling image content in a virtual reality environment
JP6102181B2 (en) Image processing apparatus, program, and image processing method
JP2019097050A (en) Image reading device and image reading program
JP2019009699A (en) Multi-viewpoint video acquisition device, multi-viewpoint video output device, and multi-viewpoint video system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170102

R150 Certificate of patent or registration of utility model

Ref document number: 6079135

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees