JP2017068697A - Projection control device and program - Google Patents

Projection control device and program Download PDF

Info

Publication number
JP2017068697A
JP2017068697A JP2015195112A JP2015195112A JP2017068697A JP 2017068697 A JP2017068697 A JP 2017068697A JP 2015195112 A JP2015195112 A JP 2015195112A JP 2015195112 A JP2015195112 A JP 2015195112A JP 2017068697 A JP2017068697 A JP 2017068697A
Authority
JP
Japan
Prior art keywords
projection
display object
person
posture
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015195112A
Other languages
Japanese (ja)
Other versions
JP6398938B2 (en
Inventor
建太郎 牛山
Kentaro Ushiyama
建太郎 牛山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2015195112A priority Critical patent/JP6398938B2/en
Publication of JP2017068697A publication Critical patent/JP2017068697A/en
Application granted granted Critical
Publication of JP6398938B2 publication Critical patent/JP6398938B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a projection control device and a program which can display a display object such as characters on a position in a visual line direction, according to a position and a posture of a person, to a projected video, without attaching a projector by a viewer.SOLUTION: A reproduction control device 6 identifies a visual field range of a person according to a position of a head and a posture of the person who is in a prescribed three-dimensional space, and an effective visual field angle, then determines a position, a posture, and a size of a text object arranged in at least a partial area of a projection plane to which a video is projected in a visual field range of the person according to the position of the head and the posture of the person, and the effective visual field angle. The reproduction control device 6 combines the text object with the video projected by the projectors 5a-5c at the determined position, posture and size, and projects the video with which the text object is combined on the projection plane.SELECTED DRAWING: Figure 5

Description

本発明は、投影面に映像を投影する投影システムの技術分野に関する。   The present invention relates to a technical field of a projection system that projects an image on a projection surface.

従来、人物の頭上に方向センサーとプロジェクターとを備えたヘルメットが装着され、方向センサーによりその人物の頭の向きを検出して、プロジェクターによりその方向にある周囲の映像を投射する技術が知られている(例えば、特許文献1)。   Conventionally, a technology is known in which a helmet equipped with a direction sensor and a projector is mounted on a person's head, the direction of the person's head is detected by the direction sensor, and a surrounding image in that direction is projected by the projector. (For example, Patent Document 1).

特開平6−167687号公報JP-A-6-167687

ところで、プロジェクターにより投影面に投影される映像に対し、別の画像として、人物の視線方向の位置に文字を投影したい場合、特許文献1に開示されたように、視聴者である人物がプロジェクターを装着すると、位置や姿勢などの人物の状態に関係なく、人物の頭部の動きに合わせて文字が投影されてしまい、人物が視る文字の視認性が悪い。   By the way, when it is desired to project a character at a position in the gaze direction of the person as another image with respect to the video projected on the projection plane by the projector, as disclosed in Patent Document 1, the person who is a viewer uses the projector. When worn, characters are projected in accordance with the movement of the person's head, regardless of the person's state such as position and posture, and the visibility of the characters seen by the person is poor.

本発明は、以上の点に鑑みてなされたものであり、視聴者がプロジェクターを装着することなく、投影される映像に対し、人物の位置及び姿勢に応じた視線方向の位置に文字等の表示オブジェクトを表示させることが可能な投影制御装置、及びプログラムを提供する。   The present invention has been made in view of the above points, and displays characters and the like at a position in a line-of-sight direction according to the position and posture of a person on a projected image without a projector being worn by a viewer. Provided are a projection control device and a program capable of displaying an object.

上記課題を解決するために、請求項1に記載の発明は、所定の3次元空間にいる人物の頭の位置、姿勢、及び有効視野角から前記人物の視野範囲を特定する特定手段と、前記特定手段により特定された人物の頭の位置、姿勢、及び有効視野角から特定される前記人物の視野範囲内で、投影装置から映像が投影される投影面の少なくとも一部の領域に配置される第1の表示オブジェクトの位置及びサイズを決定する決定手段と、前記決定手段により決定された位置及びサイズで、前記第1の表示オブジェクトを前記投影装置により投影される映像上に合成する合成手段と、前記第1の表示オブジェクトが合成された映像を前記投影面に投影させる投影制御手段と、を備えることを特徴とする。   In order to solve the above-described problem, the invention according to claim 1 is characterized in that the specifying means for specifying the visual field range of the person from the position, posture, and effective viewing angle of the person's head in a predetermined three-dimensional space; Arranged in at least a partial area of the projection surface on which the image is projected from the projection device within the field of view of the person identified from the position, posture, and effective viewing angle of the person's head identified by the identifying means Determining means for determining the position and size of the first display object; and combining means for combining the first display object on the image projected by the projection device at the position and size determined by the determining means; And a projection control means for projecting an image obtained by synthesizing the first display object onto the projection plane.

請求項2に記載の発明は、請求項1に記載の投影制御装置において、前記第1の表示オブジェクトが合成された映像が投影された後、前記特定手段は、前記人物の頭の位置、姿勢、及び有効視野角から前記人物の視野範囲を新たに特定し、前記決定手段は、前記特定手段により新たに特定された人物の頭の位置、姿勢、及び有効視野角から特定される前記人物の視野範囲内で、前記投影装置から映像が投影される投影面の少なくとも一部の領域に配置される第2の表示オブジェクトの位置及びサイズを新たに決定し、前記合成手段は、前記第1の表示オブジェクトの位置、姿勢、及びサイズの少なくとも何れか一つに対応する値の変化量が閾値以上である場合、または前記人物の頭の位置と姿勢の少なくとも何れか一方に対応する値の変化量が閾値以上である場合、前記決定手段により新たに決定された位置及びサイズで、前記第2の表示オブジェクトを、前記第1の表示オブジェクトが合成された前記映像上に合成し、前記投影制御手段は、前記第1の表示オブジェクトと前記第2の表示オブジェクトとが合成された映像を前記投影面に投影させることを特徴とする。   According to a second aspect of the present invention, in the projection control apparatus according to the first aspect, after the video in which the first display object is synthesized is projected, the specifying unit is configured to determine the position and posture of the person's head. And the person's visual field range is newly specified from the effective viewing angle, and the determining means is the position of the person newly specified by the specifying means, the posture of the person, and the effective visual angle of the person specified from the effective viewing angle. Within the field of view, the position and size of the second display object arranged in at least a partial area of the projection surface on which the image is projected from the projection device are newly determined, and the combining means includes the first display unit A change amount of a value corresponding to at least one of the position, posture, and size of a display object is greater than or equal to a threshold value, or a change amount of a value corresponding to at least one of the position and posture of the person's head If it is equal to or greater than the threshold value, the second display object is synthesized on the video with the first display object synthesized at the position and size newly decided by the decision means, and the projection control means A video obtained by combining the first display object and the second display object is projected onto the projection plane.

請求項3に記載の発明は、請求項1に記載の投影制御装置において、前記特定手段は、前記人物の頭の位置、姿勢、及び有効視野角から前記人物の視野範囲を所定時間間隔で特定し、前記決定手段は、前記特定手段により特定された人物の頭の位置、姿勢、及び有効視野角から特定される前記人物の視野範囲内で、前記投影装置から映像が投影される投影面の少なくとも一部の領域に配置される前記第1の表示オブジェクトの位置及びサイズを所定時間間隔で複数回決定し、前記合成手段は、前記決定手段により決定された複数回分の前記位置及びサイズに対応する値の平均値にしたがって、前記第1の表示オブジェクトを前記投影装置により投影される映像上に合成し、前記投影制御手段は、前記第1の表示オブジェクトが合成された映像を前記投影面に投影させることを特徴とする。   According to a third aspect of the present invention, in the projection control apparatus according to the first aspect, the specifying unit specifies the human visual field range at predetermined time intervals from the position, posture, and effective visual angle of the human head. The determining means includes a projection plane on which an image is projected from the projection device within the field of view of the person specified by the position, posture, and effective viewing angle of the person's head specified by the specifying means. The position and size of the first display object arranged in at least a part of the region are determined a plurality of times at predetermined time intervals, and the combining unit corresponds to the position and size of the plurality of times determined by the determining unit. The first display object is synthesized on the video projected by the projection device according to the average value of the values to be projected, and the projection control means is a video in which the first display object is synthesized. And characterized in that projected on the projection plane.

請求項4に記載の発明は、請求項3に記載の投影制御装置において、前記第1の表示オブジェクトが合成された映像が投影された後、前記特定手段は、前記人物の頭の位置、姿勢、及び有効視野角から前記人物の視野範囲を新たに特定し、前記合成手段は、前記第1の表示オブジェクトの位置、姿勢、及びサイズの少なくとも何れか一つに対応する値の変化量が閾値以上である場合、または前記人物の頭の位置と姿勢の少なくとも何れか一方に対応する値の変化量が閾値以上である場合、前記決定手段により決定された最新の位置及びサイズで、前記第1の表示オブジェクトとは異なる第2の表示オブジェクトを、前記第1の表示オブジェクトが合成された前記映像上に合成し、前記投影制御手段は、前記第1の表示オブジェクトと前記第2の表示オブジェクトとが合成された映像を前記投影面に投影させることを特徴とする。   According to a fourth aspect of the present invention, in the projection control apparatus according to the third aspect, after the video in which the first display object is synthesized is projected, the specifying unit is configured to determine the position and posture of the person's head. And the person's visual field range is newly specified from the effective viewing angle, and the synthesizing means is configured such that a change amount of a value corresponding to at least one of the position, posture, and size of the first display object is a threshold value. If it is above, or if the amount of change in the value corresponding to at least one of the head position and posture of the person is greater than or equal to a threshold value, the first position and size determined by the determining means are A second display object different from the first display object is synthesized on the video obtained by synthesizing the first display object, and the projection control means includes the first display object and the second display object. Characterized in that projecting the image and display object is synthesized on the projection plane.

請求項5に記載の発明は、請求項2または4に記載の投影制御装置において、前記第1の表示オブジェクトと前記第2の表示オブジェクトとが合成された映像が投影されてから所定時間後に、前記第1の表示オブジェクトを前記映像から削除する削除手段を更に備え、前記投影制御手段は、前記第1の表示オブジェクトが削除され、且つ、前記第2の表示オブジェクトが合成された映像を前記投影面に投影させることを特徴とする。   According to a fifth aspect of the present invention, in the projection control device according to the second or fourth aspect, a predetermined time after the video in which the first display object and the second display object are synthesized is projected, Deletion means for deleting the first display object from the video is further provided, and the projection control means projects the video in which the first display object is deleted and the second display object is synthesized. Projecting on a surface.

請求項6に記載の発明は、請求項1乃至4の何れか一項に記載の投影制御装置において、前記第1の表示オブジェクトには、前記映像に合成されてから削除されるまでの投影継続時間が対応付けられ、前記第1の表示オブジェクトが合成された映像が投影されてから前記投影継続時間後に、前記第1の表示オブジェクトを前記映像から削除する削除手段と、前記第1の表示オブジェクトが合成された映像が投影された後、前記第1の表示オブジェクトの位置、姿勢、及びサイズの少なくとも何れか一つに対応する値の変化量または前記3次元空間にいる前記人物の頭の位置と姿勢の少なくとも何れか一方に対応する値の変化量が、所定時間以上継続して閾値未満である場合、前記第1の表示オブジェクトに対応付けられている前記投影継続時間を延長する延長手段と、を備えることを特徴とする。   According to a sixth aspect of the present invention, in the projection control device according to any one of the first to fourth aspects, the first display object is continuously projected from the time when it is combined with the video until it is deleted. Delete means for deleting the first display object from the video after the projection duration time after the video in which the time is associated and the first display object is synthesized is projected; and the first display object Is projected, and then the amount of change in the value corresponding to at least one of the position, posture, and size of the first display object, or the position of the head of the person in the three-dimensional space And when the amount of change in the value corresponding to at least one of the orientations is less than the threshold value for a predetermined time or longer, the projection duration associated with the first display object Characterized in that it comprises a and an extension means for extending the.

請求項7に記載の発明は、請求項1乃至6の何れか一項に記載の投影制御装置において、前記第1の表示オブジェクトには、前記投影面への投影タイミングが対応付けられており、前記合成手段は、前記投影タイミングが到来したときに、前記第1の表示オブジェクトを前記映像上に合成し、前記投影制御手段は、前記投影タイミングで前記第1の表示オブジェクトが合成された映像を前記投影面に投影させることを特徴とする。   According to a seventh aspect of the present invention, in the projection control apparatus according to any one of the first to sixth aspects, a projection timing on the projection plane is associated with the first display object, The synthesizing unit synthesizes the first display object on the video when the projection timing arrives, and the projection control unit generates a video obtained by synthesizing the first display object at the projection timing. Projecting on the projection plane is characterized.

請求項8に記載の発明は、所定の3次元空間にいる人物の頭の位置、姿勢、及び有効視野角から前記人物の視野範囲を特定する特定ステップと、前記特定ステップにより特定された人物の頭の位置、姿勢、及び有効視野角から特定される前記人物の視野範囲内で、投影装置から映像が投影される投影面の少なくとも一部の領域に配置される第1の表示オブジェクトの位置及びサイズを決定する決定ステップと、前記決定ステップにより決定された位置及びサイズで、前記第1の表示オブジェクトを前記投影装置により投影される映像上に合成する合成ステップと、前記第1の表示オブジェクトが合成された映像を前記投影面に投影させる投影制御ステップと、をコンピュータに実行させる。   According to an eighth aspect of the present invention, there is provided a specifying step of specifying the field of view of the person from the position, posture, and effective viewing angle of the person in a predetermined three-dimensional space, and the specification of the person specified by the specifying step. The position of the first display object arranged in at least a partial area of the projection plane on which the image is projected from the projection device within the visual field range of the person specified from the position, posture, and effective viewing angle of the head, and A determination step of determining a size, a combining step of combining the first display object on a video projected by the projection device at the position and size determined by the determination step, and the first display object Causing the computer to execute a projection control step of projecting the synthesized image onto the projection plane.

請求項1、8に記載の発明によれば、投影される映像において人物の視線方向の位置に表示オブジェクトを、視認性を保って的確に投影させることができる。   According to the first and eighth aspects of the present invention, it is possible to accurately project a display object at a position in the line-of-sight direction of a person in a projected image while maintaining visibility.

請求項2に記載の発明によれば、人物の視野範囲が短時間で大きく変化した場合であっても、変化した後の視野範囲に迅速に対応でき、変化した後の視野範囲における表示オブジェクトの視認性を向上させることができる。   According to the second aspect of the present invention, even if the visual field range of a person changes greatly in a short time, it is possible to quickly respond to the changed visual field range and the display object in the changed visual field range. Visibility can be improved.

請求項3に記載の発明によれば、表示オブジェクトの移動平均を用いることで表示オブジェクトの視認性を向上することができる。   According to the invention described in claim 3, the visibility of the display object can be improved by using the moving average of the display object.

請求項4に記載の発明によれば、表示オブジェクトの移動平均を用いた場合において、人物の視野範囲が短時間で大きく変化した場合であっても、変化した後の視野範囲に迅速に対応でき、変化した後の視野範囲における表示オブジェクトの視認性を向上させることができる。   According to the fourth aspect of the present invention, when the moving average of the display objects is used, even when the visual field range of the person changes greatly in a short time, the changed visual field range can be quickly dealt with. The visibility of the display object in the visual field range after the change can be improved.

請求項5に記載の発明によれば、人物の視野範囲が短時間で大きく変化した後、さらに変化した場合であっても、人物により視認される必要性が低い視野範囲における表示オブジェクトを迅速に削除することができる。   According to the fifth aspect of the present invention, a display object in a visual field range that is less likely to be visually recognized by a person can be quickly displayed even if the visual field range of the person changes greatly in a short time and then further changes. Can be deleted.

請求項6に記載の発明によれば、人物の視線が留まる時間が長い視野範囲ほど表示オブジェクトの視認性を、より向上することができる。   According to the sixth aspect of the present invention, the visibility of the display object can be further improved in the visual field range in which the person's line of sight stays longer.

請求項7に記載の発明によれば、表示オブジェクトに対応付けられた投影タイミングで効果的に、この表示オブジェクトが合成された映像を投影面に投影させることができる。   According to the seventh aspect of the present invention, it is possible to effectively project a video in which the display object is synthesized on the projection plane at the projection timing associated with the display object.

(A)は、本実施形態の投影システムSの概要構成例を示す図である。(B)は、投影システムSが利用される部屋の上方から見た部屋内に配置された装置の位置関係の一例を表す図である。(A) is a figure which shows the example of a schematic structure of the projection system S of this embodiment. (B) is a figure showing an example of the positional relationship of the apparatus arrange | positioned in the room seen from the upper direction of the room where the projection system S is utilized. 人物の視野、視野角、及び視野範囲を示す概念図である。It is a conceptual diagram which shows the visual field of a person, a visual field angle, and a visual field range. 仮想的な3次元空間の投影面において人物の視野範囲の例を示す概念図である。It is a conceptual diagram which shows the example of the visual field range of a person in the projection surface of virtual three-dimensional space. (A)は、仮想的な3次元空間の投影面に投影された映像に1つの歌詞オブジェクトが合成された例を示す概念図である。(B)は、仮想的な3次元空間の投影面に投影された映像と歌詞オブジェクトを、プロジェクター5a〜5cそれぞれの位置を基準とする2次元平面座標系に投影変換した例を示す概念図である。(A) is a conceptual diagram showing an example in which one lyric object is synthesized with a video projected on a projection plane in a virtual three-dimensional space. (B) is a conceptual diagram showing an example in which a video and a lyric object projected on a projection plane in a virtual three-dimensional space are projected and converted into a two-dimensional plane coordinate system based on the positions of the projectors 5a to 5c. is there. 実施例1において、制御部53により実行される投影制御処理の一例を示すフローチャートである。5 is a flowchart illustrating an example of a projection control process executed by a control unit 53 in Embodiment 1. 実施例2において、制御部53により実行される投影制御処理の一例を示すフローチャートである。10 is a flowchart illustrating an example of a projection control process executed by a control unit 53 in Embodiment 2. (A)は、仮想的な3次元空間の投影面に投影された映像に2つの歌詞オブジェクトが合成された例を示す概念図である。(B)は、仮想的な3次元空間の投影面に投影された映像に合成された2つの歌詞オブジェクトのうち、1つの歌詞オブジェクトが削除されたときの例を示す概念図である。(A) is a conceptual diagram showing an example in which two lyrics objects are combined with an image projected on a projection plane in a virtual three-dimensional space. (B) is a conceptual diagram showing an example when one lyric object is deleted from two lyric objects synthesized with a video projected on a projection plane in a virtual three-dimensional space.

以下、本発明の実施形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[1.投影システムの構成及び動作概要]
はじめに、図1等を参照して、本実施形態の投影システムSの構成及び動作概要について説明する。投影システムSは、図1(A)に示すように、表示・操作デバイス1、楽曲再生装置2、カメラ3、映像再生装置4a〜4c、プロジェクター5a〜5c、及び再生制御装置6等を備えて構成される。ここで、プロジェクター5a〜5cは、投影装置の一例である。再生制御装置6は、投影制御装置の一例である。投影システムSは、例えばカラオケ店舗等のアミューズメント施設における部屋で利用される。表示・操作デバイス1、楽曲再生装置2、及びカメラ3は、それぞれ、有線または無線を介して再生制御装置6と接続される。映像再生装置4a〜4cは、それぞれ、有線LAN(Local AreaNetwork)または無線LAN、及びハブ等を介して再生制御装置6と接続される。プロジェクター5a〜5cは、それぞれ、有線または無線を介して映像再生装置4a〜4cと接続される。また、楽曲再生装置1と再生制御装置6の少なくとも何れか一方には、有線または無線を介してマイクM、及びスピーカSPが接続される。
[1. Outline of Projection System Configuration and Operation]
First, with reference to FIG. 1 etc., the structure and operation | movement outline | summary of the projection system S of this embodiment are demonstrated. As shown in FIG. 1A, the projection system S includes a display / operation device 1, a music playback device 2, a camera 3, video playback devices 4a to 4c, projectors 5a to 5c, a playback control device 6, and the like. Composed. Here, the projectors 5a to 5c are examples of a projection device. The reproduction control device 6 is an example of a projection control device. The projection system S is used in a room in an amusement facility such as a karaoke store. The display / operation device 1, the music playback device 2, and the camera 3 are connected to the playback control device 6 via a wired or wireless connection, respectively. The video reproduction apparatuses 4a to 4c are connected to the reproduction control apparatus 6 via a wired LAN (Local Area Network) or a wireless LAN, a hub, and the like. The projectors 5a to 5c are respectively connected to the video reproduction devices 4a to 4c via wired or wireless. In addition, a microphone M and a speaker SP are connected to at least one of the music playback device 1 and the playback control device 6 via a wired or wireless connection.

表示・操作デバイス1は、ユーザから操作指示を受け付け、その操作指示を示す指示信号を再生制御装置6へ出力する機器である。表示・操作デバイス1には、例えば、表示画面を備えるタッチパネルディスプレイが用いられる。表示・操作デバイス1は、例えば、楽曲再生装置2のリモコンであってもよい。表示・操作デバイス1は、楽曲再生装置2で再生する楽曲の選択候補となる楽曲のタイトル等や、プロジェクター5a〜5cで投影する映像の選択候補となる映像のタイトル等を表示画面に表示する。映像には、静止画像と動画像とがある。動画像は、例えば複数の静止画像の画像フレームが時系列で切り替えられることで表示される。映像の例として、風景映像、アーティストのプロモーション映像、企業または商品の広告映像などが挙げられる。表示・操作デバイス1は、ユーザからの操作指示に応じて選択された楽曲の楽曲ID(識別情報)及び再生指示を再生制御装置6へ送信する。再生制御装置6へ送信された楽曲ID及び再生指示は、例えば、再生制御装置6から楽曲再生装置2へ送信される。こうして、再生指示された楽曲が楽曲再生装置2により再生される。なお、表示・操作デバイス1は、例えば、選択された楽曲の楽曲IDを楽曲再生装置2へ送信してもよい。   The display / operation device 1 is a device that receives an operation instruction from a user and outputs an instruction signal indicating the operation instruction to the reproduction control device 6. As the display / operation device 1, for example, a touch panel display including a display screen is used. The display / operation device 1 may be, for example, a remote controller of the music playback device 2. The display / operation device 1 displays, on the display screen, the titles of music that are candidates for selection of music to be played back by the music playback device 2 and the titles of videos that are candidates for selection of videos projected by the projectors 5a to 5c. The video includes a still image and a moving image. A moving image is displayed, for example, by switching image frames of a plurality of still images in time series. Examples of video include landscape video, artist promotional video, corporate or product advertising video, and the like. The display / operation device 1 transmits the music ID (identification information) and the reproduction instruction of the music selected according to the operation instruction from the user to the reproduction control device 6. The music ID and the reproduction instruction transmitted to the reproduction control device 6 are transmitted from the reproduction control device 6 to the music reproduction device 2, for example. Thus, the music instructed to be played is played back by the music playback device 2. The display / operation device 1 may transmit the music ID of the selected music to the music playback device 2, for example.

また、表示・操作デバイス1は、ユーザからの操作指示に応じて選択された映像の映像ID(識別情報)及び投影指示を再生制御装置6へ送信する。再生制御装置6へ送信された映像IDが示す映像データ及び投影指示は、再生制御装置6から映像再生装置4a〜4cへ送信される。こうして、投影指示された映像が映像再生装置4a〜4cにより再生され、プロジェクター5a〜5cにより投影面に投影される。なお、再生制御装置6へ送信された楽曲IDが示す楽曲に対応する映像データ及び投影指示が、再生制御装置6から映像再生装置4a〜4cへ送信されてもよい。また、楽曲再生装置2により楽曲が再生中である場合、その楽曲の歌詞オブジェクト(表示オブジェクトの一例)が再生制御装置6により映像に合成される。これにより、歌詞オブジェクトが合成された映像が映像再生装置4a〜4cにより再生され、プロジェクター5a〜5cにより投影面に投影される。歌詞オブジェクトは、例えば楽曲の歌詞を表示する歌詞テロップの画像である。   Further, the display / operation device 1 transmits the video ID (identification information) and the projection instruction of the video selected according to the operation instruction from the user to the reproduction control device 6. The video data and the projection instruction indicated by the video ID transmitted to the reproduction control device 6 are transmitted from the reproduction control device 6 to the video reproduction devices 4a to 4c. In this way, the video instructed to be projected is played back by the video playback devices 4a to 4c and projected onto the projection plane by the projectors 5a to 5c. Note that the video data and the projection instruction corresponding to the music indicated by the music ID transmitted to the reproduction control device 6 may be transmitted from the reproduction control device 6 to the video reproduction devices 4a to 4c. When a music is being played back by the music playback device 2, a lyrics object (an example of a display object) of the music is combined with a video by the playback control device 6. As a result, the video combined with the lyrics object is played back by the video playback devices 4a to 4c and projected onto the projection plane by the projectors 5a to 5c. The lyrics object is, for example, an image of a lyrics telop that displays the lyrics of a song.

楽曲再生装置2は、カラオケ等の楽曲を再生する装置である。楽曲再生装置2は、複数の楽曲ファイルを記憶部に記憶する。楽曲ファイルは、楽曲の楽曲データを格納する。各楽曲ファイルには、例えば、楽曲の楽曲IDが対応付けられる。楽曲再生装置2は、表示・操作デバイス1または再生制御装置6から送信された楽曲ID及び再生指示を受信すると、再生指示された楽曲を再生し、そのオーディオ信号をスピーカSPへ出力する。ユーザは、楽曲再生装置2による楽曲の再生中に、投影面に投影された歌詞オブジェクトを見ながら、マイクMを持って歌唱することができる。この場合、楽曲再生装置2は、楽曲のオーディオ信号と、マイクMにより集音されたユーザの歌唱音声信号とをミキシングしてスピーカSPへ出力する。   The music playback device 2 is a device that plays back music such as karaoke. The music reproducing device 2 stores a plurality of music files in the storage unit. The music file stores music data of the music. Each music file is associated with a music ID of the music, for example. When the music reproducing device 2 receives the music ID and the reproduction instruction transmitted from the display / operation device 1 or the reproduction control device 6, the music reproducing device 2 reproduces the music instructed to reproduce and outputs the audio signal to the speaker SP. The user can sing with the microphone M while watching the lyrics object projected on the projection surface while the music playback device 2 plays the music. In this case, the music reproducing device 2 mixes the audio signal of the music and the user's singing voice signal collected by the microphone M, and outputs the mixed signal to the speaker SP.

カメラ3には、例えば、RGBカメラ及び深度カメラが用いられる。カメラ3は、RGBカメラにより、その画角に収まる撮像範囲を連続的に撮像することでRGB画像を連続的に取得する。深度カメラは、赤外線レーザなどによる深度センサーである。カメラ3は、深度カメラにより、その画角に収まる撮像範囲を連続的に撮像することでデプス画像を連続的に取得する。デプス画像は、カメラ3の撮像範囲内の3次元空間における投影面上の各位置の3次元位置座標(X,Y,Z)を示す。例えば、図1(B)の場合、カメラ3の撮像範囲内の3次元空間には人物(例えば、歌詞オブジェクトを見ながら歌唱するユーザ)が存在するので、デプス画像は、カメラ3の撮像範囲内の3次元空間にいる人物の表面上の各位置の3次元位置座標、及び人物の背景にある壁面a〜c上の各位置の3次元位置座標を示す。また、図1(B)の例の場合、カメラ3は、取得したデプス画像から人物を検出(認識)し、検出した人物の輪郭や骨格を形成する各部位の位置を示す部位情報を取得する。カメラ3は、上記取得したRGB画像、上記取得したデプス画像、及び上記検出した人物の部位情報を連続的に再生制御装置6へ送信する。なお、再生制御装置6が、デプス画像から人物を検出し、検出した人物の部位情報を取得してもよい。   As the camera 3, for example, an RGB camera and a depth camera are used. The camera 3 continuously acquires RGB images by continuously capturing an imaging range that falls within the angle of view with the RGB camera. The depth camera is a depth sensor such as an infrared laser. The camera 3 continuously acquires depth images by continuously capturing an imaging range that falls within the angle of view with a depth camera. The depth image indicates the three-dimensional position coordinates (X, Y, Z) of each position on the projection plane in the three-dimensional space within the imaging range of the camera 3. For example, in the case of FIG. 1B, since a person (for example, a user singing while looking at a lyric object) exists in a three-dimensional space within the imaging range of the camera 3, the depth image is within the imaging range of the camera 3. The three-dimensional position coordinates of each position on the surface of the person in the three-dimensional space, and the three-dimensional position coordinates of each position on the wall surfaces a to c in the background of the person. In the case of the example of FIG. 1B, the camera 3 detects (recognizes) a person from the acquired depth image, and acquires part information indicating the position of each part that forms the outline and skeleton of the detected person. . The camera 3 continuously transmits the acquired RGB image, the acquired depth image, and the detected person part information to the reproduction control device 6. Note that the playback control device 6 may detect a person from the depth image and acquire part information of the detected person.

人物の部位情報は、例えば、人物の輪郭や骨格を形成する部位毎に、3次元位置座標(X,Y,Z)が対応付けられた情報であり、デプス画像に示される各位置までの深度から特定することが可能である。具体的には、深度カメラにより取得された各位置までの深度を、人物の輪郭や骨格を形成する各部位の位置を判断するための人物位置パターンデータと比較することにより、人物の輪郭や骨格を形成する各部位が特定される。人物位置パターンデータは、例えば、予め所定のデータベース等に記憶された多数の種類の人物位置パターンから、デプス画像に示される各位置の深度に応じた所定のパターンデータを読み出して用いられる。人物の輪郭や骨格を形成する各部位の例として、頭部、左肩部、右肩部、左肘部、右肘部、左手部、右手部、首部、胴部、腰部、左尻部、右尻部、左膝部、右膝部、左足部、及び右足部等が挙げられる。このような部位情報には、部位の回転角Θが含まれる。部位の回転角Θとは、その部位に連結される他の部位を基準とする回転角Θである。もしくは、部位の回転角Θとは、その部位と間接的に連結される特定の部位の位置を基準とした回転角Θであってもよい。例えば、頭部の回転角Θは、頭部に連結される首部を基準とする回転角Θである。首部の回転角Θは、首部に連結される胴部を基準とする回転角Θである。回転角Θを含む部位情報は(X,Y,Z,Θ)というように表される。なお、人物の頭部の部位情報は、人物の頭を球体としたときの中心座標を示してもよいし、人物の頭の表面上にある複数の部位それぞれの位置座標を示してもよい。   The person part information is, for example, information in which three-dimensional position coordinates (X, Y, Z) are associated with each part forming the outline or skeleton of the person, and the depth to each position indicated in the depth image. It is possible to specify from Specifically, by comparing the depth to each position acquired by the depth camera with person position pattern data for determining the position of each part forming the person's outline or skeleton, Each part that forms is identified. The person position pattern data is used, for example, by reading out predetermined pattern data corresponding to the depth of each position indicated in the depth image from many types of person position patterns stored in advance in a predetermined database or the like. Examples of each part that forms the outline or skeleton of a person include the head, left shoulder, right shoulder, left elbow, right elbow, left hand, right hand, neck, trunk, waist, left buttocks, right Examples include a hip, a left knee, a right knee, a left foot, and a right foot. Such part information includes the rotation angle Θ of the part. The rotation angle Θ of a part is a rotation angle Θ based on another part connected to the part. Alternatively, the rotation angle Θ of a part may be a rotation angle Θ based on the position of a specific part indirectly connected to the part. For example, the rotation angle Θ of the head is a rotation angle Θ based on the neck connected to the head. The rotation angle Θ of the neck is a rotation angle Θ with respect to the body connected to the neck. The part information including the rotation angle Θ is expressed as (X, Y, Z, Θ). The part information of the person's head may indicate the center coordinates when the person's head is a sphere, or may indicate the position coordinates of each of a plurality of parts on the surface of the person's head.

映像再生装置4a〜4cは、投影対象の映像を再生する装置である。映像再生装置4a〜4cは、それぞれ、再生制御装置6から送信された映像データ及び投影指示を受信すると、投影指示された映像を再生し、その画像信号をプロジェクター5a〜5cへ出力する。プロジェクター5a〜5cは、映像再生装置4a〜4cにより再生出力された画像信号に応じた投影光を発光部から発することにより映像を出力する。これにより、プロジェクター5a〜5cは、その投影角に収まる投影範囲の投影面に映像を投影する。図1(B)の例では、プロジェクター5aは、壁面bの一部及び壁面cの一部に映像を投影するように配置されている。プロジェクター5bは、壁面aの一部、壁面b、及び壁面cの一部に映像を投影するように配置されている。プロジェクター5cは、壁面aの一部、及び壁面bの一部に映像を投影するように配置されている。このため、図1(B)の例では、人物及び壁面a〜cが投影面である。   The video playback devices 4a to 4c are devices that play back the video to be projected. Receiving the video data and the projection instruction transmitted from the reproduction control device 6 respectively, the video reproduction apparatuses 4a to 4c reproduce the image instructed to project and output the image signal to the projectors 5a to 5c. The projectors 5a to 5c output images by emitting projection light corresponding to the image signals reproduced and output by the image reproducing devices 4a to 4c from the light emitting unit. As a result, the projectors 5a to 5c project an image on a projection surface within a projection range that falls within the projection angle. In the example of FIG. 1B, the projector 5a is disposed so as to project an image on a part of the wall surface b and a part of the wall surface c. The projector 5b is arranged to project an image on a part of the wall surface a, a wall surface b, and a part of the wall surface c. The projector 5c is disposed so as to project an image on a part of the wall surface a and a part of the wall surface b. For this reason, in the example of FIG. 1B, the person and the wall surfaces a to c are projection planes.

また、図1(B)の例では、プロジェクター5a〜5c間で、映像が投影される投影面の一部が重複している。そのため、プロジェクター5a〜5cそれぞれから投影される映像の一部は重複している。しかし、映像が投影される投影面が、プロジェクター5a〜5c間で重複しないように、投影方向または投影角が設定されてもよい。また、プロジェクター5a〜5cは、それぞれ特定の1つの壁面に映像を投影するものであってもよい。また、投影面は、部屋の天井面及び床面にあってもよい。なお、図1(B)の例では、3つの映像再生装置4a〜4c、及び3つのプロジェクター5a〜5cを示しているが、映像再生装置とプロジェクターは、それぞれ、いくつであってもよい。また、図1(B)の例では、映像再生装置とプロジェクターとは1対1で対応しているが、1対N(Nは2以上の自然数)で対応してもよい。例えば、1つの映像再生装置に複数のプロジェクターが接続されてもよい。映像再生装置が1つである場合、映像再生装置が映像再生手段(ハードウェアまたはソフトウェアにより構成される)として再生制御装置6内に組み込まれていてもよい。また、カメラ3は、それぞれのプロジェクターと対応させて1対1で設けられてもよい。   In the example of FIG. 1B, a part of the projection surface on which the image is projected overlaps between the projectors 5a to 5c. Therefore, some of the images projected from the projectors 5a to 5c are overlapped. However, the projection direction or projection angle may be set so that the projection plane onto which the video is projected does not overlap between the projectors 5a to 5c. Further, each of the projectors 5a to 5c may project an image on one specific wall surface. The projection plane may be on the ceiling surface and floor surface of the room. In the example of FIG. 1B, three video playback devices 4a to 4c and three projectors 5a to 5c are shown. However, any number of video playback devices and projectors may be used. In the example of FIG. 1B, the video playback device and the projector correspond one-to-one, but may correspond to one-to-N (N is a natural number of 2 or more). For example, a plurality of projectors may be connected to one video reproduction device. When there is one video playback device, the video playback device may be incorporated in the playback control device 6 as video playback means (configured by hardware or software). The cameras 3 may be provided in a one-to-one correspondence with the respective projectors.

再生制御装置6は、楽曲の再生制御、及び映像の投影制御等を行う装置である。再生制御装置6は、図1(A)に示すように、IF61a〜61d、記憶部62、及び制御部63を備える。IF61a〜61d、記憶部62、及び制御部63は、バス64に接続されている。IF61aは、楽曲再生装置2と再生制御装置6との間のインターフェースである。IF61bは、表示・操作デバイス1と再生制御装置6との間のインターフェースである。IF61cは、カメラ3と再生制御装置6との間のインターフェースである。IF61dは、LANとのインターフェースである。記憶部62は、例えばハードディスクドライブにより構成される。記憶部62には、OS(Operating System)、及び本発明のプログラム等が記憶される。本発明のプログラムは、後述する投影制御処理をCPUに実行させるプログラムである。投影制御処理は、プロジェクションマッピング処理ともいう。記憶部62には、プロジェクター5a〜5cにより投影される映像の元データとなるオリジナル映像データを格納する映像ファイルを記憶する。   The playback control device 6 is a device that performs music playback control, video projection control, and the like. The playback control device 6 includes IFs 61a to 61d, a storage unit 62, and a control unit 63, as shown in FIG. The IFs 61 a to 61 d, the storage unit 62, and the control unit 63 are connected to the bus 64. The IF 61 a is an interface between the music playback device 2 and the playback control device 6. The IF 61 b is an interface between the display / operation device 1 and the reproduction control device 6. The IF 61 c is an interface between the camera 3 and the playback control device 6. The IF 61d is an interface with the LAN. The storage unit 62 is configured by, for example, a hard disk drive. The storage unit 62 stores an OS (Operating System), the program of the present invention, and the like. The program of the present invention is a program that causes a CPU to execute a projection control process described later. The projection control process is also called a projection mapping process. The storage unit 62 stores a video file that stores original video data serving as original data of videos projected by the projectors 5a to 5c.

また、記憶部62は、歌詞オブジェクトデータを楽曲IDに対応付けて楽曲毎に記憶する。歌詞オブジェクトデータには、例えば、楽曲の歌詞を示す歌詞データ(テキストデータ)、及び歌詞オブジェクトの表示タイミング(投影タイミングの一例)を示す表示タイミングデータなどが含まれる。1つの楽曲の歌詞は複数のフレーズから構成されるため、歌詞オブジェクトデータはフレーズ毎に記憶される。1つのフレーズは、複数の文字列から構成される。なお、歌詞データは、楽曲の歌詞を表示する歌詞オブジェクトの画像データであってもよい。表示タイミングデータが示す表示タイミングは、例えば、楽曲の再生開始時点からの経過時間で表される。また、歌詞オブジェクトデータには、歌詞の歌唱位置を歌詞の文の表示色の変化により示す色変えタイミングを含んでもよい。   Further, the storage unit 62 stores the lyric object data in association with the music ID for each music. The lyric object data includes, for example, lyric data (text data) indicating the lyrics of music and display timing data indicating the display timing of the lyric object (an example of projection timing). Since the lyrics of one song are composed of a plurality of phrases, the lyrics object data is stored for each phrase. One phrase is composed of a plurality of character strings. The lyric data may be image data of a lyric object that displays the lyrics of the music. The display timing indicated by the display timing data is represented, for example, by the elapsed time from the playback start point of the music. The lyric object data may include a color change timing that indicates the singing position of the lyric by changing the display color of the lyrics sentence.

制御部63は、コンピュータとしてのCPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)等により構成される。制御部63は、本発明の特定手段、決定手段、合成手段、削除手段、延長手段、及び投影制御手段の一例である。制御部63は、本発明のプログラムに従って投影制御処理を実行する。具体的には。制御部63は、所定の3次元空間にいる人物の頭の位置、姿勢、及び有効視野角を特定する。ここで、所定の3次元空間は、制御部63により認識される仮想的な3次元空間であり、カメラ3から取得されたデプス画像が示す3次元位置座標から特定される。換言すると、この3次元空間は、人物が投影された映像を観察可能な範囲の3次元空間である。人物の頭の位置は、カメラ3から取得された「人物の頭の部位情報」が示す3次元位置座標により特定される。人物の有効視野角は、例えば予め記憶部62に記憶された一般的な有効視野角から特定される。   The control unit 63 includes a CPU (Central Processing Unit) as a computer, a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The control unit 63 is an example of a specifying unit, a determining unit, a combining unit, a deleting unit, an extending unit, and a projection control unit of the present invention. The control unit 63 executes projection control processing according to the program of the present invention. In particular. The control unit 63 specifies the position, posture, and effective viewing angle of the person's head in a predetermined three-dimensional space. Here, the predetermined three-dimensional space is a virtual three-dimensional space recognized by the control unit 63, and is specified from the three-dimensional position coordinates indicated by the depth image acquired from the camera 3. In other words, this three-dimensional space is a three-dimensional space in a range in which an image on which a person is projected can be observed. The position of the person's head is specified by the three-dimensional position coordinates indicated by “part information of the person's head” acquired from the camera 3. The effective viewing angle of the person is specified from a general effective viewing angle stored in advance in the storage unit 62, for example.

人物の頭の姿勢は、例えば、人物の視線方向と、人物の視線方向に延びる軸を中心軸としたときに中心軸周りに頭が回転したときの回転角ψとにより特定される。この回転角ψは、人物が首を傾げたときを考慮したものである。これは、人物の視線方向が同じでも、回転角ψが異なると、後述する視野角が変化し視野範囲が変わるからである。ただし、人物の視線方向が同じで回転角ψが変化する場合の視野範囲の変化は少ないので、回転角ψを考慮しなくてもよい。この場合、人物の頭の姿勢は、例えば、人物の視線方向のみにより特定される。人物の視線方向は、人物の目の位置から垂直(例えば、顔の表面から垂直)に延びる法線ベクトルとすることができる。この法線ベクトルは、例えば、頭部の回転角Θから算出される。ここで、頭部の回転角Θは、頭部に連結される首部の回転角Θを基準として算出される。首部の回転角Θは、胴部iの回転角Θを基準とする回転角である。つまり、頭部の回転角Θは、他の部位の回転角Θに基づいて所定の演算により算出される。このため、より多くの部位(例えば、左足部及び右足部から頭部まで)の部位情報が得られれば、それだけ精度の高い回転角Θを得ることができ、その結果、上記法線ベクトルの精度も向上する。また、人物の目の位置は、人物の頭部から推定することができる。或いは、人物の頭部の部位情報が、人物の頭の表面上にある複数の部位それぞれの3次元位置座標を示し、例えば鼻等の顔の特定の部位の位置が特定可能であるとき、人物の目の位置は、鼻等の顔の特定の部位から推定することができる。また、この場合、上述した回転角ψも推定することができる。或いは、人物の目の位置は、カメラ3から取得されたRGB画像から人物の顔を検出することで推定することもできる。人物の顔の検出には、例えば、Viola-Jonesの検出アルゴリズム、または顔のパーツ(目,鼻,口)検出や肌色検出等のアルゴリズムが用いられる。或いは、人物の目の位置は、マイクM等の人物の所持物の位置から推定してもよい。なお、頭部、左肩部、及び右肩部の部位情報を用いて、頭部の位置と左肩部の位置との間のベクトルと、頭部の位置と右肩部の位置との間のベクトルとの外積を求めることで法線ベクトルを算出してもよい。   The posture of the person's head is specified by, for example, the person's line-of-sight direction and the rotation angle ψ when the head rotates around the center axis when the axis extending in the person's line-of-sight direction is the central axis. This rotation angle ψ is taken into consideration when the person tilts his / her neck. This is because even if the viewing direction of the person is the same, if the rotation angle ψ is different, the viewing angle described later changes and the viewing range changes. However, there is little change in the visual field range when the viewing direction of the person is the same and the rotation angle ψ changes, so the rotation angle ψ does not have to be considered. In this case, the posture of the person's head is specified only by the person's line-of-sight direction, for example. The line-of-sight direction of the person can be a normal vector extending vertically from the position of the person's eyes (for example, perpendicular to the face surface). This normal vector is calculated from the rotation angle Θ of the head, for example. Here, the rotation angle Θ of the head is calculated with reference to the rotation angle Θ of the neck connected to the head. The rotation angle Θ of the neck is a rotation angle based on the rotation angle Θ of the body i. That is, the rotation angle Θ of the head is calculated by a predetermined calculation based on the rotation angle Θ of other parts. For this reason, if more part information (for example, from the left foot part and the right foot part to the head part) can be obtained, a highly accurate rotation angle Θ can be obtained, and as a result, the accuracy of the normal vector can be obtained. Will also improve. The position of the person's eyes can be estimated from the person's head. Alternatively, when the part information of the person's head indicates the three-dimensional position coordinates of each of a plurality of parts on the surface of the person's head, and the position of a specific part of the face such as the nose can be specified, The eye position can be estimated from a specific part of the face such as the nose. In this case, the rotation angle ψ described above can also be estimated. Alternatively, the position of the person's eyes can be estimated by detecting the face of the person from the RGB image acquired from the camera 3. For detecting a human face, for example, a Viola-Jones detection algorithm, an algorithm such as face part (eyes, nose, mouth) detection or skin color detection is used. Alternatively, the position of the person's eyes may be estimated from the position of the personal belongings such as the microphone M. It should be noted that a vector between the position of the head and the position of the left shoulder and a vector between the position of the head and the position of the right shoulder using the part information of the head, the left shoulder, and the right shoulder. The normal vector may be calculated by obtaining the outer product of.

次に、制御部63は、上記特定した人物の頭の位置、人物の姿勢、及び有効視野角から人物の視野範囲を特定する。ここで、人物の視野は、水平視野と鉛直視野から定まる。水平視野と鉛直視野には、それぞれ、図2(A),(B)に示すように、人物の視線方向を基準として、安定注視野角により決まる安定注視野と、有効視野角により決まる有効視野と、弁別視野角により決まる弁別視野とがある。なお、有効視野角は、一般に、水平視野で例えば30度、鉛直視野で例えば20度が望ましいとされている。人物の視野は、人物の頭の姿勢によって変わる。例えば、図2(C)に示すように人物が上方を見上げたとき、図2(D)に示すように人物が下方を見下げたとき、人物が水平方向に左または右を向いたとき、さらには、人物が首を傾げたときに変わる。そして、投影面に投影される視野範囲は、図2(F)に示すように、人物の水平視野及び鉛直視野に収まる範囲となる。本実施形態では、制御部63は、人物の頭の部位情報に基づき仮想的な3次元空間に配置された人物の頭の位置から投影面までの距離と、この人物の姿勢及び有効視野角とから、仮想的な3次元空間における投影面上の人物の視野範囲を特定する。このような人物の視野範囲は、仮想的な3次元空間に配置された人物の頭の位置から投影面までの距離が長いほど広くなる。図3(A)の例では、人物の頭の位置P1は、人物の頭の位置P2よりも投影面までの距離が長い。そのため、位置P1に対応する投影範囲H1は、位置P2に対応する投影範囲H2より広くなっている。また、人物の視野範囲は、人物の視線方向の変化に応じて変化する。図3(B)の例では、人物の位置P1からの視線方向が人物の位置P3からの視線方向に変化している。このため、位置P1に対応する投影範囲H1は、位置P3に対応する投影範囲H3に移動している。   Next, the control unit 63 specifies the field of view of the person from the position of the head of the specified person, the posture of the person, and the effective viewing angle. Here, the visual field of a person is determined from a horizontal visual field and a vertical visual field. As shown in FIGS. 2A and 2B, the horizontal field of view and the vertical field of view each have a stable field of view determined by a stable field of view and an effective field of view determined by an effective field of view with respect to the direction of the line of sight of the person. And a discrimination field determined by the discrimination field angle. In general, the effective viewing angle is preferably 30 degrees for a horizontal field of view and 20 degrees for a vertical field of view, for example. A person's field of view changes depending on the posture of the person's head. For example, when the person looks up upward as shown in FIG. 2C, when the person looks down downward as shown in FIG. 2D, when the person faces left or right in the horizontal direction, Changes when the person tilts his head. Then, as shown in FIG. 2F, the visual field range projected on the projection plane is a range that fits in the horizontal visual field and vertical visual field of the person. In the present embodiment, the control unit 63 determines the distance from the position of the person's head placed in the virtual three-dimensional space to the projection plane based on the part information of the person's head, the posture of the person, and the effective viewing angle. From this, the visual field range of the person on the projection plane in the virtual three-dimensional space is specified. The visual field range of such a person becomes wider as the distance from the position of the head of the person arranged in the virtual three-dimensional space to the projection plane becomes longer. In the example of FIG. 3A, the position P1 of the person's head has a longer distance to the projection plane than the position P2 of the person's head. Therefore, the projection range H1 corresponding to the position P1 is wider than the projection range H2 corresponding to the position P2. In addition, the visual field range of the person changes according to the change in the gaze direction of the person. In the example of FIG. 3B, the line-of-sight direction from the person position P1 changes to the line-of-sight direction from the person position P3. For this reason, the projection range H1 corresponding to the position P1 has moved to the projection range H3 corresponding to the position P3.

次に、制御部63は、上記特定した人物の視野範囲内で、プロジェクター5a〜5cから映像が投影される投影面の少なくとも一部の領域に配置される歌詞オブジェクトの位置、姿勢及びサイズ(スケール)を決定する。ここで、プロジェクター5a〜5cから映像が投影される投影面は、仮想的な3次元空間における投影面として制御部63により認識されている。歌詞オブジェクトの位置は、例えば、上述したように投影面上で特定された視野範囲の中心の3次元位置座標として決定される。歌詞オブジェクトの姿勢は、例えば歌詞オブジェクトの面(つまり、歌詞オブジェクトが配置される投影面)から垂直に延びる法線ベクトルとして決定される。なお、歌詞オブジェクトの姿勢は、必ずしも決定されなくてもよい。つまり、歌詞オブジェクトの位置及びサイズだけが決定されるように構成してもよい。歌詞オブジェクトのサイズは、歌詞オブジェクトの形状により異なる。歌詞オブジェクトの形状は特に限定されるものではないが、例えば矩形、円形、楕円形等に予め設定される。例えば、歌詞オブジェクトの形状が矩形である場合、歌詞オブジェクトが視野範囲内に収まるように、歌詞オブジェクトの幅及び高さがサイズとして決定される。また、例えば、歌詞オブジェクトの形状が円形である場合、歌詞オブジェクトが視野範囲内に収まるように、歌詞オブジェクトの半径がサイズとして決定される。なお、歌詞オブジェクトが視野範囲内に収まるようにとは、歌詞オブジェクトの全ての領域が視野範囲内に完全に収まらなくともよく、歌詞オブジェクトに表示される歌詞が視野範囲内に収まればよい。   Next, the control unit 63 positions, postures, and sizes (scales) of the lyric objects arranged in at least a partial area of the projection plane on which the images are projected from the projectors 5a to 5c within the specified visual field range of the person. ). Here, the projection surfaces on which the images are projected from the projectors 5a to 5c are recognized by the control unit 63 as projection surfaces in a virtual three-dimensional space. The position of the lyric object is determined as, for example, the three-dimensional position coordinate of the center of the visual field range specified on the projection plane as described above. The posture of the lyric object is determined, for example, as a normal vector extending vertically from the surface of the lyric object (that is, the projection surface on which the lyric object is arranged). Note that the posture of the lyrics object is not necessarily determined. In other words, only the position and size of the lyrics object may be determined. The size of the lyric object differs depending on the shape of the lyric object. The shape of the lyrics object is not particularly limited, but is set in advance to, for example, a rectangle, a circle, an ellipse, or the like. For example, when the shape of the lyric object is rectangular, the width and height of the lyric object are determined as the size so that the lyric object is within the visual field range. Further, for example, when the shape of the lyric object is circular, the radius of the lyric object is determined as the size so that the lyric object is within the visual field range. Note that the lyrics object does not have to be completely within the visual field range so that the lyrics object can be within the visual field range, and the lyrics displayed in the lyrics object need only be within the visual field range.

次に、制御部63は、上記決定した位置、姿勢及びサイズにしたがって、歌詞オブジェクトをプロジェクター5a〜5cにより投影される映像上に合成する。ここで、プロジェクター5a〜5cにより投影される映像は、投影指示された映像である。例えば、制御部63は、図4(A)に示すように、映像Vを仮想的な3次元空間における投影面に仮想的に投影し、投影された映像V上に、上記決定した位置、姿勢及びサイズの歌詞オブジェクトOB1を配置(例えば重畳)することで映像V上に歌詞オブジェクトを合成する。この合成において、歌詞オブジェクトを映像Vに合わせて変形するように構成してもよい。   Next, the control unit 63 synthesizes the lyrics object on the video projected by the projectors 5a to 5c according to the determined position, posture, and size. Here, the images projected by the projectors 5a to 5c are images instructed to be projected. For example, as shown in FIG. 4A, the control unit 63 virtually projects the video V onto the projection plane in the virtual three-dimensional space, and the determined position and orientation on the projected video V. The lyric object is synthesized on the video V by arranging (for example, superimposing) the lyric object OB1 of the size. In this composition, the lyric object may be deformed according to the video V.

次に、制御部63は、歌詞オブジェクトOB1が合成された映像Vの映像データ及び投影指示を映像再生装置4a〜4cへ送信することで、このような映像Vをプロジェクター5a〜5cにより実際の投影面に投影させる。これにより、投影される映像において人物の視線方向の位置に歌詞オブジェクトを、視認性を保って的確に投影(表示)させることができる。なお、本実施形態では、映像Vは3つのプロジェクター5a〜5cにより投影される。このため、制御部63は、歌詞オブジェクトOB1が合成された映像Vから、プロジェクター5a〜5cそれぞれにより投影される3つの映像を生成する。また、歌詞オブジェクトOB1が合成された映像Vは、3次元座標系で表される3次元データである。このため、制御部63は、図4(B)に示すように、プロジェクター5a〜5cそれぞれに対応する3つの映像(3次元データ)を、プロジェクター5a〜5cそれぞれの位置(つまり、3次元空間における位置)を基準とする2次元平面座標系に投影変換してから、それぞれの映像の映像データを映像再生装置4a〜4cそれぞれへ送信することになる。例えば、制御部23は、例えば射影変換するための行列を用いて、3次元座標系における映像の座標を、プロジェクター5a〜5cの2次元平面座標系の座標に投影変換する。   Next, the control unit 63 transmits the video data of the video V combined with the lyric object OB1 and the projection instruction to the video playback devices 4a to 4c, so that such video V is actually projected by the projectors 5a to 5c. Project onto a surface. As a result, it is possible to accurately project (display) the lyric object at a position in the gaze direction of the person in the projected image while maintaining visibility. In the present embodiment, the video V is projected by the three projectors 5a to 5c. Therefore, the control unit 63 generates three videos projected by the projectors 5a to 5c from the video V in which the lyrics object OB1 is synthesized. In addition, the video V in which the lyric object OB1 is synthesized is three-dimensional data represented by a three-dimensional coordinate system. For this reason, as shown in FIG. 4B, the control unit 63 converts the three images (three-dimensional data) corresponding to the projectors 5a to 5c to the positions of the projectors 5a to 5c (that is, in the three-dimensional space). Then, the image data of each image is transmitted to each of the image reproducing devices 4a to 4c. For example, the control unit 23 projects and converts the coordinates of the video in the three-dimensional coordinate system into the coordinates of the two-dimensional planar coordinate system of the projectors 5a to 5c using, for example, a matrix for projective transformation.

ところで、人物の視野範囲は、人物の頭の位置または人物の姿勢の変化に応じて変化する。このため、制御部63は、所定時間間隔で特定した人物の頭の位置、人物の姿勢、及び有効視野角から、人物の視野範囲を所定時間間隔で特定するとよい。この場合、制御部63は、人物の視野範囲を特定する度に、新たに特定した人物の視野範囲内で上記歌詞オブジェクトの位置、姿勢及びサイズを新たに決定する。そして、制御部63は、既に合成されている歌詞オブジェクトOB1に代えて、新たに決定した位置、姿勢及びサイズで歌詞オブジェクトを映像V上に合成することになる。これにより、人物の視野範囲の変化に応じて、プロジェクター5a〜5cにより投影される歌詞オブジェクトの投影位置は変化する。つまり、歌詞オブジェクトは、投影面に投影された映像上で移動することになる。しかし、人物によっては、常に頭を動かしている場合があり、この場合、人物の視野範囲の変化に応じて、投影される歌詞オブジェクトの投影位置が変化、つまり、歌詞オブジェクトが移動すると、その人物は却って歌詞を見難くなる。このため、人物の少しの動きが歌詞オブジェクトに反映されないように、歌詞オブジェクトの移動平均を用いるとよい。この場合、後述するように、制御部63は、所定時間間隔で決定された複数回分の歌詞オブジェクトの位置、姿勢及びサイズに対応する値の平均値にしたがって歌詞オブジェクトを映像V上に配置することになる。これにより、歌詞オブジェクトの移動平均を用いることで歌詞の視認性を向上することができる。   By the way, the visual field range of a person changes according to a change in the position of the person's head or the posture of the person. Therefore, the control unit 63 may specify the person's visual field range at the predetermined time interval from the position of the person's head, the posture of the person, and the effective viewing angle specified at the predetermined time interval. In this case, each time the person's visual field range is specified, the control unit 63 newly determines the position, posture, and size of the lyrics object within the newly specified person's visual field range. Then, the control unit 63 synthesizes the lyric object on the video V with the newly determined position, posture, and size instead of the already synthesized lyric object OB1. Thereby, the projection position of the lyric object projected by the projectors 5a to 5c changes according to the change in the visual field range of the person. That is, the lyric object moves on the image projected on the projection plane. However, depending on the person, the head may always be moved. In this case, if the projected position of the projected lyric object changes according to the change in the visual field range of the person, that is, if the lyric object moves, the person is moved. On the contrary, it becomes difficult to see the lyrics. For this reason, it is preferable to use a moving average of the lyric object so that a slight movement of the person is not reflected in the lyric object. In this case, as will be described later, the control unit 63 arranges the lyric object on the video V in accordance with the average value of the values corresponding to the position, posture, and size of the lyric object for a plurality of times determined at predetermined time intervals. become. Thereby, the visibility of the lyrics can be improved by using the moving average of the lyrics object.

[2.再生制御装置6の投影制御処理]
次に、本実施形態の再生制御装置6の投影制御処理について、実施例1と実施例2とに分けて説明する。なお、以下の説明では、投影制御処理の開始前または開始後に、再生制御装置6は、ユーザからの操作指示に応じて選択された楽曲の楽曲ID及び再生指示を表示・操作デバイス1から受信し、受信した楽曲ID及び再生指示を楽曲再生装置2へ送信することで、再生指示された楽曲が楽曲再生装置2により再生されるものとする。
[2. Projection Control Processing of Reproduction Control Device 6]
Next, the projection control process of the reproduction control apparatus 6 of the present embodiment will be described separately for Example 1 and Example 2. In the following description, before or after the start of the projection control process, the playback control device 6 receives from the display / operation device 1 the music ID and playback instruction of the music selected in accordance with the operation instruction from the user. The received music ID and playback instruction are transmitted to the music playback device 2 so that the music playback device 2 plays back the music for which playback has been instructed.

(実施例1)
先ず、図5等を参照して、実施例1の投影制御処理について説明する。再生制御装置6の制御部63は、例えば部屋に入ったユーザからの選択指示に応じて選択された映像Vの映像ID及び投影指示を、表示・操作デバイス1から受信した場合、図5に示す投影制御処理を開始する。このように、ユーザにより選択された映像が投影対象となる。或いは、投影対象となる映像Vは、再生指示された楽曲に対応する映像であってもよい。
Example 1
First, the projection control process of the first embodiment will be described with reference to FIG. When the control unit 63 of the reproduction control device 6 receives, for example, the video ID and the projection instruction of the video V selected according to the selection instruction from the user who entered the room from the display / operation device 1, the control unit 63 illustrated in FIG. The projection control process is started. In this way, the video selected by the user is the projection target. Alternatively, the video V to be projected may be a video corresponding to a music for which playback is instructed.

図5に示す投影制御処理が開始されると、歌詞オブジェクトの位置、姿勢及びサイズを保持するためのキューがRAMの所定領域に生成される。ここで、キューとは、先入れ先出し(First In First Out)方式で、N(Nは2以上の自然数)個のデータを保持するデータ構造(換言すると、テーブル)を意味する。本実施形態の場合、歌詞オブジェクトの位置、姿勢及びサイズの組が1つのデータとしてキューに保持される。   When the projection control process shown in FIG. 5 is started, a queue for holding the position, posture and size of the lyrics object is generated in a predetermined area of the RAM. Here, the queue means a data structure (in other words, a table) that holds N (N is a natural number of 2 or more) pieces of data in a first-in first-out (First In First Out) system. In the case of the present embodiment, a set of the position, orientation and size of the lyrics object is held in the queue as one data.

次いで、制御部63は、カメラ3の撮像範囲内の3次元空間におけるデプス画像をカメラ3から取得し、取得したデプス画像に基づく仮想的な3次元空間における投影面に、投影対象となる映像Vを投影する(ステップS1)。次いで、制御部63は、投影制御処理を終了するか否かを判定する(ステップS2)。例えば、制御部63は、表示・操作デバイス1から終了指示を受信した場合、投影制御処理を終了すると判定し(ステップS2:YES)、図5に示す投影制御処理を終了する。一方、制御部31は、投影制御処理を終了しないと判定した場合(ステップS2:NO)、ステップS3へ進む。   Next, the control unit 63 acquires a depth image in the three-dimensional space within the imaging range of the camera 3 from the camera 3, and the video V to be projected on the projection plane in the virtual three-dimensional space based on the acquired depth image. Is projected (step S1). Next, the control unit 63 determines whether or not to end the projection control process (step S2). For example, when receiving an end instruction from the display / operation device 1, the control unit 63 determines to end the projection control process (step S <b> 2: YES), and ends the projection control process illustrated in FIG. 5. On the other hand, when it determines with the control part 31 not complete | finishing a projection control process (step S2: NO), it progresses to step S3.

ステップS3では、制御部63は、カメラ3の撮像範囲内の3次元空間における人物の部位情報等を取得する。次いで、制御部63は、ステップS3で取得した人物の部位情報等から、上述したように、人物の頭の位置及び姿勢を取得する(ステップS4)。次いで、制御部63は、ステップS4で取得した人物の頭の位置及び姿勢を、上記仮想的な3次元空間上の値に変換することで仮想的な3次元空間における人物の頭(例えば、目)の位置及び姿勢を特定し、且つ上述した有効視野角を特定する(ステップS5)。そして、制御部63は、人物の頭の位置及び姿勢と、有効視野角とから、視野範囲を特定する。   In step S <b> 3, the control unit 63 acquires human part information in a three-dimensional space within the imaging range of the camera 3. Next, as described above, the control unit 63 acquires the position and posture of the person's head from the part information and the like of the person acquired in step S3 (step S4). Next, the control unit 63 converts the position and posture of the person's head acquired in step S4 into values in the virtual three-dimensional space, thereby making the person's head (for example, the eyes in the virtual three-dimensional space). ) And the above-mentioned effective viewing angle (step S5). And the control part 63 specifies a visual field range from the position and attitude | position of a person's head, and an effective viewing angle.

次いで、制御部63は、現在時刻において表示させる歌詞があるか否かを判定する(ステップS6)。例えば、制御部63は、楽曲再生装置2により楽曲が再生中であるかを判定し、再生中である場合、再生中の楽曲の歌詞に対応する歌詞オブジェクトデータを記憶部62から取得する。制御部63は、取得した歌詞オブジェクトデータの表示タイミングデータを参照し、現在時刻が、表示タイミングデータが示す表示タイミングである場合、現在時刻において表示させる歌詞があると判定し(ステップS6:YES)、ステップS7へ進む。つまり、制御部63は、取得した歌詞オブジェクトデータの歌詞データが示す歌詞を表示する歌詞オブジェクトOB1に対応付けられる表示タイミングが到来したときに、以降の処理で、歌詞オブジェクトOB1を映像V上に合成し、歌詞オブジェクトOB1が合成された映像Vを投影面に投影させることになる。これにより、歌詞オブジェクトOB1に対応付けられた表示タイミングで効果的に、この歌詞オブジェクトOB1が合成された映像Vを投影面に投影させることができる。一方、制御部63は、現在時刻において表示させる歌詞がないと判定した場合(ステップS6:NO)、ステップS13へ進む。   Next, the control unit 63 determines whether there is a lyrics to be displayed at the current time (step S6). For example, the control unit 63 determines whether or not the music is being played by the music playback device 2. If the music is being played, the control unit 63 acquires the lyrics object data corresponding to the lyrics of the music being played from the storage unit 62. The control unit 63 refers to the display timing data of the acquired lyrics object data, and determines that there is a lyrics to be displayed at the current time when the current time is the display timing indicated by the display timing data (step S6: YES). The process proceeds to step S7. That is, when the display timing associated with the lyrics object OB1 that displays the lyrics indicated by the lyrics data of the acquired lyrics object data has arrived, the control unit 63 combines the lyrics object OB1 on the video V in the subsequent processing. Then, the video V synthesized with the lyrics object OB1 is projected onto the projection plane. Thereby, the video V in which the lyrics object OB1 is synthesized can be effectively projected onto the projection plane at the display timing associated with the lyrics object OB1. On the other hand, when it is determined that there is no lyrics to be displayed at the current time (step S6: NO), the control unit 63 proceeds to step S13.

ステップS7では、制御部63は、ステップS5で特定した人物の頭(例えば、目)の位置、人物の姿勢、及び有効視野角から特定される人物の視野範囲内で、仮想的な3次元空間における投影面に配置される歌詞オブジェクトの位置、姿勢及びサイズ(スケール)を決定する。つまり、人物の頭(例えば、目)の位置、人物の姿勢、及び有効視野角より、それに最も相応しい歌詞オブジェクトの位置、姿勢及びサイズが仮想的な3次元空間上で決定される。次いで、制御部63は、ステップS7で決定した位置、姿勢及びサイズの組を1つのデータとしてキューに追加する(ステップS8)。   In step S7, the control unit 63 creates a virtual three-dimensional space within the human field of view specified by the position of the person's head (for example, eyes), the posture of the person specified in step S5, and the effective viewing angle. The position, posture, and size (scale) of the lyric object arranged on the projection plane in are determined. That is, the position, posture, and size of the lyric object that are most appropriate for the position are determined in a virtual three-dimensional space from the position of the person's head (for example, the eyes), the posture of the person, and the effective viewing angle. Next, the control unit 63 adds the set of the position, posture, and size determined in step S7 to the queue as one data (step S8).

次いで、制御部63は、キューに保持されたデータの数がNより大きいか否かを判定する(ステップS9)。制御部63は、キューに保持されたデータの数がNより大きいと判定した場合(ステップS9:YES)、キューから最も古いデータを削除し(ステップS10)、ステップS11へ進む。一方、制御部63は、キューに保持されたデータの数がNより大きくないと判定した場合(ステップS9:NO)、ステップS11へ進む。   Next, the control unit 63 determines whether or not the number of data held in the queue is greater than N (step S9). When it is determined that the number of data held in the queue is greater than N (step S9: YES), the control unit 63 deletes the oldest data from the queue (step S10), and proceeds to step S11. On the other hand, when it is determined that the number of data held in the queue is not greater than N (step S9: NO), the control unit 63 proceeds to step S11.

ステップS11では、制御部63は、キューに保持されたデータの平均値を、現在の歌詞オブジェクトの位置、姿勢及びサイズとして決定する。キューに保持されたデータの平均値とは、キュー内の位置、姿勢及びサイズそれぞれに対応する値の平均値である。つまり、歌詞オブジェクトの移動平均が算出される。次いで、制御部63は、ステップS11で決定した位置、姿勢及びサイズで上記取得した歌詞オブジェクトデータの歌詞データが示す歌詞を表示する歌詞オブジェクトOB1(例えば画像)を生成し、図4(A)に示すように、仮想的な3次元空間における投影面に投影された映像V上に、生成した歌詞オブジェクトOB1を合成し(ステップS12)、ステップS16へ進む。   In step S11, the control unit 63 determines the average value of the data held in the queue as the current position, posture, and size of the lyrics object. The average value of data held in the queue is an average value of values corresponding to the position, posture, and size in the queue. That is, the moving average of the lyrics object is calculated. Next, the control unit 63 generates a lyrics object OB1 (for example, an image) that displays the lyrics indicated by the lyrics data of the acquired lyrics object data at the position, posture, and size determined in step S11. As shown, the generated lyric object OB1 is synthesized on the video V projected on the projection plane in the virtual three-dimensional space (step S12), and the process proceeds to step S16.

一方、ステップS13では、制御部63は、仮想的な3次元空間における投影面に投影された映像V上に配置された歌詞オブジェクトOB1があるか否かを判定する。制御部63は、映像V上に配置された歌詞オブジェクトOB1があると判定した場合(ステップS13:YES)、映像V上に配置された歌詞オブジェクトOB1を仮想的な3次元空間上から削除し(ステップS14)、ステップS15へ進む。一方、制御部63は、映像V上に配置された歌詞オブジェクトOB1がないと判定した場合(ステップS13:NO)、ステップS15へ進む。ステップS15では、制御部63は、キューに保持されている全データを削除することでキューを空にし、ステップS16へ進む。   On the other hand, in step S13, the control unit 63 determines whether there is a lyrics object OB1 arranged on the video V projected on the projection plane in the virtual three-dimensional space. When it is determined that there is the lyrics object OB1 arranged on the video V (step S13: YES), the control unit 63 deletes the lyrics object OB1 arranged on the video V from the virtual three-dimensional space ( The process proceeds to step S14) and step S15. On the other hand, when the control unit 63 determines that there is no lyrics object OB1 arranged on the video V (step S13: NO), the control unit 63 proceeds to step S15. In step S15, the control unit 63 empties the queue by deleting all data held in the queue, and proceeds to step S16.

ステップS16では、制御部63は、仮想的な3次元空間に投影された映像Vをプロジェクター5a〜5cそれぞれの位置を基準とする2次元平面座標系に投影変換し、それぞれの映像の映像データを映像再生装置4a〜4cそれぞれへ送信し、ステップS2に戻る。なお、ステップS12で歌詞オブジェクトOB1が映像Vに合成されている場合、歌詞オブジェクトOB1が合成された映像Vがプロジェクター5a〜5cにより投影面に投影されることになる。   In step S16, the control unit 63 projects and converts the video V projected in the virtual three-dimensional space into a two-dimensional plane coordinate system based on the positions of the projectors 5a to 5c, and converts the video data of each video. The video data is transmitted to each of the video reproduction devices 4a to 4c, and the process returns to step S2. When the lyrics object OB1 is synthesized with the video V in step S12, the video V with the lyrics object OB1 synthesized is projected onto the projection plane by the projectors 5a to 5c.

実施例1によれば、制御部63は、人物の頭の位置、姿勢、及び有効視野角を所定時間間隔(つまり、ステップS2〜S16のループ周期に基づく時間間隔)で特定し、特定した人物の頭の位置、姿勢、及び有効視野角から特定される人物の視野範囲内で、歌詞オブジェクトOB1の位置、姿勢及びサイズを所定時間間隔で決定(上記ステップS7で決定)する。そして、制御部63は、決定した複数回分の位置、姿勢及びサイズに対応する値の平均値にしたがって、歌詞オブジェクトOB1を映像V上に合成し、歌詞オブジェクトOB1が合成された映像Vをプロジェクター5a〜5cにより投影面に投影させる。このように、歌詞オブジェクトOB1の移動平均を用いることで歌詞の視認性を向上することができる。   According to the first embodiment, the control unit 63 specifies the person's head position, posture, and effective viewing angle at a predetermined time interval (that is, a time interval based on the loop period of steps S2 to S16), and specifies the specified person. The position, posture and size of the lyrics object OB1 are determined at predetermined time intervals (determined in step S7) within the visual field range of the person specified from the head position, posture, and effective viewing angle. Then, the control unit 63 synthesizes the lyric object OB1 on the video V in accordance with the average value of the values corresponding to the determined positions, postures, and sizes, and the video V in which the lyric object OB1 is synthesized is the projector 5a. Project to the projection surface by ~ 5c. Thus, the visibility of the lyrics can be improved by using the moving average of the lyrics object OB1.

(実施例2)
次に、図6等を参照して、実施例2の投影制御処理について説明する。実施例1では、歌詞オブジェクトの移動平均を用いることで歌詞の視認性を向上することができる。しかし、実施例1の投影制御処理では、人物の視野範囲が短時間(例えば、1秒以内)で大きく変化した場合、歌詞オブジェクトは急な動きに追従できず、歌詞オブジェクトの動きが緩慢になってしまう。一方、人物の視野範囲が短時間で大きく変化した場合に、直ぐに歌詞オブジェクトの表示位置を切り換えてしまうと、人物が視線を一瞬動かしただけでも、歌詞オブジェクトの表示と非表示が行われるため、却って歌詞の視認性が低下してしまう可能性がある。
(Example 2)
Next, a projection control process according to the second embodiment will be described with reference to FIG. In the first embodiment, the visibility of lyrics can be improved by using a moving average of lyrics objects. However, in the projection control process of the first embodiment, when the visual field range of the person changes greatly in a short time (for example, within 1 second), the lyrics object cannot follow a sudden movement, and the movement of the lyrics object becomes slow. End up. On the other hand, when the person's field of view changes greatly in a short time, if the display position of the lyric object is switched immediately, the lyric object is displayed and hidden even if the person moves his gaze for a moment. On the other hand, the visibility of the lyrics may be reduced.

このような点を改善するため、実施例2では、歌詞オブジェクトの位置、姿勢、及びサイズの少なくとも何れか一つに対応する値の変化量が閾値以上である場合、または人物の位置と姿勢の少なくとも何れか一方に対応する値の変化量が閾値以上である場合、新たな歌詞オブジェクトが生成され、生成された新たな歌詞オブジェクトが既に生成されている歌詞オブジェクトと共に映像上に合成される。つまり、実施例2では、実施例1で説明したキューを複数個生成可能とし、キューの数だけ歌詞オブジェクトが生成及び投影されるようになっている。また、生成された各歌詞オブジェクトには、映像に合成されてから削除されるまでの投影継続時間である寿命パラメータが対応付けられる。なお、以下に説明する投影制御処理では、歌詞オブジェクトの位置、姿勢、及びサイズの少なくとも何れか一つに対応する値の変化量を例にとって説明する。   In order to improve such a point, in the second embodiment, when the change amount of the value corresponding to at least one of the position, posture, and size of the lyrics object is equal to or larger than the threshold value, or the position and posture of the person When the amount of change in the value corresponding to at least one of the values is equal to or greater than the threshold value, a new lyric object is generated, and the generated new lyric object is synthesized on the video together with the already generated lyric object. That is, in the second embodiment, a plurality of cues described in the first embodiment can be generated, and lyric objects are generated and projected by the number of queues. Further, each generated lyric object is associated with a life parameter that is a projection continuation time from the synthesis to the video until the deletion. In the projection control process described below, a change amount of a value corresponding to at least one of the position, posture, and size of the lyrics object will be described as an example.

図6に示す投影制御処理は、実施例1と同様、表示・操作デバイス1から映像Vの映像ID及び投影指示が受信された場合に開始される。図6に示す投影制御処理が開始されると、制御部63は、仮想的な3次元空間における投影面に、投影対象となる映像Vを投影する(ステップS21)。次いで、制御部63は、投影制御処理を終了するか否かを判定し(ステップS22)、投影制御処理を終了しないと判定した場合(ステップS22:NO)、ステップS23へ進む。   The projection control process shown in FIG. 6 is started when the video ID of video V and the projection instruction are received from the display / operation device 1 as in the first embodiment. When the projection control process shown in FIG. 6 is started, the control unit 63 projects the video V to be projected onto the projection plane in the virtual three-dimensional space (step S21). Next, the control unit 63 determines whether or not to end the projection control process (step S22). If it is determined not to end the projection control process (step S22: NO), the control unit 63 proceeds to step S23.

ステップS23では、制御部63は、カメラ3の撮像範囲内の3次元空間における人物の部位情報等を取得する。次いで、制御部63は、ステップS23で取得した人物の部位情報等から、人物の頭の位置及び姿勢を取得する(ステップS24)。次いで、制御部63は、ステップS24で取得した人物の頭の位置及び姿勢を、上記仮想的な3次元空間上の値に変換することで仮想的な3次元空間における人物の頭の位置及び姿勢を特定し、且つ上述した有効視野角を特定する(ステップS25)。そして、制御部63は、人物の頭の位置及び姿勢と、有効視野角とから、視野範囲を特定する。   In step S <b> 23, the control unit 63 acquires human part information in a three-dimensional space within the imaging range of the camera 3. Next, the control unit 63 acquires the position and posture of the person's head from the part information and the like of the person acquired in step S23 (step S24). Next, the control unit 63 converts the position and posture of the person's head acquired in step S24 into the values in the virtual three-dimensional space, so that the position and posture of the person's head in the virtual three-dimensional space. And the above-mentioned effective viewing angle is specified (step S25). And the control part 63 specifies a visual field range from the position and attitude | position of a person's head, and an effective viewing angle.

次いで、制御部63は、前回の処理で映像V上に配置された歌詞オブジェクトがあるか否かを判定する(ステップS26)。制御部63は、前回の処理で映像V上に配置された歌詞オブジェクトがあると判定した場合(ステップS26:YES)、ステップS27へ進む。一方、制御部63は、前回の処理で映像V上に配置された歌詞オブジェクトがないと判定した場合(ステップS26:NO)、ステップS28へ進む。ステップS27では、制御部63は、前回の処理で映像V上に配置された全ての歌詞オブジェクトを仮想的な3次元空間上から削除し、ステップS28へ進む。   Next, the control unit 63 determines whether or not there is a lyrics object arranged on the video V in the previous process (step S26). When it is determined that there is a lyrics object arranged on the video V in the previous process (step S26: YES), the control unit 63 proceeds to step S27. On the other hand, when it is determined that there is no lyrics object arranged on the video V in the previous process (step S26: NO), the control unit 63 proceeds to step S28. In step S27, the control unit 63 deletes all the lyrics objects arranged on the video V in the previous process from the virtual three-dimensional space, and proceeds to step S28.

ステップS28では、制御部63は、現在時刻において表示させる歌詞があるか否かを判定する。制御部63は、現在時刻において表示させる歌詞があると判定した場合(ステップS28:YES)、ステップS29へ進む。一方、制御部63は、現在時刻において表示させる歌詞がないと判定した場合(ステップS28:NO)、ステップS47へ進む。   In step S28, the control unit 63 determines whether there is a lyrics to be displayed at the current time. When it is determined that there is lyrics to be displayed at the current time (step S28: YES), the control unit 63 proceeds to step S29. On the other hand, when it is determined that there is no lyrics to be displayed at the current time (step S28: NO), the control unit 63 proceeds to step S47.

ステップS29では、制御部63は、ステップS25で特定した人物の頭(例えば、目)の位置、人物の姿勢、及び有効視野角から特定される人物の視野範囲内で、仮想的な3次元空間における投影面に配置される歌詞オブジェクトの位置、姿勢及びサイズ(スケール)を決定する。歌詞オブジェクトの位置は、例えば、人物の頭の座標から決定される。歌詞オブジェクトの姿勢は、例えば、人物の姿勢から決定される。歌詞オブジェクトのサイズ(スケール)は、例えば、人物の有効視野角から決定される。これらは、予め、人物の頭の位置、人物の姿勢、及び有効視野角に応じて歌詞オブジェクトの位置、姿勢及びサイズ(スケール)が定められたテーブルにより定められてもよい。   In step S29, the control unit 63 creates a virtual three-dimensional space within the field of view of the person identified from the position of the person's head (for example, eyes) identified in step S25, the posture of the person, and the effective viewing angle. The position, posture, and size (scale) of the lyric object arranged on the projection plane in are determined. The position of the lyrics object is determined from the coordinates of the person's head, for example. The posture of the lyrics object is determined from the posture of the person, for example. The size (scale) of the lyrics object is determined from, for example, the effective viewing angle of the person. These may be determined in advance by a table in which the position, posture, and size (scale) of the lyrics object are determined in accordance with the position of the person's head, the posture of the person, and the effective viewing angle.

次いで、制御部63は、キューが1つ以上あるか否かを判定する(ステップS30)。制御部63は、キューが1つ以上あると判定した場合(ステップS30:YES)、ステップS31へ進む。一方、制御部63は、キューがないと判定した場合(ステップS30:NO)、ステップS34へ進む。   Next, the control unit 63 determines whether there are one or more queues (step S30). If it is determined that there is one or more queue (step S30: YES), the control unit 63 proceeds to step S31. On the other hand, if it is determined that there is no queue (step S30: NO), the control unit 63 proceeds to step S34.

ステップS31では、制御部63は、キューに保持されているデータの平均値をキュー毎に算出し、ステップS32へ進む。キューに保持されているデータの平均値とは、キュー内の位置、姿勢及びサイズそれぞれに対応する値の平均値である。なお、キューに保持されているデータの平均値は、キュー内の位置、姿勢、及びサイズの少なくとも何れか一つに対応する値との平均値であってもよい。   In step S31, the control unit 63 calculates the average value of data held in the queue for each queue, and proceeds to step S32. The average value of data held in the queue is an average value of values corresponding to the position, posture and size in the queue. Note that the average value of the data held in the queue may be an average value with a value corresponding to at least one of the position, posture, and size in the queue.

ステップS32では、制御部63は、ステップS29で決定した位置、姿勢及びサイズの少なくとも何れか一つに対応する値と、ステップS31で算出した平均値との誤差をキュー毎に算出する。この誤差は、歌詞オブジェクトの位置、姿勢及びサイズが前回の処理から変化した変化量である。例えば、制御部63は、位置に対応する値の差の2乗と、姿勢に対応する値の差の2乗と、サイズに対応する値の差の2乗との総和の平方根を上記誤差として算出するとよい。   In step S32, the control unit 63 calculates, for each queue, an error between a value corresponding to at least one of the position, posture, and size determined in step S29 and the average value calculated in step S31. This error is the amount of change in the position, posture, and size of the lyrics object since the previous process. For example, the control unit 63 uses the square root of the sum of the square of the value difference corresponding to the position, the square of the value difference corresponding to the posture, and the square of the value difference corresponding to the size as the error. It is good to calculate.

次いで、制御部63は、ステップS32で算出した誤差が閾値未満(閾値以下としてもよい)のキューがあるか否かを判定する(ステップS33)。制御部63は、誤差が閾値未満のキューがないと判定した場合(ステップS33:NO)、ステップS34へ進む。つまり、誤差が閾値以上のキューがある場合、ステップS34へ進む。ここで、誤差が閾値以上とは、歌詞オブジェクトの位置、姿勢及びサイズの少なくとも何れか一つに対応する値の前回処理からの変化量が閾値以上であることを意味する。換言すると、誤差が閾値以上とは、人物の位置と姿勢の少なくとも何れか一方に対応する値の変化量が閾値以上であることを意味する。このような場合、例えば、図7(A)に示すように、既に映像V上に配置されている歌詞オブジェクトOB1(第1の表示オブジェクトの一例)に加えて、新たな歌詞オブジェクトOB2(第2の表示オブジェクトの一例)がステップS34以降の処理で生成され、生成された新たな歌詞オブジェクトOB2が既に生成されている歌詞オブジェクトOB1と共に映像V上に合成されることになる。これにより、人物の視野範囲が短時間で大きく変化した場合であっても、変化した後の視野範囲に迅速に対応でき、変化した後の視野範囲における歌詞の視認性を向上させることができる。一方、制御部63は、誤差が閾値以下のキューがあると判定した場合(ステップS33:YES)、ステップS36へ進む。   Next, the control unit 63 determines whether there is a queue in which the error calculated in step S32 is less than a threshold value (or may be equal to or less than the threshold value) (step S33). When it is determined that there is no queue whose error is less than the threshold (step S33: NO), the control unit 63 proceeds to step S34. That is, if there is a queue whose error is greater than or equal to the threshold, the process proceeds to step S34. Here, the error being equal to or greater than the threshold means that the amount of change from the previous process of the value corresponding to at least one of the position, orientation, and size of the lyrics object is equal to or greater than the threshold. In other words, the error being equal to or greater than the threshold means that the amount of change in the value corresponding to at least one of the position and posture of the person is equal to or greater than the threshold. In such a case, for example, as shown in FIG. 7A, in addition to the lyrics object OB1 (an example of the first display object) already arranged on the video V, a new lyrics object OB2 (second Of the display object) is generated in the processing after step S34, and the generated new lyrics object OB2 is synthesized on the video V together with the already generated lyrics object OB1. Accordingly, even when the visual field range of a person changes greatly in a short time, it is possible to quickly cope with the changed visual field range and improve the lyrics visibility in the changed visual field range. On the other hand, when the control unit 63 determines that there is a queue whose error is equal to or smaller than the threshold (step S33: YES), the control unit 63 proceeds to step S36.

ステップS34では、制御部63は、新たなキューを生成し、生成したキューの寿命パラメータに現在時刻に基づく初期値(例えば、現在時刻から数秒後の時刻)を設定する。ここで、生成されるキューは、1つ目のキュー、または2つ目以降のキューである。次いで、制御部63は、ステップS34で生成したキューを、今回処理対象のキューに設定し(ステップS35)、ステップS39へ進む。   In step S34, the control unit 63 generates a new queue and sets an initial value based on the current time (for example, a time several seconds after the current time) in the lifetime parameter of the generated queue. Here, the generated queue is the first queue or the second and subsequent queues. Next, the control unit 63 sets the queue generated in step S34 as a queue to be processed this time (step S35), and proceeds to step S39.

一方、ステップS36では、制御部63は、ステップS32で算出した誤差が閾値未満(閾値以下としてもよい)のキューが複数あるか否かを判定する。制御部63は、誤差が閾値未満のキューが複数ない(つまり、1つだけある)と判定した場合(ステップS36:NO)、ステップS37へ進む。一方、制御部63は、誤差が閾値未満のキューが複数あると判定した場合(ステップS36:YES)、ステップS38へ進む。   On the other hand, in step S36, the control unit 63 determines whether or not there are a plurality of queues in which the error calculated in step S32 is less than a threshold value (may be equal to or less than the threshold value). If the control unit 63 determines that there are not a plurality of queues with errors less than the threshold (that is, there is only one) (step S36: NO), the control unit 63 proceeds to step S37. On the other hand, if the control unit 63 determines that there are a plurality of queues whose error is less than the threshold (step S36: YES), the control unit 63 proceeds to step S38.

ステップS37では、制御部63は、誤差が閾値未満のキューを、今回処理対象のキューに設定し、ステップS39へ進む。ステップS38では、制御部63は、誤差が閾値未満の複数のキューのうち誤差が最も小さいキューを、今回処理対象のキューに設定し、誤差が最も小さいキュー以外のキューを削除し、ステップS39へ進む。   In step S37, the control unit 63 sets a queue whose error is less than the threshold value as a queue to be processed this time, and proceeds to step S39. In step S38, the control unit 63 sets the queue with the smallest error among the plurality of queues with the error less than the threshold as the queue to be processed this time, deletes queues other than the queue with the smallest error, and proceeds to step S39. move on.

ステップS39では、制御部63は、ステップS29で決定した位置、姿勢及びサイズの組を1つのデータとして、今回処理対象のキューに追加する。次いで、制御部63は、今回処理対象のキューに保持されたデータの数がNより大きいか否かを判定する(ステップS40)。制御部63は、今回処理対象のキューに保持されたデータの数がNより大きいと判定した場合(ステップS40:YES)、今回処理対象のキューから最も古いデータを削除し(ステップS41)、ステップS42へ進む。一方、制御部63は、今回処理対象のキューに保持されたデータの数がNより大きくないと判定した場合(ステップS40:NO)、ステップS42へ進む。   In step S39, the control unit 63 adds the set of the position, posture, and size determined in step S29 as one data to the current processing target queue. Next, the control unit 63 determines whether or not the number of data held in the queue to be processed this time is greater than N (step S40). When it is determined that the number of data held in the current processing target queue is greater than N (step S40: YES), the control unit 63 deletes the oldest data from the current processing target queue (step S41), and the step Proceed to S42. On the other hand, if the control unit 63 determines that the number of data held in the queue to be processed this time is not greater than N (step S40: NO), the control unit 63 proceeds to step S42.

ステップS42では、制御部63は、今回処理対象のキューの寿命パラメータを一定時間延長する。ここで、今回処理対象のキューの寿命パラメータとは、今回処理対象のキュー内のデータにしたがって生成される歌詞オブジェクトに対応付けられている寿命パラメータである。なお、寿命パラメータが延長される対象となるキューは、ステップS33で判定された誤差が所定時間以上継続して閾値未満であるキューに限るように構成することが望ましい。これにより、人物の視線が留まる時間が長い視野範囲ほど、この視野範囲における歌詞オブジェクトを長く表示させることができるので、歌詞の視認性を、より向上することができる。換言すると、人物の視線が留まる時間が短い視野範囲ほど、後述するステップS44の処理で、この視野範囲における歌詞オブジェクトを迅速に削除することができる。また、一定時間は、例えば図6に示す処理においてステップS22〜ステップS48の1回の処理時間に応じて設定される。例えば、1回の処理時間が0.02秒である場合、上記一定時間は、0.02秒程度に設定される。   In step S42, the control unit 63 extends the lifetime parameter of the queue to be processed this time by a certain time. Here, the lifetime parameter of the queue to be processed this time is a lifetime parameter associated with the lyrics object generated according to the data in the queue to be processed this time. Note that it is desirable that the queues whose life parameter is to be extended are limited to queues whose error determined in step S33 continues for a predetermined time or more and is less than the threshold value. As a result, the longer the visual field range in which the person's line of sight stays, the longer the lyric object can be displayed in this visual field range, so that the visibility of the lyrics can be further improved. In other words, as the visual field range in which the person's line of sight stays is shorter, the lyrics object in this visual field range can be quickly deleted by the processing in step S44 described later. Further, the certain time is set according to one processing time from step S22 to step S48 in the processing shown in FIG. 6, for example. For example, when the processing time for one time is 0.02 seconds, the certain time is set to about 0.02 seconds.

次いで、制御部63は、今回処理対象のキュー以外で、寿命パラメータが示す時刻が到来したキューがあるか否かを判定する(ステップS43)。制御部63は、寿命パラメータが示す時刻が到来したキューがあると判定した場合(ステップS43:YES)、寿命パラメータが示す時刻が到来したキューを削除し(ステップS44)、ステップS45へ進む。つまり、制御部63は、例えば、図7(A)に示すように、歌詞オブジェクトOB1と歌詞オブジェクトOB2とが合成された映像Vが投影されてから所定時間後に、図7(B)に示すように、歌詞オブジェクトOB1を映像から削除する。これにより、人物の視野範囲が短時間で大きく変化した後、さらに変化した場合であっても、人物により視認される必要性が低い視野範囲における歌詞オブジェクトを迅速に削除することができる。また、人物の視野範囲が頻繁に変化することで歌詞オブジェクトの数が増えても、寿命パラメータによって時間経過に従い適切に減らすことができる。一方、制御部63は、寿命パラメータが示す時刻が到来したキューがないと判定した場合(ステップS43:NO)、ステップS45へ進む。   Next, the control unit 63 determines whether there is any queue other than the current processing target queue that has reached the time indicated by the lifetime parameter (step S43). When it is determined that there is a queue at which the time indicated by the life parameter has arrived (step S43: YES), the control unit 63 deletes the queue at which the time indicated by the life parameter has arrived (step S44), and proceeds to step S45. That is, for example, as shown in FIG. 7A, the control unit 63, as shown in FIG. 7B, is a predetermined time after the video V in which the lyrics object OB1 and the lyrics object OB2 are combined is projected. Then, the lyrics object OB1 is deleted from the video. As a result, even if the person's visual field range changes greatly in a short time and then further changes, the lyrics object in the visual field range that is less likely to be visually recognized by the person can be quickly deleted. Moreover, even if the number of lyrics objects increases due to frequent changes in the field of view of the person, it can be appropriately reduced over time by the life parameter. On the other hand, when the control unit 63 determines that there is no queue at which the time indicated by the lifetime parameter has arrived (step S43: NO), the control unit 63 proceeds to step S45.

ステップS45では、制御部63は、キューに保持されたデータの平均値を、現在の歌詞オブジェクトの位置、姿勢及びサイズとしてキュー毎に決定する。つまり、この時点で存在している全てのキューそれぞれについて、現在の歌詞オブジェクトの位置、姿勢及びサイズが決定される。次いで、制御部63は、ステップS45で決定した位置、姿勢及びサイズで歌詞オブジェクトをキュー毎に生成(つまり、キューの数だけ生成)し、仮想的な3次元空間における投影面に投影された映像V上に、生成した歌詞オブジェクトを合成し(ステップS46)、ステップS48へ進む。   In step S45, the control unit 63 determines the average value of the data held in the queue for each queue as the current position, orientation, and size of the lyrics object. That is, the position, posture, and size of the current lyrics object are determined for each of all the cues that exist at this time. Next, the control unit 63 generates a lyric object for each cue (that is, as many as the number of cues) with the position, posture, and size determined in step S45, and the image projected on the projection plane in the virtual three-dimensional space. The generated lyric object is synthesized on V (step S46), and the process proceeds to step S48.

一方、ステップS47では、制御部63は、全てのキュー、及びこれに対応する歌詞オブジェクトを削除し、ステップS48へ進む。ステップS48では、制御部63は、仮想的な3次元空間に投影された映像Vをプロジェクター5a〜5cそれぞれの位置を基準とする2次元平面座標系に投影変換し、それぞれの映像の映像データを映像再生装置4a〜4cそれぞれへ送信し、ステップS22に戻る。なお、ステップS46で歌詞オブジェクトが映像Vに合成されている場合、歌詞オブジェクトが合成された映像Vがプロジェクター5a〜5cにより投影面に投影されることになる。   On the other hand, in step S47, the control unit 63 deletes all the cues and the corresponding lyric objects, and proceeds to step S48. In step S48, the control unit 63 projects and converts the video V projected in the virtual three-dimensional space into a two-dimensional plane coordinate system based on the positions of the projectors 5a to 5c, and converts the video data of each video. The video is transmitted to each of the video reproduction devices 4a to 4c, and the process returns to step S22. If the lyrics object is combined with the video V in step S46, the video V with the combined lyrics object is projected onto the projection plane by the projectors 5a to 5c.

実施例2によれば、歌詞オブジェクトOB1の位置、姿勢、及びサイズの少なくとも何れか一つに対応する値の変化量が閾値以上である場合、または人物の頭の位置と姿勢の少なくとも何れか一方に対応する値の変化量が閾値以上である場合、制御部63は、上記ステップS29で決定された最新の位置及びサイズで、歌詞オブジェクトOB1とは異なる歌詞オブジェクトOB2を、歌詞オブジェクトOB1が合成された映像V上に合成し、歌詞オブジェクトOB1と歌詞オブジェクトOB2とが合成された映像Vをプロジェクター5a〜5cにより投影面に投影面に投影させる。このため、歌詞オブジェクトの移動平均を用いた場合において、人物の視野範囲が短時間で大きく変化した場合であっても、変化した後の視野範囲に迅速に対応でき、変化した後の視野範囲における歌詞オブジェクトの視認性を向上させることができる。   According to the second embodiment, when the amount of change in the value corresponding to at least one of the position, posture, and size of the lyrics object OB1 is equal to or greater than the threshold value, or at least one of the position and posture of the person's head When the change amount of the value corresponding to is equal to or greater than the threshold, the control unit 63 combines the lyrics object OB1 with the lyrics object OB2 different from the lyrics object OB1 at the latest position and size determined in step S29. The video V synthesized on the video V and the lyrics object OB1 and the lyrics object OB2 synthesized is projected onto the projection plane by the projectors 5a to 5c. For this reason, when the moving average of the lyrics object is used, even if the person's field of view changes greatly in a short time, it can quickly respond to the changed field of view, and in the changed field of view The visibility of the lyrics object can be improved.

なお、実施例2においては、ステップS25において、人物の頭の位置、姿勢及び有効視野角が特定された後、ステップS29において、歌詞オブジェクトの位置、姿勢及びサイズが決定された後、キューに保存されているデータから誤差が閾値未満のキューがあるか否かを判断し、新たなキューを生成する処理を行われていた。しかしながら、人物の頭の位置、姿勢及び有効視野角が特定された後、ステップS29において、歌詞オブジェクトの位置、姿勢及びサイズを決定せずに、キューに保存されているデータから、新たなキューを生成するか否かを判断し、判断結果に応じて新たなキューを生成する処理が行われてもよい。   In Example 2, after the position, posture, and effective viewing angle of the person's head are specified in step S25, the position, posture, and size of the lyrics object are determined in step S29, and then stored in the queue. It is determined whether or not there is a queue whose error is less than a threshold value from the stored data, and processing for generating a new queue is performed. However, after the position, posture and effective viewing angle of the person's head are specified, a new cue is created from the data stored in the queue without determining the position, posture and size of the lyrics object in step S29. It may be determined whether or not to generate, and a process of generating a new queue according to the determination result may be performed.

以上説明したように、上記実施形態によれば、再生制御装置6は、所定の3次元空間にいる人物の頭の位置、姿勢、及び有効視野角から前記人物の視野範囲を特定し、特定した人物の頭の位置、人物の姿勢、及び有効視野角から人物の視野範囲内で、映像が投影される投影面の少なくとも一部の領域に配置される歌詞オブジェクトの位置、姿勢及びサイズを決定する。そして、再生制御装置6は、決定した位置、姿勢及びサイズで、歌詞オブジェクトをプロジェクター5a〜5cにより投影される映像上に合成し、歌詞オブジェクトが合成された映像を投影面に投影させるように構成したので、視聴者である人物がプロジェクターを装着することなく、投影される映像に対し、人物の位置及び姿勢に応じた視線方向の位置に歌詞オブジェクトを、視認性を保って的確に表示させることができる。また、本実施形態では、視聴者がプロジェクターを装着する必要がないので、例えば、視聴者の頭部の動きによるブレで文字等が見難くなることを防ぐことができる。   As described above, according to the above embodiment, the playback control device 6 identifies and identifies the person's visual field range from the position, posture, and effective viewing angle of the person's head in the predetermined three-dimensional space. Determine the position, posture and size of the lyrics object placed in at least a part of the projection plane on which the image is projected within the human field of view from the position of the person's head, the posture of the person, and the effective viewing angle. . Then, the playback control device 6 is configured to synthesize the lyric object on the image projected by the projectors 5a to 5c with the determined position, posture and size, and to project the synthesized image of the lyric object on the projection plane. As a result, a person who is a viewer can accurately display a lyric object at a position in the line-of-sight direction according to the position and posture of the person on the projected image without wearing a projector. Can do. Further, in this embodiment, since the viewer does not need to wear the projector, for example, it is possible to prevent characters and the like from being difficult to see due to blurring due to the movement of the viewer's head.

なお、上記実施形態においては、表示オブジェクトとして歌詞オブジェクトを例にとって説明したが、歌詞オブジェクト以外の、例えばメッセージやコメント等の表示物に対して適用することができる。   In the above embodiment, the lyric object has been described as an example of the display object. However, the present invention can be applied to a display object other than the lyric object, such as a message or a comment.

1 表示・操作デバイス
2 楽曲再生装置
3 カメラ
4a〜4e 映像再生装置
5a〜5e プロジェクター
6 再生制御装置
S 投影システム
DESCRIPTION OF SYMBOLS 1 Display / operation device 2 Music playback device 3 Cameras 4a-4e Video playback devices 5a-5e Projector 6 Playback control device S Projection system

Claims (8)

所定の3次元空間にいる人物の頭の位置、姿勢、及び有効視野角から前記人物の視野範囲を特定する特定手段と、
前記特定手段により人物の頭の位置、姿勢、及び有効視野角から特定される前記人物の視野範囲内で、投影装置から映像が投影される投影面の少なくとも一部の領域に配置される第1の表示オブジェクトの位置及びサイズを決定する決定手段と、
前記決定手段により決定された位置及びサイズで、前記第1の表示オブジェクトを前記投影装置により投影される映像上に合成する合成手段と、
前記第1の表示オブジェクトが合成された映像を前記投影面に投影させる投影制御手段と、
を備えることを特徴とする投影制御装置。
A specifying means for specifying the field of view of the person from the position, posture, and effective viewing angle of the person's head in a predetermined three-dimensional space;
The first unit is arranged in at least a partial region of the projection plane onto which an image is projected from the projection device within the field of view of the person identified from the position, posture, and effective viewing angle of the person's head by the identifying unit. Determining means for determining the position and size of the display object;
Synthesizing means for synthesizing the first display object on the image projected by the projection device at the position and size determined by the determining means;
Projection control means for projecting an image in which the first display object is combined onto the projection plane;
A projection control apparatus comprising:
前記第1の表示オブジェクトが合成された映像が投影された後、前記特定手段は、前記人物の頭の位置、姿勢、及び有効視野角から前記人物の視野範囲を新たに特定し、
前記決定手段は、前記特定手段により新たに特定された人物の頭の位置、姿勢、及び有効視野角から特定される前記人物の視野範囲内で、前記投影装置から映像が投影される投影面の少なくとも一部の領域に配置される第2の表示オブジェクトの位置及びサイズを新たに決定し、
前記合成手段は、前記第1の表示オブジェクトの位置、姿勢、及びサイズの少なくとも何れか一つに対応する値の変化量が閾値以上である場合、または前記人物の頭の位置と姿勢の少なくとも何れか一方に対応する値の変化量が閾値以上である場合、前記決定手段により新たに決定された位置及びサイズで、前記第2の表示オブジェクトを、前記第1の表示オブジェクトが合成された前記映像上に合成し、
前記投影制御手段は、前記第1の表示オブジェクトと前記第2の表示オブジェクトとが合成された映像を前記投影面に投影させることを特徴とする請求項1に記載の投影制御装置。
After the video in which the first display object is synthesized is projected, the specifying unit newly specifies the human visual field range from the position, posture, and effective visual angle of the human head,
The determination means includes a projection plane on which an image is projected from the projection device within the field of view of the person specified from the position, posture, and effective viewing angle of the person newly specified by the specification means. Determining a new position and size of the second display object arranged in at least a part of the area;
The synthesizing unit may be configured such that a change amount of a value corresponding to at least one of the position, posture, and size of the first display object is a threshold value or more, or at least one of the position and posture of the person's head If the change amount of the value corresponding to one of the two is greater than or equal to a threshold value, the second display object is combined with the first display object at the position and size newly determined by the determination means. Synthesized on top,
The projection control apparatus according to claim 1, wherein the projection control unit projects an image obtained by combining the first display object and the second display object onto the projection plane.
前記特定手段は、前記人物の頭の位置、姿勢、及び有効視野角から前記人物の視野範囲を所定時間間隔で特定し、
前記決定手段は、前記特定手段により特定された人物の頭の位置、姿勢、及び有効視野角から特定される前記人物の視野範囲内で、前記投影装置から映像が投影される投影面の少なくとも一部の領域に配置される前記第1の表示オブジェクトの位置及びサイズを所定時間間隔で複数回決定し、
前記合成手段は、前記決定手段により決定された複数回分の前記位置及びサイズに対応する値の平均値にしたがって、前記第1の表示オブジェクトを前記投影装置により投影される映像上に合成し、
前記投影制御手段は、前記第1の表示オブジェクトが合成された映像を前記投影面に投影させることを特徴とする請求項1に記載の投影制御装置。
The specifying means specifies the person's visual field range from the position, posture, and effective viewing angle of the person at predetermined time intervals,
The determining means includes at least one of projection surfaces onto which an image is projected from the projection device within the field of view of the person identified from the position, posture, and effective viewing angle of the person's head identified by the identifying means. Determining a position and a size of the first display object arranged in a region of a plurality of times at predetermined time intervals,
The synthesizing unit synthesizes the first display object on an image projected by the projection device according to an average value of values corresponding to the position and size for a plurality of times determined by the determining unit,
The projection control apparatus according to claim 1, wherein the projection control unit projects an image obtained by combining the first display objects onto the projection plane.
前記第1の表示オブジェクトが合成された映像が投影された後、前記特定手段は、前記人物の頭の位置、姿勢、及び有効視野角から前記人物の視野範囲を新たに特定し、
前記合成手段は、前記第1の表示オブジェクトの位置、姿勢、及びサイズの少なくとも何れか一つに対応する値の変化量が閾値以上である場合、または前記人物の頭の位置と姿勢の少なくとも何れか一方に対応する値の変化量が閾値以上である場合、前記決定手段により決定された最新の位置及びサイズで、前記第1の表示オブジェクトとは異なる第2の表示オブジェクトを、前記第1の表示オブジェクトが合成された前記映像上に合成し、
前記投影制御手段は、前記第1の表示オブジェクトと前記第2の表示オブジェクトとが合成された映像を前記投影面に投影させることを特徴とする請求項3に記載の投影制御装置。
After the video in which the first display object is synthesized is projected, the specifying unit newly specifies the human visual field range from the position, posture, and effective visual angle of the human head,
The synthesizing unit may be configured such that a change amount of a value corresponding to at least one of the position, posture, and size of the first display object is a threshold value or more, or at least one of the position and posture of the person's head When the amount of change in the value corresponding to one of the values is equal to or greater than a threshold value, the second display object different from the first display object at the latest position and size determined by the determination unit is the first display object. The display object is synthesized on the synthesized video,
The projection control apparatus according to claim 3, wherein the projection control unit projects an image obtained by combining the first display object and the second display object onto the projection plane.
前記第1の表示オブジェクトと前記第2の表示オブジェクトとが合成された映像が投影されてから所定時間後に、前記第1の表示オブジェクトを前記映像から削除する削除手段を更に備え、
前記投影制御手段は、前記第1の表示オブジェクトが削除され、且つ、前記第2の表示オブジェクトが合成された映像を前記投影面に投影させることを特徴とする請求項2または4に記載の投影制御装置。
A deletion unit that deletes the first display object from the video after a predetermined time from the projection of the video in which the first display object and the second display object are combined;
5. The projection according to claim 2, wherein the projection control unit causes the projection surface to project an image in which the first display object is deleted and the second display object is combined. 6. Control device.
前記第1の表示オブジェクトには、前記映像に合成されてから削除されるまでの投影継続時間が対応付けられ、
前記第1の表示オブジェクトが合成された映像が投影されてから前記投影継続時間後に、前記第1の表示オブジェクトを前記映像から削除する削除手段と、
前記第1の表示オブジェクトが合成された映像が投影された後、前記第1の表示オブジェクトの位置、姿勢、及びサイズの少なくとも何れか一つに対応する値の変化量または前記3次元空間にいる前記人物の頭の位置と姿勢の少なくとも何れか一方に対応する値の変化量が、所定時間以上継続して閾値未満である場合、前記第1の表示オブジェクトに対応付けられている前記投影継続時間を延長する延長手段と、
を備えることを特徴とする請求項1乃至4の何れか一項に記載の投影制御装置。
The first display object is associated with a projection duration from when it is combined with the video to when it is deleted,
Deletion means for deleting the first display object from the video after the projection duration time after the video in which the first display object is synthesized is projected;
After an image in which the first display object is synthesized is projected, a change amount of a value corresponding to at least one of the position, posture, and size of the first display object or the three-dimensional space The projection duration associated with the first display object when the amount of change in the value corresponding to at least one of the head position and posture of the person is less than the threshold for a predetermined time or longer. Extending means for extending
The projection control apparatus according to claim 1, further comprising:
前記第1の表示オブジェクトには、前記投影面への投影タイミングが対応付けられており、
前記合成手段は、前記投影タイミングが到来したときに、前記第1の表示オブジェクトを前記映像上に合成し、
前記投影制御手段は、前記投影タイミングで前記第1の表示オブジェクトが合成された映像を前記投影面に投影させることを特徴とする請求項1乃至6の何れか一項に記載の投影制御装置。
Projection timing onto the projection plane is associated with the first display object,
The synthesizing unit synthesizes the first display object on the video when the projection timing arrives,
The projection control apparatus according to claim 1, wherein the projection control unit projects an image in which the first display object is synthesized at the projection timing onto the projection plane.
所定の3次元空間にいる人物の頭の位置、姿勢、及び有効視野角から前記人物の視野範囲を特定する特定ステップと、
前記特定ステップにより特定された人物の頭の位置、姿勢、及び有効視野角から特定される前記人物の視野範囲内で、投影装置から映像が投影される投影面の少なくとも一部の領域に配置される第1の表示オブジェクトの位置及びサイズを決定する決定ステップと、
前記決定ステップにより決定された位置及びサイズで、前記第1の表示オブジェクトを前記投影装置により投影される映像上に合成する合成ステップと、
前記第1の表示オブジェクトが合成された映像を前記投影面に投影させる投影制御ステップと、
をコンピュータに実行させることを特徴とするプログラム。
A specific step of identifying the person's visual field range from the position, posture, and effective visual angle of the person's head in a predetermined three-dimensional space;
Arranged in at least a partial area of the projection plane on which the image is projected from the projection device within the visual field range of the human specified by the position, posture, and effective viewing angle of the human head specified by the specifying step. A determining step for determining the position and size of the first display object;
Combining the first display object on the image projected by the projection device at the position and size determined by the determining step;
A projection control step of projecting an image on which the first display object is synthesized on the projection plane;
A program that causes a computer to execute.
JP2015195112A 2015-09-30 2015-09-30 Projection control apparatus and program Active JP6398938B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015195112A JP6398938B2 (en) 2015-09-30 2015-09-30 Projection control apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015195112A JP6398938B2 (en) 2015-09-30 2015-09-30 Projection control apparatus and program

Publications (2)

Publication Number Publication Date
JP2017068697A true JP2017068697A (en) 2017-04-06
JP6398938B2 JP6398938B2 (en) 2018-10-03

Family

ID=58494848

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015195112A Active JP6398938B2 (en) 2015-09-30 2015-09-30 Projection control apparatus and program

Country Status (1)

Country Link
JP (1) JP6398938B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111031298A (en) * 2019-11-12 2020-04-17 广景视睿科技(深圳)有限公司 Method and device for controlling projection of projection module and projection system
CN114339194A (en) * 2021-03-16 2022-04-12 深圳市火乐科技发展有限公司 Projection display method and device, projection equipment and computer readable storage medium

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09289656A (en) * 1996-08-22 1997-11-04 Toppan Printing Co Ltd Video display system
JPH1164975A (en) * 1997-08-13 1999-03-05 Hitachi Ltd Image display system
JP2002091418A (en) * 2000-09-11 2002-03-27 Casio Comput Co Ltd Window display device and recording medium
JP2006133252A (en) * 2004-11-02 2006-05-25 Matsushita Electric Works Ltd Device for generating virtual reality
JP2008129775A (en) * 2006-11-20 2008-06-05 Ntt Docomo Inc Display control unit, display device and display control method
WO2009125481A1 (en) * 2008-04-10 2009-10-15 パイオニア株式会社 Screen display system and screen display program
JP2011215255A (en) * 2010-03-31 2011-10-27 Brother Industries Ltd Karaoke device and program
US20120200600A1 (en) * 2010-06-23 2012-08-09 Kent Demaine Head and arm detection for virtual immersion systems and methods
JP2015069043A (en) * 2013-09-30 2015-04-13 ブラザー工業株式会社 Karaoke device
JP2015087824A (en) * 2013-10-28 2015-05-07 オムロン株式会社 Screen operation device and screen operation method
JP2015153267A (en) * 2014-02-18 2015-08-24 ソニー株式会社 Information processing unit and method, information processing system and program

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09289656A (en) * 1996-08-22 1997-11-04 Toppan Printing Co Ltd Video display system
JPH1164975A (en) * 1997-08-13 1999-03-05 Hitachi Ltd Image display system
JP2002091418A (en) * 2000-09-11 2002-03-27 Casio Comput Co Ltd Window display device and recording medium
JP2006133252A (en) * 2004-11-02 2006-05-25 Matsushita Electric Works Ltd Device for generating virtual reality
JP2008129775A (en) * 2006-11-20 2008-06-05 Ntt Docomo Inc Display control unit, display device and display control method
WO2009125481A1 (en) * 2008-04-10 2009-10-15 パイオニア株式会社 Screen display system and screen display program
JP2011215255A (en) * 2010-03-31 2011-10-27 Brother Industries Ltd Karaoke device and program
US20120200600A1 (en) * 2010-06-23 2012-08-09 Kent Demaine Head and arm detection for virtual immersion systems and methods
JP2015069043A (en) * 2013-09-30 2015-04-13 ブラザー工業株式会社 Karaoke device
JP2015087824A (en) * 2013-10-28 2015-05-07 オムロン株式会社 Screen operation device and screen operation method
JP2015153267A (en) * 2014-02-18 2015-08-24 ソニー株式会社 Information processing unit and method, information processing system and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111031298A (en) * 2019-11-12 2020-04-17 广景视睿科技(深圳)有限公司 Method and device for controlling projection of projection module and projection system
CN111031298B (en) * 2019-11-12 2021-12-10 广景视睿科技(深圳)有限公司 Method and device for controlling projection of projection module and projection system
US11758117B2 (en) 2019-11-12 2023-09-12 Iview Displays (Shenzhen) Company Ltd. Method for controlling projection of projection module, projection system, and storage medium
CN114339194A (en) * 2021-03-16 2022-04-12 深圳市火乐科技发展有限公司 Projection display method and device, projection equipment and computer readable storage medium
CN114339194B (en) * 2021-03-16 2023-12-08 深圳市火乐科技发展有限公司 Projection display method, apparatus, projection device, and computer-readable storage medium

Also Published As

Publication number Publication date
JP6398938B2 (en) 2018-10-03

Similar Documents

Publication Publication Date Title
JP6276882B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP5256269B2 (en) Data generation apparatus, data generation apparatus control method, and program
US20070002037A1 (en) Image presentation system, image presentation method, program for causing computer to execute the method, and storage medium storing the program
US20240091641A1 (en) Information processing apparatus and user guide presentation method
JP6470859B1 (en) Program for reflecting user movement on avatar, information processing apparatus for executing the program, and method for distributing video including avatar
JP6290467B1 (en) Information processing method, apparatus, and program causing computer to execute information processing method
US11778283B2 (en) Video distribution system for live distributing video containing animation of character object generated based on motion of actors
JP2010240185A (en) Apparatus for supporting motion learning
JP6398938B2 (en) Projection control apparatus and program
JP2019128721A (en) Program for reflecting user motion on avatar, information processing device for executing the same and method for distributing image containing avatar
JP2022000697A (en) Display device and method of controlling the same
JP2019032844A (en) Information processing method, device, and program for causing computer to execute the method
JP2018125003A (en) Information processing method, apparatus, and program for implementing that information processing method in computer
JP6585866B1 (en) POSITION DATA PROCESSING DEVICE AND PROGRAM
US20210385554A1 (en) Information processing device, information processing method, and information processing program
JP6354620B2 (en) Control device, program, and projection system
JP2018056924A (en) Image display device and virtual reality interface device using teh same
JP2018190196A (en) Information processing method, information processing device, program causing computer to execute information processing method
JP5864789B1 (en) Railway model viewing device, method, program, dedicated display monitor, scene image data for composition
JP2019160295A (en) Program for reflecting movement of user on avatar, information processing device for executing program, and method for distributing video including avatar
JP2019145161A (en) Program, information processing device, and information processing method
WO2022124135A1 (en) Game program, game processing method, and game device
JP2020181123A (en) Karaoke rendition system
JP2018190397A (en) Information processing method, information processing device, program causing computer to execute information processing method
JP7319686B2 (en) Game program, game processing method, and game device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180820

R150 Certificate of patent or registration of utility model

Ref document number: 6398938

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150