JP6556680B2 - VIDEO GENERATION DEVICE, VIDEO GENERATION METHOD, AND PROGRAM - Google Patents

VIDEO GENERATION DEVICE, VIDEO GENERATION METHOD, AND PROGRAM Download PDF

Info

Publication number
JP6556680B2
JP6556680B2 JP2016185085A JP2016185085A JP6556680B2 JP 6556680 B2 JP6556680 B2 JP 6556680B2 JP 2016185085 A JP2016185085 A JP 2016185085A JP 2016185085 A JP2016185085 A JP 2016185085A JP 6556680 B2 JP6556680 B2 JP 6556680B2
Authority
JP
Japan
Prior art keywords
image
unit
video
designation
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016185085A
Other languages
Japanese (ja)
Other versions
JP2018050216A (en
Inventor
大樹 吹上
大樹 吹上
眞也 西田
眞也 西田
隆寛 河邉
隆寛 河邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016185085A priority Critical patent/JP6556680B2/en
Publication of JP2018050216A publication Critical patent/JP2018050216A/en
Application granted granted Critical
Publication of JP6556680B2 publication Critical patent/JP6556680B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Description

本発明は、対象物に重畳する映像を生成する技術に関する。   The present invention relates to a technique for generating an image to be superimposed on an object.

見掛けの動きを与える映像を対象物に重畳し、当該対象物が動いているかのように知覚させる技術が知られている(特許文献1)。   A technique is known in which an image that gives an apparent movement is superimposed on an object and perceived as if the object is moving (Patent Document 1).

国際公開第WO/2015/163317号International Publication No. WO / 2015/163317

見掛けの動きを与える映像を重畳した対象物がどのように知覚されるのかを推測することは困難である。そのため、対象物に重畳させたときに所望の視覚効果を与える映像の生成は容易ではない。   It is difficult to guess how an object on which an image giving an apparent motion is superimposed is perceived. Therefore, it is not easy to generate an image that gives a desired visual effect when superimposed on an object.

本発明の課題は、対象物に重畳させたときに所望の視覚効果を与える映像を容易に生成することである。   An object of the present invention is to easily generate an image that gives a desired visual effect when superimposed on an object.

映像を生成するための情報を利用者が設定するためのユーザインタフェースである指定部が、対象物の画像に含まれる画像領域を利用者が視認可能なように提示するとともに、当該映像を生成するための指定情報の入力を受け付け、映像生成部が、当該指定部で受け付けた指定情報に対応する映像を生成し、映像提示部が、当該対象物の領域である対象領域と、当該指定部で受け付けた指定情報に対応する映像生成部が生成した映像とが重畳された様子を利用者が視認可能なように、指定部で受け付けた指定情報に対応する映像を提示する。これにより、対象物の領域である対象領域と、指定部で受け付けた指定情報に対応する映像生成部が生成した前記映像と、が重畳された様子を利用者が視認可能な状態で、指定部における対象物の画像に含まれる画像領域の提示と、映像を生成するための指定情報の入力の受け付けとが可能とされている。   A designation unit that is a user interface for setting information for generating a video presents an image area included in the image of the target object so that the user can visually recognize the video, and generates the video. The video generation unit generates a video corresponding to the specification information received by the designation unit, and the video presentation unit uses the target region, which is the target object region, and the designation unit. The video corresponding to the designation information received by the designation unit is presented so that the user can visually recognize how the video generated by the video generation unit corresponding to the received designation information is superimposed. As a result, in the state in which the user can visually see how the target region that is the target region and the video generated by the video generation unit corresponding to the specification information received by the specification unit are superimposed, It is possible to present an image area included in the image of the object and to accept input of designation information for generating a video.

これにより、対象物に重畳させたときに所望の視覚効果を与える映像を容易に生成できる。   This makes it possible to easily generate an image that gives a desired visual effect when superimposed on an object.

図1は実施形態の映像システムを例示したブロック図である。FIG. 1 is a block diagram illustrating a video system according to an embodiment. 図2は実施形態のユーザインタフェース画面を例示した概念図である。FIG. 2 is a conceptual diagram illustrating a user interface screen according to the embodiment. 図3はユーザインタフェースが有するパラメータ設定部(映像重畳前)を例示した概念図である。FIG. 3 is a conceptual diagram illustrating a parameter setting unit (before video superimposition) of the user interface. 図4はユーザインタフェースが有するパラメータ設定部(映像重畳時)を例示した概念図である。FIG. 4 is a conceptual diagram illustrating a parameter setting unit (at the time of video superimposition) included in the user interface. 図5は実施形態のユーザインタフェース画面を例示した概念図である。FIG. 5 is a conceptual diagram illustrating a user interface screen according to the embodiment. 図6は実施形態のユーザインタフェース画面を例示した概念図である。FIG. 6 is a conceptual diagram illustrating a user interface screen according to the embodiment. 図7は実施形態の映像システムを例示したブロック図である。FIG. 7 is a block diagram illustrating a video system according to the embodiment.

以下、本発明の実施形態を説明する。
[概要]
まず概要を説明する。
本形態では、「対象物」に見掛けの動き(動きの印象)を与えるために重畳される「映像」を生成する際に、(1−1)「映像」を生成するための情報を「利用者」が設定するためのユーザインタフェースである「指定部」が、「対象物」の画像に含まれる「画像領域」を「利用者」が視認可能なように提示するとともに、「映像」を生成するための「指定情報」の入力を受け付け、(1−2)「映像生成部」が、「指定部」で受け付けた「指定情報」に対応する「映像」を生成し、(1−3)「映像提示部」が、「対象物」の領域である「対象領域」と、「指定部」で受け付けた「指定情報」に対応する「映像生成部」が生成した「映像」と、が重畳された様子を「利用者」が視認可能なように、「指定部」で受け付けた「指定情報」に対応する「映像」を提示する。「映像提示部」は、投影装置であってもよいし、透過型ディスプレイであってもよい。前者の場合、投影装置である「映像提示部」が「映像」を「対象領域」に投影し、これによって「対象領域」と「映像」とを重畳させる。後者の場合、透過型ディスプレイである「映像提示部」が透過性のある「映像」を表示し、当該「映像提示部」に表示された「映像」と当該「映像提示部」の背後に配置された「対象物」の「対象領域」とを重畳させる。これにより、「対象物」の領域である「対象領域」と、「指定部」で受け付けた「指定情報」に対応する「映像生成部」が生成した「映像」と、が重畳された様子を「利用者」が視認可能な状態で、「指定部」における、「対象物」の画像に含まれる「画像領域」の提示と、「映像」を生成するための「指定情報」の入力の受け付けと、が可能になる。(1−4)「対象物」の領域である「対象領域」と、「指定部」で受け付けた「指定情報」に対応する「映像生成部」が生成した「映像」と、が重畳された様子を「利用者」が視認可能な状態で、「指定部」における対象物の画像に含まれる画像領域の提示と、「映像」を生成するための指定情報の入力を受け付けとが行われると、受け付けた「指定情報」が即時反映された「映像」を「更新後映像」として「映像生成部」が生成し、(1−5)「映像提示部」が、「対象物」の領域である「対象領域」と、「映像生成部」が生成した「更新後映像」と、が重畳された様子を利用者が視認可能なように、当該「更新後映像」を提示する。「映像提示部」が「更新後映像」を提示することにより、「対象物」の領域である「対象領域」と、「指定部」で受け付けた「指定情報」に対応して「映像生成部」が生成した「更新後映像」と、が重畳された様子を「利用者」が視認可能な状態となる。これにより、「利用者」は、ユーザインタフェースから「指定情報」を入力し、それに対応する「映像」を「対象領域」に重畳した様子をリアルタイムで確認できる。「利用者」はこの様子を見ながら「指定情報」を設定できるため、「対象領域」に重畳された際に所望の視覚効果を与える「映像」を容易に生成できる。
Embodiments of the present invention will be described below.
[Overview]
First, an outline will be described.
In this embodiment, when generating a “video” to be superimposed in order to give an apparent motion (motion impression) to the “object”, (1-1) information for generating the “video” is “utilized”. “Designator”, which is a user interface for setting by “user”, presents “image area” included in the image of “object” so that “user” can see it, and generates “video” (1-2) The “video generation unit” generates “video” corresponding to the “designation information” received by the “designation unit”, and (1-3) The “video presentation unit” superimposes the “target region”, which is the region of the “object”, and the “video” generated by the “video generation unit” corresponding to the “designated information” received by the “designation unit”. In order for the “user” to be able to see the appearance of the To present the "Video". The “video presentation unit” may be a projection device or a transmissive display. In the former case, the “video presentation unit” that is a projection device projects the “video” onto the “target area”, thereby superimposing the “target area” and the “video”. In the latter case, the “video presentation unit” which is a transmissive display displays a transparent “video” and is placed behind the “video” displayed in the “video presentation unit” and the “video presentation unit”. The “target region” of the “target” that has been added is superimposed. As a result, the “target region” that is the region of the “target object” and the “video” generated by the “video generation unit” corresponding to the “designation information” received by the “designation unit” are superimposed. In the state where the “user” is visible, the “designation unit” presents the “image area” included in the “object” image and accepts the input of “designation information” for generating the “video”. It becomes possible. (1-4) The “target region” that is the region of the “object” and the “video” generated by the “video generation unit” corresponding to the “specified information” received by the “designating unit” are superimposed. When the state is visible to the “user”, the presentation of the image area included in the image of the object in the “designating part” and the reception of the designation information for generating the “video” are received. Then, the “video generation unit” generates the “video” in which the received “designated information” is immediately reflected as “updated video”, and (1-5) the “video presentation unit” is in the “object” area. The “updated video” is presented so that the user can visually recognize a certain “target region” and the “updated video” generated by the “video generation unit”. When the “video presentation unit” presents the “updated video”, the “video generation unit” corresponds to the “target region” that is the region of the “target object” and the “designation information” received by the “designation unit”. The “updated video” generated by “” is in a state where the “user” can visually recognize the superimposed state. As a result, the “user” can input “designation information” from the user interface and confirm in real time how the “video” corresponding to the “designation information” is superimposed on the “target area”. Since the “user” can set “designated information” while watching this state, it is possible to easily generate “video” that gives a desired visual effect when superimposed on the “target region”.

例えば、(2−1)「対象物」の領域を「利用者」が設定するためのユーザインタフェースである「指定部」が、「対象物」の画像を「利用者」が視認可能なように提示するとともに、「対象物」の画像に含まれる「画像領域」を特定する「第1指定情報」の入力を受け付け、(2−2)「映像生成部」が、「指定部」で受け付けた「第1指定情報」で特定される「画像領域」に対応する映像を生成し、(2−3)「映像提示部」が「第1指定情報」で特定される「画像領域」に対応する「対象物」の領域である「対象領域」と、「指定部」で受け付けた「第1指定情報」で特定される「画像領域」に対応する、「映像生成部」が生成した「映像」とが重畳された様子を「利用者」が視認可能なように、当該「指定部」で受け付けた「第1指定情報」で特定される「画像領域」に対応する、「映像生成部」が生成した「映像」を提示してもよい。これにより、「対象物」の領域である「対象領域」と、「指定部」で受け付けた「第1指定情報」で特定される「画像領域」に対応する、「映像生成部」が生成した「映像」と、が重畳された様子を利用者が視認可能な状態で、「指定部」における、「対象物」の画像に含まれる画像領域の提示と、「第1指定情報」の入力の受け付けと、が可能となっている。「利用者」は、ユーザインタフェースから「第1指定情報」を入力し、「第1指定情報」で特定される「画像領域」に対応する「対象領域」に「映像」を重畳した様子を確認できる。「利用者」はこの様子を見ながら「対象領域」を設定できるため、「対象領域」に重畳された際に所望の領域に所望の動きを与える「映像」を容易に生成できる。   For example, (2-1) a “designating unit” which is a user interface for the “user” to set the “object” area so that the “user” can visually recognize the image of the “object”. In addition to presenting, the input of “first designation information” for specifying the “image area” included in the image of the “object” is accepted, and (2-2) “video generation unit” is accepted by the “designation unit” A video corresponding to the “image area” specified by the “first designation information” is generated, and (2-3) “video presentation unit” corresponds to the “image area” specified by the “first designation information”. “Video” generated by the “video generation unit” corresponding to the “target region” that is the region of the “target object” and the “image region” specified by the “first designation information” received by the “designation unit” The “first finger” received by the “designating part” so that the “user” can see the superimposed state Corresponding to the "image region" specified by the information "may present a" picture "of" image generator "is generated. As a result, the “video generation unit” corresponding to the “target region” that is the region of the “target object” and the “image region” specified by the “first designation information” received by the “designation unit” is generated. In a state where the user can visually recognize the state in which the “video” is superimposed, the “designation unit” presents the image area included in the “object” image and inputs the “first designation information”. Acceptance is possible. “User” inputs “first designation information” from the user interface and confirms that “video” is superimposed on “target area” corresponding to “image area” specified by “first designation information”. it can. Since the “user” can set the “target region” while watching this state, it is possible to easily generate a “video” that gives a desired motion to the desired region when superimposed on the “target region”.

例えば、(3−1)「対象領域」の像に与える動きを「利用者」が設定するためのユーザインタフェースである「指定部」が、「画像領域」および「対象領域」の像に与える動きに対応するパラメータを利用者が視認可能なように提示するとともに、動きに対応するパラメータを特定する「第2指定情報」の入力を受け付け、(3−2)「映像生成部」が、「指定部」で受け付けた「第1指定情報」で特定される「画像領域」に、「指定部」で受け付けた「第2指定情報」で特定されるパラメータに対応する動きを与える映像を生成し、(3−3)「映像提示部」が、「対象物」の領域である「対象領域」と、「指定部」で受け付けた「第1指定情報」で特定される「画像領域」に、「指定部」で受け付けた「第2指定情報」で特定されるパラメータに対応する動きを与える「映像」と、が重畳された様子を利用者が視認可能なように、「指定部」で受け付けた「第1指定情報」で特定される「画像領域」に、「指定部」で受け付けた「第2指定情報」で特定されるパラメータに対応する動きを与える、「映像生成部」が生成した当該「映像」を提示してもよい。これにより、「対象物」の領域である「対象領域」と、「指定部」で受け付けた「第1指定情報」で特定される「画像領域」に、「指定部」で受け付けた「第2指定情報」で特定される「パラメータ」に対応する動きを与える、「映像生成部」が生成した「映像」と、が重畳された様子を利用者が視認可能な状態で、「指定部」における動きに対応するパラメータの提示と、第2指定情報の入力の受け付けと、が可能となっている。「利用者」は、ユーザインタフェースから「第2指定情報」を入力し、それに対応する動きを与える「映像」を「対象領域」に重畳した様子を確認できる。「利用者」はこの様子を見ながら「第2指定情報」を設定できるため、「対象領域」に重畳された際に所望の動きを与える「映像」を容易に生成できる。「動き」は周期的なものであってもよいし、非周期的なものであってもよい。   For example, (3-1) Movement given to the image of “image area” and “target area” by the “designating unit” which is a user interface for the “user” to set the movement given to the image of “target area” The parameter corresponding to is presented so that the user can visually recognize it, and the input of “second designation information” that identifies the parameter corresponding to the movement is accepted. (3-2) The “video generation unit” A video that gives a motion corresponding to the parameter specified by the “second specification information” received by the “designation unit” to the “image region” specified by the “first specification information” received by the “part”, (3-3) The “video presentation unit” includes “target region” that is the region of “object” and “image region” that is specified by “first designation information” received by the “designation unit”. The parameter specified by the “second designation information” received by the “designation section” In the “image area” specified by the “first designation information” received by the “designation unit” so that the user can visually recognize the superposition of the “video” that gives the movement corresponding to the meter, The “video” generated by the “video generation unit” that gives a motion corresponding to the parameter specified by the “second specification information” received by the “designation unit” may be presented. As a result, the “target region” that is the region of the “object” and the “second region” received by the “designation unit” are identified by the “image region” identified by the “first designation information” received by the “designation unit”. In the state where the user can visually recognize the superimposed state of the “video” generated by the “video generation unit” that gives a motion corresponding to the “parameter” specified by the “specification information”, It is possible to present parameters corresponding to movement and to accept input of second designation information. The “user” inputs “second designation information” from the user interface, and can confirm that the “video” giving the corresponding motion is superimposed on the “target area”. Since the “user” can set the “second designation information” while watching this state, it is possible to easily generate a “video” that gives a desired motion when superimposed on the “target region”. The “movement” may be periodic or non-periodic.

例えば、(4−1)「対象領域」の像に与える動きの時間範囲を「利用者」が設定するためのユーザインタフェースである「指定部」が、「映像」が与える動きの時間軸上の位置、および「映像」が与える動きの時間範囲に対応するパラメータを「利用者」が視認可能なように提示するとともに、動きの時間範囲に対応するパラメータを特定する「第3指定情報」の入力を受け付け、(4−2)「映像生成部」は、「指定部」で受け付けた「第1指定情報」で特定される「画像領域」に、「指定部」で受け付けた「第3指定情報」で特定されるパラメータに対応する時間範囲で動きを与える映像を生成し、(4−3)「映像提示部」が、「対象物」の領域である対象領域と、「指定部」で受け付けた「第3指定情報」で特定されるパラメータに対応する時間範囲で動きを与える「映像」と、が重畳された様子、および「映像」が与える動きの時間軸上の位置を利用者が視認可能なように、「指定部」で受け付けた「第1指定情報」で特定される「画像領域」に、「指定部」で受け付けた「第3指定情報」で特定されるパラメータに対応する時間範囲で動きを与える「映像」を提示してもよい。これにより、「対象物」の領域である「対象領域」と、「指定部」で受け付けた「第1指定情報」で特定される「画像領域」に、「指定部」で受け付けた「第3指定情報」で特定されるパラメータに対応する時間範囲で動きを与える、「映像生成部」が生成した「映像」と、が重畳された様子、および「映像」が与える動きの時間軸上の位置、を利用者が視認可能な状態で、「指定部」における動きの時間範囲に対応するパラメータの提示と、「第3指定情報」の入力の受け付けと、が可能となっている。「利用者」は、ユーザインタフェースから「第3指定情報」を入力し、それに対応する時間変化で動きを与える「映像」を「対象領域」に重畳した様子を確認できる。「利用者」はこの様子を見ながら「第3指定情報」を設定できるため、「対象領域」に重畳された際に所望の時間範囲で動きを与える「映像」を容易に生成できる。動きの時間範囲は、動きの開始時点と終了時点とによって特定されてもよいし、動きの開始時点と動きの継続時間やフレーム数によっても特定されてもよい。   For example, (4-1) a “designating unit” which is a user interface for a “user” to set a time range of motion given to an image of “target region” is on the time axis of motion given by “video” The parameter corresponding to the position and the time range of the motion given by the “video” is presented so that the “user” can visually recognize, and the “third designation information” for specifying the parameter corresponding to the time range of the motion is input. (4-2) The “video generation unit” receives the “third designation information” received by the “designation unit” in the “image area” specified by the “first designation information” received by the “designation unit”. ”Is generated in the time range corresponding to the parameter specified by“ (4-3) ”, and the“ video presentation unit ”receives the“ target object ”region and the“ designation unit ”. Parameters specified by “third specification information” The “designation unit” accepts the “video” giving motion in the corresponding time range, and the position on the time axis of the motion given by “video” so that the user can visually recognize it. Even if the “image area” specified by the “first designation information” is presented with “video” that gives motion in the time range corresponding to the parameter specified by the “third designation information” received by the “designation unit” Good. As a result, the “target area” that is the area of the “object” and the “image area” that is specified by the “first designation information” that is received by the “designation section” are the “third area” that is received by the “designation section”. The movement of the “video” generated by the “video generation unit” that gives motion in the time range corresponding to the parameter specified by the “specification information” and the position on the time axis of the movement that “video” gives , The parameter corresponding to the time range of movement in the “designating part” and the acceptance of the input of “third designated information” can be received. The “user” inputs “third designation information” from the user interface, and can confirm that the “video” that gives the motion with the corresponding time change is superimposed on the “target region”. Since the “user” can set the “third designation information” while watching this state, it is possible to easily generate a “video” that gives a motion in a desired time range when superimposed on the “target region”. The motion time range may be specified by the start time and end time of the motion, or may be specified by the start time of the motion, the duration of the motion, and the number of frames.

「対象物」は、立体的形状を備える物(例えば、花瓶、ボール、模型)であってもよいし、平面(例えば、紙、ボード、壁、スクリーン)であってもよい。「対象物」が平面である場合には、その平面にパタンが含まれることが望ましい。平面に含まれるパタンの例として、例えば、紙に印刷した写真、画像、所定の平面に投影した写真、画像が考えられる。「対象物」をディスプレイなどの画面とした場合には、パタンの例として、ディスプレイなどの画面に表示した画像などが挙げられる。「対象領域」は、「対象物」の全領域であってもよいし、「対象物」の一部の領域であってもよい。   The “object” may be an object having a three-dimensional shape (for example, a vase, a ball, a model), or a plane (for example, paper, a board, a wall, a screen). When the “object” is a plane, it is desirable that the pattern includes the plane. Examples of patterns included in the plane include a photograph printed on paper, an image, a photograph projected on a predetermined plane, and an image. When the “object” is a screen such as a display, examples of the pattern include an image displayed on the screen such as a display. The “target area” may be the entire area of the “target object” or may be a partial area of the “target object”.

「映像」は「対象領域」の像に見掛けの動きを与える動画である。言い換えると、「映像」は「対象領域」の像に与える動きを表す透過性のある動画である。例えば、「映像」は、「対象領域」の像に与える動きを表す「輝度運動成分」を含む動画であり、好ましくは「輝度運動成分」のみからなる動画である(例えば、特許文献1参照)。このような「映像」を「対象物」に重畳することで、「対象物」に見掛けの動きを与えることができる。このような「映像」の生成方法を例示すると以下のようになる。「対象物」の静止画像をMstaticと表現する。静止画像Mstaticは有彩色を含むカラー画像であり、Rチャネル、Gチャネル、Bチャネルの強度変化を表す画素値で構成されている。
ただし、{Rstatic(x,y)},{Gstatic(x,y)},{Bstatic(x,y)}は、それぞれ、画素値Rstatic(x,y),Gstatic(x,y),Bstatic(x,y)を要素とする空間2次元を持つ2次元行列である。画素値Rstatic(x,y),Gstatic(x,y),Bstatic(x,y)は、それぞれ水平位置x、垂直位置yでのRチャネル、Gチャネル、Bチャネルの強度を表す。x,yは、それぞれ2次元座標系で静止画像を表現した場合の水平位置および垂直位置を示す整数である。水平位置の下限および上限をxminおよびxmax(xmin<xmax)とし、垂直位置の下限および上限yminおよびymax(ymin<ymax)とする。x,yはxmin≦x≦xmax,ymin≦y≦ymaxを満たす。
The “video” is a moving image that gives an apparent movement to the image of the “target area”. In other words, the “video” is a transparent moving image representing the movement given to the image of the “target area”. For example, the “video” is a moving image including a “luminance motion component” representing a motion given to the image of the “target region”, and preferably a moving image including only the “luminance motion component” (see, for example, Patent Document 1). . By superimposing such an “image” on the “object”, an apparent movement can be given to the “object”. An example of such a “video” generation method is as follows. A still image of the “object” is expressed as M static . The still image M static is a color image including a chromatic color, and is composed of pixel values representing intensity changes in the R channel, the G channel, and the B channel.
However, {R static (x, y)}, {G static (x, y)}, and {B static (x, y)} are pixel values R static (x, y) and G static (x, y), respectively. y) is a two-dimensional matrix having a two-dimensional space with B static (x, y) as elements. Pixel values R static (x, y), G static (x, y), and B static (x, y) represent the intensities of the R channel, the G channel, and the B channel at the horizontal position x and the vertical position y, respectively. x and y are integers indicating the horizontal position and the vertical position when a still image is expressed in a two-dimensional coordinate system, respectively. Let the lower limit and upper limit of the horizontal position be x min and x max (x min <x max ), and the lower limit and upper limit of the vertical position y min and y max (y min <y max ). x and y satisfy x min ≦ x ≦ x max and y min ≦ y ≦ y max .

次に、画素値Rstatic(x,y),Gstatic(x,y),Bstatic(x,y)を各色が輝度に貢献する程度に応じて重み付け加算し、画像Mstaticの輝度成分画像Ystatic(x,y)(ただし、xmin≦x≦xmax,ymin≦y≦ymax)を以下の式により得る。
Ystatic (x,y)=αRRstatic(x,y)+αGGstatic (x,y)+αBBstatic(x,y)
ただし、α,α,αは重み係数(定数)である(例えば、α=0.299,α=0.587,α=0.114)。
Next, the pixel values R static (x, y), G static (x, y), and B static (x, y) are weighted and added according to the degree that each color contributes to the luminance, and the luminance component image of the image M static Y static (x, y) (where x min ≤ x ≤ x max , y min ≤ y ≤ y max ) is obtained by the following equation.
Y static (x, y) = α R R static (x, y) + α G G static (x, y) + α B B static (x, y)
However, α R , α G and α B are weighting coefficients (constants) (for example, α R = 0.299, α G = 0.587, α B = 0.114).

「対象物」の静止画像の輝度成分画像Ystaticに動きを与えた動画をYと表現する。輝度成分画像Ystaticに与えられる動きに限定はなく、どのような動きが与えられてもよい。動画Yは以下のように表すことができる。
ただし、{Y(x,y,t)}は画素値Y(x,y,t)を要素とする空間2次元、時間1次元の情報を持つ3次元行列である。画素値Y(x,y,t)は、水平位置x、垂直位置y、フレーム番号tでの輝度成分の強度を表す。x,y,tは、それぞれ3次元座標系で動画を表現した場合の水平位置、垂直位置、フレーム番号を示す整数である。水平位置の下限および上限をxminおよびxmax(xmin<xmax)とし、垂直位置の下限および上限yminおよびymax(ymin<ymax)とし、フレーム番号の下限および上限をtminおよびtmax(tmin<tmax)とする。x,y,tはxmin≦x≦xmax,ymin≦y≦ymax,tmin≦t≦tmaxを満たす。
A moving image in which a motion is given to the luminance component image Y static of the still image of the “object” is expressed as Y 1 . The movement given to the luminance component image Y static is not limited, and any movement may be given. Video Y 1 can be expressed as follows.
However, {Y (x, y, t)} is a three-dimensional matrix having spatial two-dimensional and temporal one-dimensional information whose pixel value Y (x, y, t) is an element. The pixel value Y (x, y, t) represents the intensity of the luminance component at the horizontal position x, the vertical position y, and the frame number t. x, y, and t are integers indicating the horizontal position, the vertical position, and the frame number when a moving image is expressed in a three-dimensional coordinate system. The lower and upper limits of the horizontal position are x min and x max (x min <x max ), the lower and upper limits of the vertical position are y min and y max (y min <y max ), and the lower and upper limits of the frame number are t min And t max (t min <t max ). x, y, and t satisfy x min ≤ x ≤ x max , y min ≤ y ≤ y max , and t min ≤ t ≤ t max .

さらに、各フレームtの輝度成分画像Y1(x,y,t)から、輝度成分画像Ystatic(x,y)を減じることで輝度運動成分Ymotion(x,y,t)が得られる。
Ymotion(x,y,t)=Y1(x,y,t)-Ystatic(x,y)
Further, the luminance motion component Y motion (x, y, t) is obtained by subtracting the luminance component image Y static (x, y) from the luminance component image Y 1 (x, y, t) of each frame t.
Y motion (x, y, t) = Y 1 (x, y, t) -Y static (x, y)

このように得られた輝度運動成分Ymotion(x,y,t)を上述の「映像」としてもよいし、輝度運動成分Ymotion(x,y,t)にフィルタリング(例えば、高空間周波数フィルタリングまたは低空間周波数フィルタリング)して得られたものを「映像」としてもよい。あるいは、後述のように輝度運動成分Ymotion(x,y,t)対し、重みを与えたり、「対象物」の反射率やアルベドを考慮して値を補正したり、定数を加算したものを「映像」としてもよい。このような「映像」の一例は「変幻灯」(登録商標)である。 The luminance motion component Y motion (x, y, t) thus obtained may be used as the above-mentioned “video”, or may be filtered into the luminance motion component Y motion (x, y, t) (for example, high spatial frequency filtering). Alternatively, a video obtained by low spatial frequency filtering may be used as an “image”. Alternatively, as described later, the luminance motion component Y motion (x, y, t) is given a weight, corrected for the reflectance of the “object” and the albedo, or added with a constant. It may be “video”. An example of such an “image” is a “phantom light” (registered trademark).

その他、「対象領域」の像に与える動きを表す透過性のない動画が「映像」であってもよい。   In addition, the “non-transparent” moving image representing the movement given to the “target area” image may be “video”.

「対象物の画像」は、例えば「対象物」の画像情報を取り込むことで得られる画像である。例えば「対象物の画像」は、「対象物」を撮影して得られる画像であってもよいし、「対象物」をスキャンして得られる画像であってもよい。「対象物の画像」が「対象物」の画像情報を取り込むことで得られた画像を画像処理して得られる画像であってもよいし、「対象物」を描画して得られた画像であってもよいし、「対象物」のコンピュータグラフィック画像であってもよい。あるいは、「対象物の画像」が「対象物」の一部の特徴のみを表した画像であってもよい。「対象物の画像」は、カラー画像であってもよいし、モノトーン画像であってもよいし、単純白黒画像(二値画像)であってもよい。例えば、「対象物の画像」が「対象物」のエッジや輪郭のみを表した画像であってもよい。「画像領域」は、「対象物の画像」の全領域であってもよいし、「対象物の画像」の一部の領域であってもよい。   The “object image” is, for example, an image obtained by capturing image information of the “object”. For example, the “object image” may be an image obtained by photographing the “object” or may be an image obtained by scanning the “object”. The “object image” may be an image obtained by performing image processing on an image obtained by capturing image information of the “object”, or an image obtained by drawing the “object”. It may be a computer graphic image of an “object”. Alternatively, the “object image” may be an image representing only some features of the “object”. The “object image” may be a color image, a monotone image, or a simple monochrome image (binary image). For example, the “object image” may be an image representing only the edges and contours of the “object”. The “image region” may be the entire region of the “object image” or may be a partial region of the “object image”.

[第1実施形態]
以下、図面を参照して本発明の実施形態を説明する。
<映像システムの構成>
図1に例示するように、本形態の映像システム1は、対象物14に重畳する映像を生成する映像生成装置11、対象物14を撮影して対象物14の画像を取り込む撮影装置12、および対象物14に映像を投影する投影装置13(映像提示部)を有する。映像生成装置11は、撮影装置12および投影装置13と、直接に接続されていてもよいし、LANなどのローカルネットワークを通じて接続されていてもよいし、インターネット等の公衆ネットワークを通じて接続されていてもよい。
[First Embodiment]
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<Configuration of video system>
As illustrated in FIG. 1, the video system 1 of the present embodiment includes a video generation device 11 that generates a video to be superimposed on the target 14, a shooting device 12 that captures an image of the target 14 by capturing the target 14, and A projection device 13 (image presentation unit) that projects an image on the object 14 is provided. The video generation device 11 may be directly connected to the imaging device 12 and the projection device 13, may be connected through a local network such as a LAN, or may be connected through a public network such as the Internet. Good.

映像生成装置11は、画素対応計算部11a、重畳映像生成部11b、投影対象画像取得部11c、アルベド計算部11d、位置姿勢変換部11e、画像検索部11f、映像生成部11g、動き編集部11h、インタフェース部11i、入力部11j、表示部11k、データベース(DB)部11m、およびメモリ11rを有する。インタフェース部11i、入力部11j、および表示部11kは、利用者からの情報の入力の受け付け、および利用者に対する情報の提示(出力)を行うユーザインタフェース(指定部)である。映像生成装置11は、例えば、CPU(central processing unit)等のプロセッサ(ハードウェア・プロセッサ)、RAM(random-access memory)・ROM(read-only memory)等のメモリ、マウス、タッチパネル、液晶ディスプレイ等のユーザインタフェース等を備える汎用または専用のコンピュータが所定のプログラムを実行することで構成される装置である。このコンピュータは1個のプロセッサやメモリを備えていてもよいし、複数個のプロセッサやメモリを備えていてもよい。このプログラムはコンピュータにインストールされてもよいし、予めROM等に記録されていてもよい。また、CPUのようにプログラムが読み込まれることで機能構成を実現する電子回路(circuitry)ではなく、プログラムを用いることなく処理機能を実現する電子回路を用いて一部またはすべての処理部が構成されてもよい。また、1個の装置を構成する電子回路が複数のCPUを含んでいてもよい。映像生成装置11は、例えば、パーソナルコンピュータ、スマートフォン端末装置、タブレット端末装置、サーバ装置などのコンピュータにプログラムを実装することで構成される。   The video generation device 11 includes a pixel correspondence calculation unit 11a, a superimposed video generation unit 11b, a projection target image acquisition unit 11c, an albedo calculation unit 11d, a position / orientation conversion unit 11e, an image search unit 11f, a video generation unit 11g, and a motion editing unit 11h. An interface unit 11i, an input unit 11j, a display unit 11k, a database (DB) unit 11m, and a memory 11r. The interface unit 11i, the input unit 11j, and the display unit 11k are user interfaces (designating units) that accept input of information from the user and present (output) information to the user. The video generation apparatus 11 includes, for example, a processor (hardware processor) such as a central processing unit (CPU), a memory such as random-access memory (RAM) / read-only memory (ROM), a mouse, a touch panel, a liquid crystal display, and the like A general-purpose or dedicated computer having a user interface or the like executes a predetermined program. The computer may include a single processor and memory, or may include a plurality of processors and memory. This program may be installed in a computer, or may be recorded in a ROM or the like in advance. In addition, some or all of the processing units are configured using an electronic circuit that realizes a processing function without using a program, instead of an electronic circuit (circuitry) that realizes a functional configuration by reading a program like a CPU. May be. In addition, an electronic circuit constituting one device may include a plurality of CPUs. The video generation device 11 is configured, for example, by mounting a program on a computer such as a personal computer, a smartphone terminal device, a tablet terminal device, or a server device.

撮影装置12は可視光の像を撮影可能なカメラであってもよいし、紫外線や赤外線を撮影可能なカメラであってもよい。投影装置13は、例えば光源を有し、透過性のある像を投影するプロジェクタである。   The photographing device 12 may be a camera capable of photographing a visible light image, or may be a camera capable of photographing ultraviolet rays or infrared rays. The projection device 13 is a projector that has a light source, for example, and projects a transparent image.

DB部11mには、複数の「対象物」のそれぞれについて、当該「対象物」を表す情報と、当該「対象物」に対応する「参照画像」と、当該「参照画像」の「動き情報」と、が互いに対応付けられて格納されている。この各対象物に対応する情報の組(「対象物を表す情報」、「参照画像」、「動き情報」)を「シーン」と呼ぶこととする。「対象物を表す情報」としては、例えば、対象物の画像パタンや特徴量(例えば、SIFT特徴量)などを例示できる。「動き情報」は、動きを与える画像領域である1以上の歪み窓(DW:Deformation Window)の情報(座標など)と、各歪み窓DWに対応する、歪み(動き)の空間範囲、歪み(動き)の時間範囲(歪みの開始時間、持続時間、フェードイン時刻、フェードアウト時刻など)、歪みの基底関数の種類、振幅、空間周波数、速さ、角度、位相、再生する音のファイル名の情報とを含む。初期状態の「動き情報」は、例えば、予め定められた1個の歪み窓DWの情報と、その歪み窓DWに対応する、歪みの空間範囲、歪みの時間範囲、歪みの基底関数の種類、振幅、空間周波数、速さ、角度、位相、効果音のIDの情報とを含む。歪みの基底関数は、基本となる歪み(動き)を表した関数であり、歪みの基底関数の線形結合によって動きが与えられる。「動き情報」によって特定される動きは、例えば周期的なものである。例えば、歪み窓DWでの動きは、当該歪み窓DW内での往復運動である。このように、動き情報として映像(投影パタン)そのものではなく、動きを特定する情報を格納しておくことで、DB部11mの記憶容量を節約できる。さらに、対象物の画像に応じ、動きを特定する情報から映像を生成することで、位置ずれに頑健な構成になる。例えば、以下のように、「シーン」を識別する「シーン番号」と「対象物を表す情報」と当該「対象物」に対応する「参照画像」と「動き情報」とを関連付けたシーンのリストを格納するDBがDB部11mに保存される(表1)。対象物の種類によらず常に特定の動きを与えたいような場合には、DBが「対象物を表す情報」を持たない「シーン」を含んでいてもよい。この場合には、任意のサイズの白色画像を「参照画像」として当該シーンに関連付けておく。
The DB unit 11m includes, for each of a plurality of “objects”, information representing the “object”, a “reference image” corresponding to the “object”, and “motion information” of the “reference image”. Are stored in association with each other. A set of information corresponding to each object (“information representing the object”, “reference image”, “motion information”) is referred to as a “scene”. Examples of the “information representing the object” include an image pattern and a feature amount (for example, SIFT feature amount) of the object. The “motion information” includes information (coordinates, etc.) of one or more distortion windows (DW: Deformation Window) which are image areas to which motion is applied, a spatial range of distortion (motion) corresponding to each distortion window DW, distortion ( Motion) time range (distortion start time, duration, fade-in time, fade-out time, etc.), distortion basis function type, amplitude, spatial frequency, speed, angle, phase, and file name information to play Including. The “motion information” in the initial state includes, for example, information on a predetermined distortion window DW, a distortion spatial range, a distortion time range, and a distortion basis function type corresponding to the distortion window DW. Information on amplitude, spatial frequency, speed, angle, phase, and sound effect ID. The distortion basis function is a function representing a basic distortion (motion), and the movement is given by a linear combination of the distortion basis functions. The motion specified by the “motion information” is, for example, periodic. For example, the movement in the distortion window DW is a reciprocating movement in the distortion window DW. As described above, by storing not the video (projection pattern) itself but the information specifying the motion as the motion information, the storage capacity of the DB unit 11m can be saved. Furthermore, according to the image of the object, a video is generated from the information specifying the movement, so that the configuration is robust against displacement. For example, as shown below, a list of scenes that associates a “scene number” that identifies a “scene”, “information representing an object”, and “reference image” and “motion information” corresponding to the “object” Is stored in the DB unit 11m (Table 1). When it is desired to always give a specific movement regardless of the type of the object, the DB may include a “scene” that does not have “information representing the object”. In this case, a white image of an arbitrary size is associated with the scene as a “reference image”.

「対象物」が立体的形状を有するもの(立体物)の表面のパタンである場合、複数の方向から1つの「立体物」を撮影して得られる複数の画像パタン(3次元データ)や、そのような複数の画像パタンに対応する複数の特徴量を「対象物を表す情報」としてもよい。例えば、以下のように「立体物」と、当該立体物に対応する複数の対象物の「対象物を表す情報」と、当該対象物に対応する「参照画像」と、当該「参照画像」の「動き情報」と、を関連付けた「シーン」のリストを格納するDBがDB部191に保存されていてもよい(表2)。
When the “object” is a surface pattern of a three-dimensional object (three-dimensional object), a plurality of image patterns (three-dimensional data) obtained by photographing one “three-dimensional object” from a plurality of directions, A plurality of feature amounts corresponding to such a plurality of image patterns may be used as “information representing an object”. For example, as shown below, a “three-dimensional object”, “information representing the object” of a plurality of objects corresponding to the three-dimensional object, a “reference image” corresponding to the object, and the “reference image” A DB that stores a list of “scenes” associated with “motion information” may be stored in the DB unit 191 (Table 2).

<動作>
次に、本形態の映像システム1の動作を説明する。
≪起動≫
映像生成装置11を起動させると、投影対象画像取得部11cが、明るさB1の一様光の投影を投影装置13に指示し、映像の取得を撮影装置12に指示する。撮影装置12で取得された対象物14の画像101はインタフェース部11iに送られる。動き編集部11hは、DB部11mから初期設定されたシーン(例えば、シーン番号i=1のシーン)に含まれる参照画像の外枠の座標および動き情報を抽出し、これらを用いて生成されるユーザインタフェース画面100−1の表示をインタフェース部11iに指示する。インタフェース部11iは、表示部11kにユーザインタフェース画面100−1(図2)を表示させる。図2に例示するように、ユーザインタフェース画面100−1は、画像101と、初期設定されたシーンの参照画像の外枠の座標から得られる投影領域110と、当該シーンの動き情報の各DWの座標から得られる画像領域120,121と、時間軸の情報を表す領域である時間軸情報表示部130と、パラメータ設定部150とを含む。画像領域121は、動き編集部11hが抽出した所定のシーン(例えば、シーン番号i=1のシーン)の動き情報が有する歪み窓(DW)である。投影領域110および画像領域120,121の位置はシーンによって定まり、必ずしも実際の画像101の領域と対応しない。利用者はこのユーザインタフェース画面100−1を見ながら、手動により撮影装置12の位置姿勢や対象物14の位置姿勢を調整することができる。
<Operation>
Next, the operation of the video system 1 of this embodiment will be described.
≪Startup≫
When activating the image generating apparatus 11, a projection target image acquisition unit 11c is, indicates the projection of uniform light brightness B 1 to the projection unit 13, and instructs the acquisition of the image to the imaging device 12. The image 101 of the object 14 acquired by the imaging device 12 is sent to the interface unit 11i. The motion editing unit 11h extracts the coordinates and motion information of the outer frame of the reference image included in the initially set scene (for example, the scene with the scene number i = 1) from the DB unit 11m, and is generated using these. The interface unit 11i is instructed to display the user interface screen 100-1. The interface unit 11i displays the user interface screen 100-1 (FIG. 2) on the display unit 11k. As illustrated in FIG. 2, the user interface screen 100-1 includes an image 101, a projection area 110 obtained from the coordinates of the outer frame of the reference image of the initially set scene, and each DW of the motion information of the scene. Image regions 120 and 121 obtained from the coordinates, a time axis information display unit 130 that is a region representing time axis information, and a parameter setting unit 150 are included. The image area 121 is a distortion window (DW) included in motion information of a predetermined scene (for example, a scene with scene number i = 1) extracted by the motion editing unit 11h. The positions of the projection area 110 and the image areas 120 and 121 are determined by the scene and do not necessarily correspond to the actual area of the image 101. The user can manually adjust the position and orientation of the imaging device 12 and the position and orientation of the object 14 while viewing the user interface screen 100-1.

図3に例示するように、ユーザインタフェース画面100−1のパラメータ設定部150には、設定部151a,152a〜152h,153a〜153e,154a〜154d,155a〜155c,156a〜156dが表示される。設定部151a,152a〜152h,153a〜153e,154a〜154d,155a〜155c,156a〜156dの概要は以下の通りである。
設定部151a:エフェクト編集モードへの切り替え。設定部151aへの入力操作により、エフェクト編集モードへの切り替えが行われる。「エフェクト編集モード」とは、対象物14に見掛けの動きを与えるための「映像」を重畳させることなく、この動きの設定を行うモードである。
設定部152a:対象物14に見掛けの動きを与える「映像」(例えば、変幻灯)の投影開始。設定部152aへの入力操作で「映像」が対象物14に投影される。
設定部152b:グレイコードパタン投影開始。設定部152bへの入力操作により、キャリブレーションのためのグレイコードパタンの投影が開始される。
設定部152c:テストイメージ画像の投影(ON/OFF切り替え)。設定部152cへの入力操作により、テストイメージ画像を投影するか否かを切り替えることができる。投影されたテストイメージ画像を閲覧することで、対象物14と投影装置13の位置関係の適切さを目視で確認できる。
設定部152d:投影領域110のフレーム設定。設定部152dへの入力操作により、投影領域110の変更が可能になる。
設定部152e:スポットライト状のマスク設定。設定部152eへの入力操作により、投影装置13から投影される光の領域を制限(マスキング)できる。
設定部152f:撮影画像の表示のON/OFF切り替え。設定部152fへの入力操作により、撮影装置12で撮影された画像をリアルタイムで表示部11kから表示するか(ON)しないか(OFF)を切り替えることができる。
設定部152g:静止対象画像撮影時に投影される明るさB,Bのうち明るい方の一様光を投影(ON/OFF)。設定部152gへの入力操作により、画像撮影時に投影される2種類の明るさ(B,B)のうち、明るい方の一様光を投影するか(ON)、暗い方の一様光を投影するかを切り替えることができる。
設定部152h:撮影画像を保存。設定部152hへの入力操作により、画像101を保存できる。
設定部153a:撮影画像の左右反転。設定部153aへの入力操作により、画像101の左右を反転させることができる。
設定部153b:撮影装置12のゲイン設定。設定部153bへの入力操作により、ゲインのパラメータを設定できる。
設定部153c:撮影装置12のシャッタースピード設定。設定部153cへの入力操作により、シャッタースピードのパラメータを設定できる。
設定部153d:撮影装置12のホワイトバランス設定。設定部153dへの入力操作により、ホワイトバランスのパラメータを設定できる。
設定部153e:撮影装置12のホワイトバランス設定。設定部153eへの入力操作により、ホワイトバランスのパラメータを設定できる。
設定部154a:投影装置13のガンマ値設定。設定部154aへの入力操作により、ガンマ値のパラメータを設定できる。
設定部154b:投影装置13の出力の最大値設定。設定部154bへの入力操作により、出力の最大値のパラメータを設定できる。
設定部154c:投影装置13の出力の最小値設定。設定部154cへの入力操作により、出力の最小値のパラメータを設定できる。
設定部154d:対象物14に見掛けの動きを与える「映像」の平均輝度設定。設定部154dへの入力操作により、「映像」の平均輝度を設定できる。
設定部155a:グレイコードパタンの縞を太くする。
設定部155b:グレイコードパタンの縞を細くする。
設定部155c:グレイコードパタンの縞の方位を切り替え。
設定部156a:表示シーンを次に進める。設定部156aへの入力操作により、表示する画像領域121に対応するシーンのシーン番号iを1増加させる。すなわち、設定部156aをクリックするたびに、ユーザインタフェース画面100−1に表示される画像領域121が切り替わる。
設定部156b:表示シーンを前に戻す。設定部156aへの入力操作により、表示する画像領域121に対応するシーンのシーン番号iを1減少させる。すなわち、設定部156aをクリックするたびに、ユーザインタフェース画面100−1に表示される画像領域121が切り替わる。
設定部156c:現状を保存。設定部156cへの入力操作により、その時点のシーン番号iなどが保存される。
設定部156d:アプリ終了
利用者は入力部11jを用いて各設定部への入力操作(クリック、タップ、数値入力など)を行って、各パラメータを設定したり、機能を切り替えたりする。パラメータを設定可能な設定部には、そのパラメータの現在の値が表示される。設定部への入力操作によってパラメータを更新した場合には、更新後のパラメータがその設定部に表示される。
As illustrated in FIG. 3, the parameter setting unit 150 of the user interface screen 100-1 displays setting units 151a, 152a to 152h, 153a to 153e, 154a to 154d, 155a to 155c, and 156a to 156d. An outline of the setting units 151a, 152a to 152h, 153a to 153e, 154a to 154d, 155a to 155c, and 156a to 156d is as follows.
Setting section 151a: Switching to the effect edit mode. Switching to the effect edit mode is performed by an input operation to the setting unit 151a. The “effect editing mode” is a mode in which the movement is set without superimposing the “video” for giving the apparent movement to the object 14.
Setting unit 152a: Starts projection of an “image” (for example, an illusion lamp) that gives an apparent movement to the object 14. The “video” is projected onto the object 14 by an input operation to the setting unit 152a.
Setting unit 152b: Starts gray code pattern projection. By the input operation to the setting unit 152b, projection of a gray code pattern for calibration is started.
Setting unit 152c: Projecting test image (ON / OFF switching). Whether or not to project the test image can be switched by an input operation to the setting unit 152c. By browsing the projected test image, the appropriateness of the positional relationship between the object 14 and the projection device 13 can be visually confirmed.
Setting unit 152d: Frame setting of the projection area 110. The projection area 110 can be changed by an input operation to the setting unit 152d.
Setting unit 152e: Spotlight-like mask setting. An area of light projected from the projection device 13 can be limited (masked) by an input operation to the setting unit 152e.
Setting unit 152f: ON / OFF switching of the display of the captured image. By an input operation to the setting unit 152f, it is possible to switch whether an image photographed by the photographing device 12 is displayed from the display unit 11k in real time (ON) or not (OFF).
Setting unit 152g: Projects brighter uniform light (ON / OFF) among the brightnesses B 1 and B 2 projected at the time of capturing a still target image. Of the two types of brightness (B 1 , B 2 ) projected at the time of image capturing, the brighter uniform light is projected (ON) or the darker uniform light by the input operation to the setting unit 152g. Can be switched.
Setting unit 152h: saves a photographed image. The image 101 can be saved by an input operation to the setting unit 152h.
Setting unit 153a: Left-right reversal of the captured image. The left and right sides of the image 101 can be reversed by an input operation to the setting unit 153a.
Setting unit 153b: Gain setting of the photographing device 12. A gain parameter can be set by an input operation to the setting unit 153b.
Setting unit 153c: Setting of the shutter speed of the photographing apparatus 12. A shutter speed parameter can be set by an input operation to the setting unit 153c.
Setting unit 153d: White balance setting of the photographing apparatus 12. A white balance parameter can be set by an input operation to the setting unit 153d.
Setting unit 153e: White balance setting of the photographing apparatus 12. White balance parameters can be set by an input operation to the setting unit 153e.
Setting unit 154a: Gamma value setting of the projection device 13. A gamma value parameter can be set by an input operation to the setting unit 154a.
Setting unit 154b: setting of the maximum value of the output of the projection device 13. The parameter of the maximum output value can be set by an input operation to the setting unit 154b.
Setting unit 154c: Minimum value setting of the output of the projection device 13. The parameter of the minimum value of the output can be set by an input operation to the setting unit 154c.
Setting unit 154d: Average luminance setting of “video” that gives an apparent movement to the object 14. The average brightness of the “video” can be set by an input operation to the setting unit 154d.
Setting unit 155a: The gray code pattern stripe is thickened.
Setting unit 155b: The stripe of the gray code pattern is thinned.
Setting unit 155c: switches the stripe direction of the gray code pattern.
Setting unit 156a: Advances the display scene. By an input operation to the setting unit 156a, the scene number i of the scene corresponding to the image area 121 to be displayed is incremented by one. That is, every time the setting unit 156a is clicked, the image area 121 displayed on the user interface screen 100-1 is switched.
Setting unit 156b: Moves the display scene back. By the input operation to the setting unit 156a, the scene number i of the scene corresponding to the image area 121 to be displayed is decreased by one. That is, every time the setting unit 156a is clicked, the image area 121 displayed on the user interface screen 100-1 is switched.
Setting unit 156c: saves the current state. By the input operation to the setting unit 156c, the scene number i and the like at that time are stored.
Setting unit 156d: application termination The user performs an input operation (click, tap, numerical input, etc.) to each setting unit using the input unit 11j, and sets each parameter or switches the function. In the setting section where a parameter can be set, the current value of the parameter is displayed. When a parameter is updated by an input operation to the setting unit, the updated parameter is displayed on the setting unit.

≪キャリブレーション≫
撮影装置12と投影装置13との間の対応マップを計算するキャリブレーションについて説明する。キャリブレーションは、グレイコードパタンと呼ばれる白黒の縞模様の組を投影装置13から対象物14に投影し、これを撮影装置12で撮影して行われる。
≪Calibration≫
The calibration for calculating the correspondence map between the imaging device 12 and the projection device 13 will be described. The calibration is performed by projecting a set of black and white striped patterns called gray code patterns from the projection device 13 onto the object 14 and photographing this with the photographing device 12.

まず、グレイコードパタンが正しく撮影されるように、その縞の太さや方位を変更しながら投影装置13の調整を行う。すなわち、設定部155a〜155cへの入力操作によって、画素対応計算部11aから投影装置13に送られ、そこから対象物14に投影されるグレイコードパタンの縞の太さや方位を変更でき、設定部153b〜153eへの入力操作によって、撮影装置12のゲイン,シャッタースピード,ホワイトバランスなどを調整する。   First, the projection device 13 is adjusted while changing the thickness and direction of the stripe so that the Gray code pattern is correctly captured. That is, by the input operation to the setting units 155a to 155c, the thickness and direction of the gray code pattern stripes sent from the pixel correspondence calculation unit 11a to the projection device 13 and projected onto the object 14 can be changed. The gain, shutter speed, white balance, etc. of the photographing device 12 are adjusted by an input operation to 153b to 153e.

設定部152bへの入力操作が行われると、キャリブレーションが開始される。キャリブレーションが開始されると、画素対応計算部11aが投影装置13にグレイコードパタンを送り、投影装置13はグレイコードパタンを対象物14に投影する。撮影装置12は、投影されたグレイコードパタンを撮影し、撮影した映像を画素対応計算部11aに送る。画素対応計算部11aは、各画素で白黒がどういう順序で映っていたかを調べることで、撮影装置12の座標系での座標(Cx,Cy)が投影装置13の座標系でのいずれの座標(Px,Py)に対応するか、を表すC→Pマップを計算する。画素対応計算部11aは、C→Pマップから逆に、投影装置13の座標系での座標(Px,Py)が撮影装置12の座標系でのいずれの座標(Cx,Cy)に対応するか、を表すP→Cマップを計算する。P→Cマップの欠損部分は内挿(補間)によって補われる。P→Cマップは、重畳映像生成部11bに送られる。設定部156cへの入力操作が行われると、重畳映像生成部11bはP→Cマップをメモリ11rに格納する。以降、重畳映像生成部11bは必要に応じてメモリ11rからP→Cマップを読み込んで利用する。設定部152cへの入力操作によって、投影装置13から検査画像が投影され、キャリブレーションが正しく完了したかを確認できる。撮影装置12と投影装置13の位置関係や対象物14が同一であれば、キャリブレーションを省略できる。   When an input operation to the setting unit 152b is performed, calibration is started. When calibration is started, the pixel correspondence calculation unit 11 a sends a gray code pattern to the projection device 13, and the projection device 13 projects the gray code pattern onto the object 14. The imaging device 12 captures the projected gray code pattern and sends the captured image to the pixel correspondence calculation unit 11a. The pixel correspondence calculation unit 11a examines the order in which black and white images are captured in each pixel, so that the coordinates (Cx, Cy) in the coordinate system of the imaging device 12 are any coordinates ( C → P map indicating whether or not it corresponds to Px, Py). On the contrary, the pixel correspondence calculation unit 11a determines which coordinate (Px, Py) in the coordinate system of the projection apparatus 13 corresponds to which coordinate (Cx, Cy) in the coordinate system of the imaging apparatus 12 from the C → P map. , P → C map is calculated. The missing part of the P → C map is compensated by interpolation (interpolation). The P → C map is sent to the superimposed video generation unit 11b. When an input operation to the setting unit 156c is performed, the superimposed video generation unit 11b stores the P → C map in the memory 11r. Thereafter, the superimposed video generation unit 11b reads and uses the P → C map from the memory 11r as necessary. By the input operation to the setting unit 152c, it is possible to confirm whether the inspection image is projected from the projection device 13 and the calibration is correctly completed. If the positional relationship between the imaging device 12 and the projection device 13 and the object 14 are the same, the calibration can be omitted.

≪光学的なキャリブレーション≫
投影装置13による投影パタンが不適切な場合や撮影装置12によって撮影された対象物14が正しく認識されない場合、または「映像」による効果(対象物14に見掛け上の動きを与える効果)を最大化した場合には、光学的なキャリブレーションを行ってもよい。光学的なキャリブレーションは、設定部152g,153b〜153e,154a〜154dの入力操作によって行う。例えば、撮影装置12−投影装置13間の入出力をできるだけ線形にするために、設定部154aに投影装置13のガンマ値を入力してもよい。その他、設定部152gへの入力操作によって、画像認識時の明るさで投影装置13から投影し、撮影装置12で撮影された画像を確認しつつ、設定部153bで撮影装置12のゲインを調整してもよい。設定部153b〜153e,154a〜154dに入力された各パラメータは、設定部153b〜153e,154a〜154dのそれぞれに表示される。
≪Optical calibration≫
When the projection pattern by the projection device 13 is inappropriate, or when the object 14 photographed by the photographing device 12 is not correctly recognized, or the effect by the “video” (the effect of giving an apparent movement to the object 14) is maximized. In such a case, optical calibration may be performed. Optical calibration is performed by an input operation of the setting units 152g, 153b to 153e, and 154a to 154d. For example, in order to make the input / output between the imaging device 12 and the projection device 13 as linear as possible, the gamma value of the projection device 13 may be input to the setting unit 154a. In addition, an input operation to the setting unit 152g projects the projection device 13 with the brightness at the time of image recognition, and adjusts the gain of the imaging device 12 with the setting unit 153b while confirming the image captured by the imaging device 12. May be. The parameters input to the setting units 153b to 153e and 154a to 154d are displayed on the setting units 153b to 153e and 154a to 154d, respectively.

≪表示シーンの選択≫
利用者は設定部156a,156bへの入力操作によって、ユーザインタフェース画面100−1に表示する投影領域110および画像領域120,121に対応するシーンを選択できる。利用者が設定部156aに入力操作を行うたびにシーン番号iが繰り上がり、設定部156bに入力操作を行うたびにシーン番号iが繰り下がる。設定部156a,156bへの入力操作が行われると、それによって選択されたシーンのシーン番号iが動き編集部11hに送られる。動き編集部11hは、送られたシーン番号iに対応する参照画像の外枠の座標、および当該シーン番号iに対応する動き情報の歪み窓DWの座標をDB部11mから読み込み、インタフェース部11iに送る。インタフェース部11iは、送られた参照画像の外枠を投影領域110とし、送られたDWの座標を画像領域120,121として表示部11kに送る。表示部11kは、ユーザインタフェース画面100−1に、シーン番号iに対応する投影領域110および画像領域120,121、ならびに時間軸情報表示部130を表示する。ここで表示される情報は、投影領域110はシーン番号iに対応する参照画像が存在する領域を示す投影領域110と、当該参照画像の特定の画像領域を示す画像領域120,121と、時間軸の情報を表す領域である時間軸情報表示部130である(図2)。前述したように、投影領域110は、起動時点では初期設定されたシーンの参照画像の外枠の座標によって定められ、必ずしも実際の対象物14の領域と対応しない。利用者は投影領域110を手動で設定することもできる。この場合、利用者は設定部152dへの入力操作後、クリックやタップなどによって領域を選択する。選択された領域が投影領域110として設定される。
≪Selection of display scene≫
The user can select a scene corresponding to the projection area 110 and the image areas 120 and 121 displayed on the user interface screen 100-1 by an input operation to the setting units 156a and 156b. Each time the user performs an input operation on the setting unit 156a, the scene number i is incremented, and every time an input operation is performed on the setting unit 156b, the scene number i is incremented. When an input operation to the setting units 156a and 156b is performed, the scene number i of the selected scene is sent to the motion editing unit 11h. The motion editing unit 11h reads the coordinates of the outer frame of the reference image corresponding to the sent scene number i and the coordinates of the distortion window DW of the motion information corresponding to the scene number i from the DB unit 11m, and sends them to the interface unit 11i. send. The interface unit 11i sends the outer frame of the sent reference image as the projection area 110, and sends the coordinates of the sent DW as the image areas 120 and 121 to the display unit 11k. The display unit 11k displays the projection area 110 and the image areas 120 and 121 corresponding to the scene number i, and the time axis information display unit 130 on the user interface screen 100-1. The information displayed here includes a projection area 110 indicating an area where a reference image corresponding to the scene number i exists, image areas 120 and 121 indicating specific image areas of the reference image, and a time axis. This is a time axis information display unit 130 that is an area representing the information (FIG. 2). As described above, the projection area 110 is defined by the coordinates of the outer frame of the reference image of the scene that is initially set at the time of activation, and does not necessarily correspond to the actual area of the object 14. The user can also set the projection area 110 manually. In this case, after the input operation to the setting unit 152d, the user selects an area by clicking or tapping. The selected area is set as the projection area 110.

≪対象物14に見掛けの動きを与える処理の開始≫
以下、対象物14に見掛けの動き(例えば、変幻灯を対象物14に重畳して与えられる見掛けの動きである「変幻灯エフェクト」)を与えるための処理を説明する。利用者が設定部152aへの入力操作を行うと、まず投影対象画像取得部11cが、明るさB1の一様光の投影を投影装置13に指示する。投影装置13は明るさB1の一様光を対象物14に投影し、撮影装置12は明るさB1の一様光が投影された対象物14の画像を撮影する。明るさB1の一様光の下で撮影された対象物14の画像IB1は、メモリ11rに格納される。次に投影対象画像取得部11cは、明るさ(光強度)B1のよりも明るい明るさB2の一様光の投影を投影装置13に指示する(例えば、B2=2B1)。投影装置13は明るさB2の一様光を対象物14に投影し、撮影装置12は明るさB2の一様光が投影された対象物14の画像を撮影する。明るさB2の一様光の下で撮影された対象物14の画像IB2は、メモリ11rに格納される。画像IB1を得た後に画像IB2を得るのではなく、画像IB2を得た後に画像IB1を得てもよい。なお、B1、B2は光強度を表す正値であり、光強度が強いほど値が大きい。取得された画像IB1、IB2はアルベド計算処理部へ送られる。また、画像IB1、IB2のうち少なくともいずれかが画像検索部へ送られる。さらに、画像IB1、IB2のうちいずれか一方が映像生成部11gへ送られる。
≪Start of processing for giving an apparent movement to the object 14≫
Hereinafter, a process for giving an apparent motion to the object 14 (for example, an “alternative light effect” which is an apparent motion given by superimposing an illusion lamp on the object 14) will be described. When the user performs an input operation to the setting unit 152a, the projection target image acquisition unit 11c first instructs the projection device 13 to project uniform light with brightness B1. The projection device 13 projects uniform light with brightness B 1 onto the object 14, and the imaging device 12 captures an image of the object 14 onto which uniform light with brightness B 1 is projected. An image I B1 of the object 14 photographed under uniform light with brightness B 1 is stored in the memory 11r. Next, the projection target image acquisition unit 11c instructs the projection device 13 to project uniform light with a brightness B 2 that is brighter than the brightness (light intensity) B 1 (for example, B 2 = 2B 1 ). The projection device 13 projects uniform light with brightness B 2 onto the object 14, and the imaging device 12 captures an image of the object 14 onto which uniform light with brightness B 2 is projected. An image I B2 of the object 14 photographed under uniform light of brightness B 2 is stored in the memory 11r. Rather than obtain an image I B2 after obtaining the image I B1, may be obtained images I B1 after obtaining the image I B2. B 1 and B 2 are positive values representing the light intensity, and the values increase as the light intensity increases. The acquired images I B1 and I B2 are sent to the albedo calculation processing unit. At least one of the images I B1 and I B2 is sent to the image search unit. Furthermore, one of the images I B1 and I B2 is sent to the video generation unit 11g.

≪アルベド計算処理≫
アルベド計算部11dは、投影対象画像取得部11cから受け取った画像IB1、IB2から、アルベド(ここでは、投影光強度の増分に対する撮影画素値の増分の比率を指す)を計算してメモリ11rに格納する。アルベドKは、K=(IB2−IB1)/(B−B)として計算される。前述のように、B1、B2は画像IB1、IB2の撮影時に投影装置13から投影されていた光強度を表す。
≪Albedo calculation process≫
The albedo calculation unit 11d calculates an albedo (in this case, indicates the ratio of the increment of the captured pixel value to the increase of the projection light intensity) from the images I B1 and I B2 received from the projection target image acquisition unit 11c, and calculates the memory 11r. To store. The albedo K is calculated as K = (I B2 −I B1 ) / (B 2 −B 1 ). As described above, B 1 and B 2 represent the light intensity projected from the projection device 13 when the images I B1 and I B2 are captured.

≪画像検索≫
画像検索部11fは、投影対象画像取得部11cから出力された画像IB1、IB2を入力とし、画像IB1、IB2のうち、いずれか一方あるいは両方からその画像を表す情報を抽出する。画像を表す情報とは、例えば、画像IB1またはIB2のSIFT特徴量であってもよいし、画像IB1のSIFT特徴量および画像IB2のSIFT特徴量であってもよい。画像検索部11fは、例えば画像IB1またはIB2のSIFT特徴量を用いてDB部191に格納されたシーンのリストを検索し、画像IB1またはIB2に適合(マッチ)する「参照画像」を含むシーンを抽出する。例えば、画像検索部11fは、画像IB1またはIB2を表す情報と一致または近似する「対象物を表す情報」に対応する「参照画像」を含むシーンを抽出する。例えば、DBに格納された「対象物を表す情報」がSIFT特徴量であり、「画像を表す情報」が画像IB1またはIB2のSIFT特徴量である場合、画像検索部11fは、画像IB1またはIB2のSIFT特徴量を計算し、画像IB1またはIB2のSIFT特徴量と一致または近似する特徴点を所定個以上含むSIFT特徴量をDBから検索し、検索されたSIFT特徴量に対応する「参照画像」を含むシーンを抽出する。例えば、DBに格納された「対象物を表す情報」がSIFT特徴量であり、「画像を表す情報」が画像IB1のSIFT特徴量および画像IB2のSIFT特徴量である場合、画像検索部11fは、画像IB1のSIFT特徴量および画像IB2のSIFT特徴量を計算し、これらの少なくとも一方のSIFT特徴量と一致または近似する特徴点を所定個以上含むSIFT特徴量をDBから検索し、検索されたSIFT特徴量に対応する「参照画像」を含むシーンを抽出する。以降、抽出されたシーンに含まれる「参照画像」を参照画像Idataと表記する。画像IB1またはIB2に含まれる特徴点座標と、それらとマッチした参照画像Idata中の特徴点座標の組は、位置姿勢変換部11eに送られる。また、画像検索部11fは、DBで参照画像Idataに対応付けられている「動き情報」を抽出する。以降、参照画像Idataに対応付けられている(紐づけられている)「動き情報」を動き情報Aと表記する。動き情報Aはメモリ11rに格納される。なお、画像検索部11fが画像IB1またはIB2にマッチする「参照画像」を複数検出することもある。この場合には、検出されたすべての参照画像Idata中の特徴点座標の組が、位置姿勢変換部11eに送られ、検出されたすべての動き情報Aがメモリ11rに格納される。また、「対象物を表す情報」を含んでいないシーンについては、画像検索部11fは上記マッチングの処理を行わず、画像IB1またはIB2を表す情報に関わらず常にそのシーンを抽出し、そのシーンの動き情報Aがメモリ11rに格納される。
≪Image Search≫
The image search unit 11f receives the images I B1 and I B2 output from the projection target image acquisition unit 11c, and extracts information representing the image from one or both of the images I B1 and I B2 . The information representing the image may be, for example, the SIFT feature quantity of the image I B1 or I B2 , or the SIFT feature quantity of the image I B1 and the SIFT feature quantity of the image I B2 . Image retrieval section 11f, for example, using SIFT feature quantity of the image I B1 or I B2 to retrieve a list of scenes stored in the DB unit 191, adapted to image I B1 or I B2 (match) to "reference image" Extract scenes that contain For example, the image search unit 11f extracts a scene including a “reference image” corresponding to “information representing an object” that matches or approximates information representing the image I B1 or I B2 . For example, when the “information representing the object” stored in the DB is a SIFT feature amount and the “information representing the image” is the SIFT feature amount of the image I B1 or I B2 , the image search unit 11f displays the image I The SIFT feature value of B1 or I B2 is calculated, a SIFT feature value including a predetermined number or more of feature points that match or approximate the SIFT feature value of the image I B1 or I B2 is searched from the DB, and the searched SIFT feature value A scene including the corresponding “reference image” is extracted. For example, when “information representing an object” stored in the DB is a SIFT feature quantity, and “information representing an image” is a SIFT feature quantity of the image I B1 and a SIFT feature quantity of the image I B2 , the image search unit 11f calculates a SIFT feature quantity of the image I B1 and a SIFT feature quantity of the image I B2 , and searches the DB for a SIFT feature quantity that includes a predetermined number or more of feature points that match or approximate at least one of these SIFT feature quantities. Then, a scene including a “reference image” corresponding to the searched SIFT feature value is extracted. Hereinafter, the “reference image” included in the extracted scene is referred to as reference image I data . A set of the feature point coordinates included in the image I B1 or I B2 and the feature point coordinates in the reference image I data matched therewith is sent to the position / orientation conversion unit 11e. In addition, the image search unit 11f extracts “motion information” associated with the reference image I data in the DB. Hereinafter, “motion information” associated with (associated with) the reference image I data is referred to as motion information A. The motion information A is stored in the memory 11r. The image search unit 11f may detect a plurality of “reference images” that match the image I B1 or I B2 . In this case, pairs of feature point coordinates in all detected reference images I data are sent to the position / orientation conversion unit 11e, and all detected motion information A is stored in the memory 11r. In addition, for a scene that does not include “information representing the object”, the image search unit 11f does not perform the matching process, and always extracts the scene regardless of the information representing the image I B1 or I B2. Scene motion information A is stored in the memory 11r.

≪位置姿勢変換行列の生成≫
位置姿勢変換部11eは、画像検索部11fが出力した特徴点座標の組を入力とし、特徴点座標の組を用いて画像IB1またはIB2を参照画像Idataと同じ姿勢・スケールの画像に変換するホモグラフィ行列(位置姿勢変換行列)Tを計算する。ただし、画像IB1またはIB2をありえない姿勢(例えば、画像を表裏反転させた姿勢)に変換するホモグラフィ行列Tが得られた場合には、画像検索部11fにおけるマッチングが誤認であったとして、以降の処理をキャンセルしてもよい。ホモグラフィ行列Tの推定には、例えばOpenCVのfindHomography関数などを用いた周知の方法で行うことができる。生成されたホモグラフィ行列Tはメモリ11rに格納される。なお、画像検索部11fが画像IB1またはIB2にマッチする「参照画像」を複数検出していた場合、これらを含む複数のシーンそれぞれについてホモグラフィ行列Tを計算し、メモリ11rに格納する。また、画像検索部11fが「対象物を表す情報」を含まないシーンを抽出した場合、ホモグラフィ行列Tは、設定部152dへの入力操作によって設定された投影領域110の4隅の座標から、「参照画像」の4隅の座標への変換行列として計算される。
≪Generation of position and orientation transformation matrix≫
The position / orientation conversion unit 11e receives the set of feature point coordinates output from the image search unit 11f, and uses the set of feature point coordinates to convert the image I B1 or I B2 into an image having the same posture and scale as the reference image I data. A homography matrix (position and orientation conversion matrix) T to be converted is calculated. However, when the homography matrix T for converting the image I B1 or I B2 into an impossible posture (for example, a posture in which the image is reversed) is obtained, the matching in the image search unit 11f is misidentified. Subsequent processing may be canceled. The homography matrix T can be estimated by a well-known method using, for example, an OpenCV findHomography function. The generated homography matrix T is stored in the memory 11r. When the image search unit 11f detects a plurality of “reference images” that match the image I B1 or I B2 , the homography matrix T is calculated for each of a plurality of scenes including these and stored in the memory 11r. In addition, when the image search unit 11f extracts a scene that does not include “information representing the object”, the homography matrix T is obtained from the coordinates of the four corners of the projection region 110 set by the input operation to the setting unit 152d. Calculated as a transformation matrix into the coordinates of the four corners of the “reference image”.

≪ユーザインタフェース画面の切替≫
画像検索部でマッチしたすべてのシーンについて、ホモグラフィ行列Tの計算が終了すると、その情報が映像生成部11gに送られる。同時に、インタフェース部11iは表示部11kに指示を与え、表示部11kはユーザインタフェース画面100−3(図5)を表示する。図5に例示するように、ユーザインタフェース画面100−3は、画像101と投影領域110と画像領域121と時間軸情報表示部130とパラメータ設定部150とを含む。ただし、ユーザインタフェース画面100−3が含む投影領域110は画像検索部11fで抽出された参照画像Idataに対応する撮影画像101の中の領域とし、画像領域121は画像検索部11fで抽出された動き情報Aに対応する。ただし、画像検索部11fが「対象を表す情報」を含まないシーンを抽出した場合には、投影領域110は初期設定された領域または設定部152dへの入力操作によって設定された領域となる。図4に例示するユーザインタフェース画面100−3のパラメータ設定部150には、設定部161a〜161h、162a〜162k,162m,162n,162p〜162r,163a〜163fが表示される。設定部161a〜161h、162a〜162k,162m,162n,162p〜162r,163a〜163fの概要は以下の通りである(図4)。
設定部161a:投影装置13による「映像」の投影の中止。設定部161aへの入力操作により、投影装置13による「映像」の投影を中止できる。
設定部161b:投影装置13による「映像」の投影のリスタート。設定部161bの入力操作により、≪対象物14に見掛けの動きを与える処理の開始≫から処理が再開される。
設定部161c:撮影画像の表示のON/OFF切り替え。設定部161cへの入力操作で、撮影装置12で撮影された画像をリアルタイムで表示部11kから表示するか(ON)しないか(OFF)を切り替えることができる。
設定部161d:投影装置13による「映像」の投影の一時停止。設定部161aへの入力操作により、投影装置13による「映像」の投影を一時停止できる。
設定部161e:色の補償切り替え(ON/OFF)。設定部161eの入力操作により、「映像」が色成分を含むか(ON)含まないか(OFF)を切り替えることができる。
設定部161f:輝度の補償切り替え(ON/OFF)。設定部161fへの入力操作により、対象物14のアルベドを考慮した「映像」を投影するか(ON)対象物14のアルベドを考慮しない「映像」を投影するか(OFF)を切り替えることができる。
設定部161g:アルベドを投影(ON/OFF)。設定部161fへの入力操作により、各画素のアルベドを画素値として画像を投影するか(ON)しないか(OFF)を切り替えることができる。
設定部161h:コントラスト(全体に反映)設定。設定部161hへの入力操作により、「映像」全体のコントラストを増幅したり減衰させたりできる。
設定部162a:再生速度設定。設定部162aへの入力操作により、時間の進む速度を設定できる。
設定部162b:動き情報全体の1ループ当たりのフレーム数設定。設定部162bへの入力操作により、動き情報全体の1ループ当たりのフレーム数を設定できる。
設定部162c:選択中のDW(画像領域)のコピーを作成。設定部162cへの入力操作により、選択中のDWの複製を新たなDWとして追加できる。
設定部162d:DWの選択。設定部162dへの入力操作により、DWのIDを入力することでDWを選択できる。
設定部162e:DWでの動きが開始されるフレームの設定。設定部162eへの入力操作により、選択中のDWでの動きが開始されるフレームを設定できる。
設定部162f:DWでの動きの持続フレーム数設定。設定部162fへの入力操作により、選択中のDWでの動きの持続フレーム数を設定できる。
設定部162g:動きのフェードイン区間のフレーム数設定。設定部162gへの入力操作により、選択中のDWでの動きのフェードイン区間のフレーム数を設定できる。
設定部162h:動きのフェードアウト区間のフレーム数設定。設定部162hへの入力操作により、選択中のDWでの動きのフェードアウト区間のフレーム数を設定できる。
設定部162i:DWの領域変更。設定部162iへの入力操作により、選択中のDWの領域変更が可能になる。
設定部162j:動きパタンのID(0−4)設定。設定部162jへの入力操作により、選択中のDWの動きパタンを選択できる。
設定部162k:動きの振幅設定。設定部162kへの入力操作により、選択中のDWの動きの振幅を設定できる。
設定部162m:外部から読み込んだ「映像」のコントラスト設定。対象物14に見掛けの動きを与える「映像」を外部から読み込む場合の例外処理。設定部162mへの入力操作により、外部から読み込まれた「映像」のコントラストを設定できる。
設定部162n:動き映像の空間周波数設定。定部162nへの入力操作により、選択中のDWの動きの空間周波数を設定できる。
設定部162p:動きのスピード設定。設定部162pへの入力操作により、選択中のDWの動きの速さを設定できる。
設定部162q:動きの角度設定。設定部162qへの入力操作により、選択中のDWの動きの向きを設定できる。
設定部162r:動きの位相設定。設定部162rへの入力操作により、選択中のDWの動きの位相を設定できる。
設定部163a:効果音のID(ただし、ID=−1は効果音なし)設定。設定部163aへの入力操作により、選択中のDWへ効果音を設定できる。
設定部163b:選択中のDWを削除。設定部163bへの入力操作により、選択中のDWを削除できる。
設定部163c:表示シーンを次に進める。設定部163cへの入力操作により、動き編集対象のシーンのシーン番号iを1増加させる。
設定部163d:表示シーンを前に戻す。設定部163dへの入力操作により、動き編集対象のシーンのシーン番号iを1減少させる。
設定部163e:現状を保存。設定部163eへの入力操作により、設定された情報を保存される。
設定部163f:アプリ終了。
≪Switching user interface screen≫
When the calculation of the homography matrix T is completed for all scenes matched by the image search unit, the information is sent to the video generation unit 11g. At the same time, the interface unit 11i gives an instruction to the display unit 11k, and the display unit 11k displays the user interface screen 100-3 (FIG. 5). As illustrated in FIG. 5, the user interface screen 100-3 includes an image 101, a projection area 110, an image area 121, a time axis information display unit 130, and a parameter setting unit 150. However, the projection area 110 included in the user interface screen 100-3 is an area in the captured image 101 corresponding to the reference image I data extracted by the image search unit 11f, and the image area 121 is extracted by the image search unit 11f. Corresponds to motion information A. However, when the image search unit 11f extracts a scene that does not include “information representing the target”, the projection region 110 is an initially set region or a region set by an input operation to the setting unit 152d. In the parameter setting unit 150 of the user interface screen 100-3 illustrated in FIG. 4, setting units 161a to 161h, 162a to 162k, 162m, 162n, 162p to 162r, and 163a to 163f are displayed. The outline of the setting units 161a to 161h, 162a to 162k, 162m, 162n, 162p to 162r, 163a to 163f is as follows (FIG. 4).
Setting unit 161 a: Stops projection of “video” by the projection device 13. The projection of the “video” by the projection device 13 can be stopped by an input operation to the setting unit 161a.
Setting unit 161b: Restart of projection of “video” by the projection device 13. By the input operation of the setting unit 161b, the process is resumed from << start of the process of giving an apparent movement to the object 14 >>.
Setting unit 161c: ON / OFF switching of the display of the captured image. By an input operation to the setting unit 161c, it is possible to switch whether an image captured by the imaging device 12 is displayed from the display unit 11k in real time (ON) or not (OFF).
Setting unit 161d: temporarily stops projection of “video” by the projection device 13. The projection of the “video” by the projection device 13 can be temporarily stopped by an input operation to the setting unit 161a.
Setting unit 161e: Color compensation switching (ON / OFF). By the input operation of the setting unit 161e, it is possible to switch whether “video” includes a color component (ON) or not (OFF).
Setting unit 161f: Brightness compensation switching (ON / OFF). By an input operation to the setting unit 161f, it is possible to switch whether to project "video" considering the albedo of the object 14 (ON) or projecting "video" not considering the albedo of the object 14 (OFF). .
Setting unit 161g: Projects an albedo (ON / OFF). By an input operation to the setting unit 161f, it is possible to switch whether an image is projected (ON) or not (OFF) using an albedo of each pixel as a pixel value.
Setting unit 161h: Contrast (reflected on the whole) setting. An input operation to the setting unit 161h can amplify or attenuate the contrast of the entire “video”.
Setting unit 162a: Playback speed setting. The speed of time advance can be set by an input operation to the setting unit 162a.
Setting unit 162b: Sets the number of frames per loop of the entire motion information. The number of frames per loop of the entire motion information can be set by an input operation to the setting unit 162b.
Setting unit 162c: Creates a copy of the currently selected DW (image area). A copy of the selected DW can be added as a new DW by an input operation to the setting unit 162c.
Setting unit 162d: Selection of DW. A DW can be selected by inputting the ID of the DW by an input operation to the setting unit 162d.
Setting unit 162e: Setting of a frame at which movement in DW is started. By the input operation to the setting unit 162e, it is possible to set a frame in which a motion in the selected DW is started.
Setting unit 162f: Sets the number of continuous frames of motion in DW. By the input operation to the setting unit 162f, the number of continuous frames of motion in the selected DW can be set.
Setting unit 162g: Sets the number of frames in the fade-in section of the motion. By the input operation to the setting unit 162g, the number of frames in the fade-in section of the motion in the selected DW can be set.
Setting unit 162h: Setting of the number of frames in the motion fade-out section. By the input operation to the setting unit 162h, the number of frames in the fade-out section of the motion in the selected DW can be set.
Setting unit 162i: DW area change. The area of the currently selected DW can be changed by an input operation to the setting unit 162i.
Setting unit 162j: Setting of motion pattern ID (0-4). A motion pattern of the currently selected DW can be selected by an input operation to the setting unit 162j.
Setting unit 162k: Movement amplitude setting. By the input operation to the setting unit 162k, the amplitude of the movement of the selected DW can be set.
Setting unit 162m: Contrast setting of “video” read from the outside. Exception processing when an “image” that gives an apparent movement to the object 14 is read from the outside. The contrast of the “video” read from the outside can be set by an input operation to the setting unit 162m.
Setting unit 162n: Spatial frequency setting of motion video. The spatial frequency of the selected DW motion can be set by an input operation to the fixing unit 162n.
Setting part 162p: Speed setting of movement. The speed of movement of the selected DW can be set by an input operation to the setting unit 162p.
Setting unit 162q: setting of the angle of movement. The direction of movement of the selected DW can be set by an input operation to the setting unit 162q.
Setting unit 162r: Movement phase setting. The phase of the selected DW movement can be set by an input operation to the setting unit 162r.
Setting unit 163a: setting of sound effect ID (where ID = -1 is no sound effect). A sound effect can be set to the selected DW by an input operation to the setting unit 163a.
Setting unit 163b: Deletes the selected DW. The selected DW can be deleted by an input operation to the setting unit 163b.
Setting unit 163c: Advances the display scene. The scene number i of the motion editing target scene is incremented by 1 by an input operation to the setting unit 163c.
Setting unit 163d: Returns the display scene to the front. By the input operation to the setting unit 163d, the scene number i of the motion editing target scene is decreased by one.
Setting unit 163e: Saves the current state. The set information is saved by an input operation to the setting unit 163e.
Setting unit 163f: End of application.

利用者は入力部11jを用いて各設定部への入力操作行って、各パラメータを設定したり、機能を切り替えたりする。パラメータを設定可能な設定部には、そのパラメータの現在の値が表示される。設定部への入力操作によってパラメータを更新した場合には、更新後のパラメータがその設定部に表示される。ユーザインタフェース画面100−3には、撮影装置12が取得した画像101が表示されるが、≪対象物14に見掛けの動きを与える処理≫の開始後は、負担軽減のために、リアルタイムなライブ画像の取得を停止し、代わりに撮影装置12が最後に取得した画像101を表示してもよい。しかし、これは必須ではなく、≪対象物14に見掛けの動きを与える処理≫の開始後も、撮影装置12がライブ画像を取得し、ユーザインタフェース画面100−3に表示してもよい。前述のように、設定部161cへの入力操作により、ライブ映像の取得を開始したり、止めたりできる。   The user performs an input operation to each setting unit using the input unit 11j to set each parameter or switch functions. In the setting section where a parameter can be set, the current value of the parameter is displayed. When a parameter is updated by an input operation to the setting unit, the updated parameter is displayed on the setting unit. The image 101 acquired by the imaging device 12 is displayed on the user interface screen 100-3. However, after starting the process of giving an apparent motion to the object 14, a real-time live image is used to reduce the burden. Acquisition may be stopped, and the image 101 acquired last by the imaging device 12 may be displayed instead. However, this is not indispensable, and the imaging device 12 may acquire a live image and display it on the user interface screen 100-3 even after the “process for giving an apparent movement to the object 14” is started. As described above, the acquisition of the live video can be started or stopped by an input operation to the setting unit 161c.

≪映像生成≫
映像生成部11gは、対象物14に重畳する映像Pを生成する。画像検索部11fが複数のシーンを抽出してきた場合(以下、「画像検索部11fが抽出したシーン」という)、それら全てについて、以下の手順(a)〜(c)を実行する。(a)まず、映像生成部11gは、メモリ11rから、当該シーンに対応するホモグラフィ行列Tを読み込み、当該ホモグラフィ行列Tを投影対象画像取得部11cから受け取った画像IB1またはIB2(以後、簡単のためIとする)に適用し、画像Iを参照画像Idataと同じ姿勢・スケールの画像に変換した画像I’を得てメモリ11rに格納する。(b)次に映像生成部11gは、メモリ11rから、参照画像Idataに紐付けられている動き情報A、および画像I’を読み込み、当該動き情報Aを画像I’に適用し、動画である映像I’を得る。例えば、映像生成部11gは、当該動き情報Aのすべての歪み窓DWについて、当該動き情報Aに基づいて画像I’の各画素の移動ベクトルを計算し、その後、それらの移動ベクトルに基づいて画像I’の各画素を移動させて映像I’を得る。映像I’は、その歪み窓DWが表す領域に当該動き情報Aに応じた動きが与えられた動画となる。映像I’はメモリ11rに格納される。(c)さらに映像生成部11gは、メモリ11rから、映像I’およびホモグラフィ行列Tを読み込み、ホモグラフィ行列Tの逆変換T−1を映像I’に適用し、映像I’を撮影装置12の座標系に戻して映像IDsを得る。映像IDsはメモリ11rに格納される。以上の手順(a)〜(c)を画像検索部が抽出したシーン全てに対して行うことで、撮影装置12の座標系に全シーンの映像が描画された1つの映像Iが得られる。最後に、映像生成部11gは、メモリ11rから、映像I、その元画像である画像I、およびアルベドKを読み込み、以下の映像Pを得てメモリ11rに出力する。
P=w(I−I)/K+B (1)
ここで、BはIを撮影する際に投影装置13から出力していた一様光の明るさ(画素値)を表す。Bを加算しているのは映像Pを正値にするためである。Bを加算しないと負の映像Pを照射することが起こり得る。w(I−I)をKで割っているのは、対象物14等の反射率を考慮し、最適またはそれに近いコントラストの映像Pを得るためである。撮影装置12と投影装置13とが光学的に線形であれば、これによって最適なコントラストの映像Pが得られる。ただし、K=1としてもよい(Kで割らないことと同じ)。利用者は設定部1621f(図4)への入力操作によって、Kをアルベド計算部11dで得られた値とするか(ON:反射率を考慮する)、K=1とするか(OFF:反射率を考慮しない)を切り替えることができる。設定部161fでの設定内容はインタフェース部11iから映像生成部11gに送られ、リアルタイムに上記の式(1)の計算に利用される。また、Kをアルベド計算部11dで得られた値としているか(ON)、K=1としているか(OFF)の情報は、設定部161fに表示される(図4)。また、wはコントラストを調整するための正のパラメータである。wの初期値は1.0であるが、利用者は設定部161h(映像Pのコントラストを設定して映像Pの全体に反映)(図4)への入力操作によってwの値を入力できる。入力されたwの値はインタフェース部11iから映像生成部11gに送られ、リアルタイムに上記の式(1)の計算に利用される。wの値は設定部161hに表示される。映像Pはメモリ11rに格納される。
≪Video generation≫
The video generation unit 11g generates a video P that is superimposed on the object 14. When the image search unit 11f has extracted a plurality of scenes (hereinafter referred to as “scene extracted by the image search unit 11f”), the following procedures (a) to (c) are executed for all of them. (A) First, the video generation unit 11g reads the homography matrix T corresponding to the scene from the memory 11r, and receives the image I B1 or I B2 (hereinafter referred to as the homography matrix T received from the projection target image acquisition unit 11c). , and I B for simplicity apply to), and stores the obtained image I 'B obtained by converting the image I B in the same attitude scale image and the reference image I data in the memory 11r. (B) then the image generation unit 11g applies from the memory 11r, the motion information A tied to the reference image I data, and 'read the B, and the motion information A image I' image I to B, A video I ′ D that is a moving image is obtained. For example, the image generation unit 11g for all distortion window DW of the motion information A, the motion vector of each pixel of the image I 'B is calculated based on the motion information A, then, based on their motion vector image I to obtain a D 'moves each pixel of the B image I by'. The video I ′ D is a moving image in which a motion corresponding to the motion information A is given to the region represented by the distortion window DW. The video I ′ D is stored in the memory 11r. (C) Furthermore, the video generation unit 11g reads the video I ′ D and the homography matrix T from the memory 11r, applies the inverse transformation T −1 of the homography matrix T to the video I ′ D , and converts the video I ′ D to Returning to the coordinate system of the imaging device 12, the video IDs are obtained. Video I Ds is stored in the memory 11r. By performing the above steps (a) to (c) for all the scenes extracted by the image search unit, one video ID in which videos of all the scenes are drawn in the coordinate system of the imaging device 12 is obtained. Finally, the video generation unit 11g reads the video I D , the original image I B and the albedo K from the memory 11r, obtains the following video P, and outputs the video P to the memory 11r.
P = w (I D -I B ) / K + B (1)
Here, B represents the brightness of the uniform light that has been output from the projection device 13 when taking the I B (pixel value). The reason why B is added is to make the image P a positive value. If B is not added, a negative image P may be emitted. The reason why w (I D −I B ) is divided by K is to obtain an image P having an optimum or near contrast in consideration of the reflectance of the object 14 or the like. If the photographing device 12 and the projection device 13 are optically linear, an image P having an optimum contrast can be obtained. However, K = 1 may be set (same as not dividing by K). The user performs an input operation to the setting unit 1621f (FIG. 4), whether K is set to a value obtained by the albedo calculation unit 11d (ON: reflectivity is considered) or K = 1 (OFF: reflection). Can be switched). The setting contents in the setting unit 161f are sent from the interface unit 11i to the video generation unit 11g and used for the calculation of the above formula (1) in real time. Also, information on whether K is a value obtained by the albedo calculation unit 11d (ON) or K = 1 (OFF) is displayed on the setting unit 161f (FIG. 4). W is a positive parameter for adjusting the contrast. Although the initial value of w is 1.0, the user can input the value of w by an input operation to the setting unit 161h (setting the contrast of the image P and reflecting it on the entire image P) (FIG. 4). The input value of w is sent from the interface unit 11i to the video generation unit 11g and used for the calculation of the above equation (1) in real time. The value of w is displayed on the setting unit 161h. The video P is stored in the memory 11r.

≪重畳映像生成・映像Pの対象物14への投影≫
重畳映像生成部11bは、メモリ11rから、P→Cマップおよび動画である映像Pを読み込み、P→Cマップを映像Pに適用し、映像Pを投影装置13の座標系の映像Pに変換し、映像Pを投影装置13に送る。重畳映像生成部11bは、何らかの指示があるまで映像Pの再生を繰り返し、継続的に映像Pを投影装置13に送り続ける。投影装置13は映像Pを対象物14に投影し、これによって映像Pを対象物14に重畳する。映像Pが重畳された対象物14を見た利用者は、歪み窓DWに対応する対象物14の領域(対象領域)に見掛けの動きが与えられているように知覚する。
«Projection of the superimposed image generation and image P C of the object 14»
Superimposed image generation unit 11b converts, from the memory 11r, reads the image P is P → C maps and videos, to apply the P → C mapped to video P, the image P on the image P C of the coordinate system of the projection device 13 and sends the image P C to the projector 13. Superimposed image generation unit 11b repeats the reproduction of the video P C until there is some indication, it continues continuously sends image P C to the projector 13. Projection device 13 is projected onto the object 14 image P C, thereby superimposed on the object 14 image P C. User viewed object 14 to the image P C is superimposed is perceived as motion apparent in the region of the object 14 (object region) corresponding to the distortion window DW is given.

≪表示シーンの選択≫
画像検索部11fが複数のシーンを抽出した場合、それら全てについて、上述の≪映像生成≫≪重畳映像生成・映像Pの対象物14への投影≫の処理が行われる。利用者は、設定部163c,163dへの入力操作によって、画像検索部11fが抽出したシーンのうち、ユーザインタフェース画面100−3に表示する投影領域110および画像領域120,121に対応するシーンを選択できる。設定部163c,163dへの入力操作が行われると、それによって選択されたシーンのシーン番号iが動き編集部11hに送られる。動き編集部11hは、送られたシーン番号iに対応するシーンの参照画像Idataの外枠の座標および動き情報Aの各DWの座標をメモリ11rから読み込んでインタフェース部11iに送る。インタフェース部11iは、これらの情報を用い、当該シーン番号iに対応する投影領域110および画像領域121を表示部11kに送り、表示部11kはこれらをユーザインタフェース画面100−3に表示する(図5)。
≪Selection of display scene≫
If the image retrieval section 11f has extracted a plurality of scenes, for all of which the process of the «projected to the object 14 in the video generation »« superimposed image generation and image P described above is performed. The user selects scenes corresponding to the projection area 110 and the image areas 120 and 121 displayed on the user interface screen 100-3 from the scenes extracted by the image search unit 11f by an input operation to the setting units 163c and 163d. it can. When an input operation to the setting units 163c and 163d is performed, the scene number i of the selected scene is sent to the motion editing unit 11h. The motion editing unit 11h reads the coordinates of the outer frame of the reference image I data of the scene corresponding to the sent scene number i and the coordinates of each DW of the motion information A from the memory 11r and sends them to the interface unit 11i. Using this information, the interface unit 11i sends the projection region 110 and the image region 121 corresponding to the scene number i to the display unit 11k, and the display unit 11k displays them on the user interface screen 100-3 (FIG. 5). ).

この処理をより詳細に説明する。≪ユーザインタフェース画面の切替≫の直後では、画像検索部11fが抽出したシーンのうち、最も小さいシーン番号iのシーンが選択された状態となっている。利用者が設定部163cに入力操作を行うたびにシーン番号iが繰り上がり、設定部163dに入力操作を行うたびにシーン番号iが繰り下がる。動き編集部11hは、このように選択されるシーン番号iに対応する参照画像Idataの外枠の座標、および当該シーン番号iに対応する動き情報Aの各歪み窓DWの座標をメモリ11rから読み込み、インタフェース部11iに送る。インタフェース部11iは、位置姿勢変換部11eで得られたホモグラフィ行列Tのうち、選択されたシーン番号iに対応するホモグラフィ行列の逆行列T−1を使って、動き編集部11hから受け取った座標を撮影装置12の座標系に変換し、表示部11kに送る。表示部11kは、ユーザインタフェース画面100−3に、座標変換後の参照画像Idataの外枠を投影領域110として表示し、当該座標変換後の歪み窓DWの領域を画像領域121として表示する(図5)。時間軸情報表示部130には、画像領域121の当該シーンにおける時間範囲を表す水平な直線131が表示され、当該シーンの現在の時間位置を表すバー140が表示される。 This process will be described in more detail. Immediately after << switching the user interface screen >>, the scene having the smallest scene number i is selected from the scenes extracted by the image search unit 11f. Each time the user performs an input operation on the setting unit 163c, the scene number i is incremented, and every time an input operation is performed on the setting unit 163d, the scene number i is incremented. The motion editing unit 11h stores the coordinates of the outer frame of the reference image I data corresponding to the scene number i selected in this way and the coordinates of each distortion window DW of the motion information A corresponding to the scene number i from the memory 11r. Read and send to interface unit 11i. The interface unit 11i receives from the motion editing unit 11h using the inverse matrix T- 1 of the homography matrix corresponding to the selected scene number i among the homography matrices T obtained by the position / orientation conversion unit 11e. The coordinates are converted into the coordinate system of the imaging device 12 and sent to the display unit 11k. The display unit 11k displays the outer frame of the reference image I data after coordinate conversion as the projection area 110 on the user interface screen 100-3, and displays the area of the distortion window DW after the coordinate conversion as the image area 121 ( FIG. 5). In the time axis information display unit 130, a horizontal straight line 131 representing the time range in the scene of the image area 121 is displayed, and a bar 140 representing the current time position of the scene is displayed.

≪動き編集≫
映像Pの編集が行われておらず、動き情報Aが初期状態である場合、動き編集部11hは、メモリ11rから、設定部163c,163dへの入力操作により選択されているシーンに対応する参照画像Idataの外枠の座標および動き情報Aを読み込む。動き編集部11hは、上述のように選択中のシーンに対応する参照画像Idataの外枠の座標、および当該動き情報Aの歪み窓DWの座標をインタフェース部11iに送る。インタフェース部11iは、上述のように位置姿勢変換部11eで得られたホモグラフィ行列の逆行列T−1を使って、動き編集部11hから受け取った座標を撮影装置12の座標系に変換し、表示部11kに送る。表示部11kは、上述のようにユーザインタフェース画面100−3に、座標変換後の参照画像Idataの外枠を投影領域110として表示し、当該座標変換後の歪み窓DWの領域を画像領域121として表示する(図5)。画像領域121は、投影領域110に含まれる領域である。画像領域121は、例えば、色付けされた辺を持つ多角形によって表現される。図5の例では、投影領域110の一部の領域に矩形の画像領域121が表示されている。時間軸情報表示部130には、画像領域121と同じ色の水平な直線131が表示され、選択しているシーンの現在の時間位置を表すバー140が表示される。直線131は画像領域121に与えられる動きの時間軸上の位置(言い換えると、画像領域121に対応する対象物14の対象領域に与えられる見掛け上の動きの時間軸上の位置)を表す。バー140は直線131と直交して配置され、その位置は選択しているシーンの現在の時間位置に応じて変化する。図5の例では、シーンの時刻が進むにつれて、バー140が直線131に沿ったτ方向に移動する。これにより、現在対象に与えられている動きが、シーン全体の中でどの時間位置に相当するのか、またどの画像領域がその動きを与えているのかを、利用者は知ることができる。
≪Motion Edit≫
Not performed editing video P C, when the motion information A is the initial state, the motion editing unit 11h from the memory 11r, setting unit 163c, corresponds to a scene selected by the input operation to 163d The coordinates of the outer frame of the reference image I data and the motion information A are read. The motion editing unit 11h sends the coordinates of the outer frame of the reference image I data corresponding to the currently selected scene and the coordinates of the distortion window DW of the motion information A to the interface unit 11i as described above. The interface unit 11i converts the coordinates received from the motion editing unit 11h into the coordinate system of the imaging device 12 using the inverse matrix T- 1 of the homography matrix obtained by the position / orientation conversion unit 11e as described above, Send to display 11k. As described above, the display unit 11k displays the outer frame of the reference image I data after coordinate conversion as the projection area 110 on the user interface screen 100-3, and displays the area of the distortion window DW after the coordinate conversion as the image area 121. (FIG. 5). The image area 121 is an area included in the projection area 110. The image area 121 is represented by, for example, a polygon having colored sides. In the example of FIG. 5, a rectangular image area 121 is displayed in a partial area of the projection area 110. In the time axis information display unit 130, a horizontal straight line 131 of the same color as the image area 121 is displayed, and a bar 140 representing the current time position of the selected scene is displayed. The straight line 131 represents the position on the time axis of the movement given to the image area 121 (in other words, the position on the time axis of the apparent movement given to the target area of the object 14 corresponding to the image area 121). The bar 140 is arranged orthogonal to the straight line 131, and its position changes according to the current time position of the selected scene. In the example of FIG. 5, the bar 140 moves in the τ direction along the straight line 131 as the scene time advances. Thus, the user can know which time position in the entire scene corresponds to the movement currently given to the object, and which image area gives the movement.

ユーザインタフェース画面100−3は、利用者が視認可能であり、かつ、対象物14に重畳する映像Pを生成するための情報を利用者が設定するためのユーザインタフェースである。ユーザインタフェース画面100−3は、対象物14の画像に含まれる画像領域121を利用者が視認可能なように提示(表示)するとともに、映像Pを生成するための指定情報の入力を受け付ける。ユーザインタフェース画面100−3の機能は、インタフェース部11i,入力部11j,表示部11kによって実現される。入力された指定情報は動き編集部11hに送られる。動き編集部11hは、指定情報に応じ、DB部11mに格納されている前述の参照画像Idataに対応付けられている動き情報Aを更新するとともに、更新後の動き情報Aをメモリ11rに格納する。動き情報Aが更新されると、新たな動き情報Aに基づいて、前述の≪映像生成≫≪重畳映像生成・映像Pの対象物14への投影≫≪表示シーンの選択≫の処理が行われる。これにより、動き情報Aの更新内容が、リアルタイムで対象物14に投影される映像Pに反映される。そのため、利用者は、ユーザインタフェース画面100−3を参照しつつ、入力部11jを用いて指定情報を入力し、対象物14に重畳する映像Pを編集できる。以下、この処理を具体的に説明する。 User interface screen 100-3 is visible by the user, and a user interface for setting the information for generating an image P C to be superimposed on the target object 14 is the user. User interface screen 100-3 with user image area 121 presents (displayed) as visible included in the image of the object 14 receives input of designation information for generating an image P C. The functions of the user interface screen 100-3 are realized by the interface unit 11i, the input unit 11j, and the display unit 11k. The input designation information is sent to the motion editing unit 11h. The motion editing unit 11h updates the motion information A associated with the aforementioned reference image I data stored in the DB unit 11m according to the designation information, and stores the updated motion information A in the memory 11r. To do. When the motion information A is updated, based on the new motion information A, the process line of «selection of projection »« display scene to the object 14 in the video generation »« superimposed image generation and image P described above Is called. Thus, updates to the motion information A is reflected in the image P C to be projected to the object 14 in real time. Therefore, the user, with reference to the user interface screen 100-3, enter the designation information using the input unit 11j, to edit the image P C to be superimposed on the object 14. Hereinafter, this process will be specifically described.

≪シーン全体の動作に関わるパラメータの編集≫
利用者は入力部11jから、動きの編集内容に応じた設定部162a,162bへの入力操作を行って、シーンの再生速度,シーン1ループ当たりのフレーム数を指定する。指定された内容は、それぞれの設定部162a,162bに表示される。これらの入力操作によって入力された指定情報は、インタフェース部11iから、映像生成部11gに送られる。映像生成部11gは、この指定情報に応じてシーンの再生速度やシーンがループするまでのフレーム数をリアルタイムに変化させる。また、更新されたパラメータに基づいて生成された映像Pは、前述の≪重畳映像生成・映像Pの対象物14への投影≫の処理に送られる。これにより、ユーザインタフェース画面100−4に表示された編集結果が、リアルタイムに対象物14に重畳される映像Pに反映される。
≪Editing parameters related to the operation of the entire scene≫
The user performs an input operation from the input unit 11j to the setting units 162a and 162b in accordance with the motion editing content, and designates the scene playback speed and the number of frames per scene loop. The designated contents are displayed on the setting sections 162a and 162b. The designation information input by these input operations is sent from the interface unit 11i to the video generation unit 11g. The video generation unit 11g changes the playback speed of the scene and the number of frames until the scene loops in real time according to the designation information. The video P generated based on the updated parameters are sent to the processing «projection onto superimposed image generation and image P C of the object 14» above. Thus, the user interface screen 100-4 to the displayed editing result is reflected on the image P C to be superimposed on the target object 14 in real time.

≪画像領域・歪み窓DWの編集≫
利用者は、投影領域に含まれる見掛けの動きを与える画像領域の追加、移動、変更、削除が可能である。これに同期して、見掛けの動きが与えられる対象物14の対象領域(歪み窓DWに対応)が追加、変更、移動、削除される。
≪Editing image area / distortion window DW≫
The user can add, move, change, and delete an image area that gives an apparent movement included in the projection area. In synchronization with this, a target area (corresponding to the distortion window DW) of the target object 14 to which an apparent movement is given is added, changed, moved, or deleted.

画像領域を追加する場合、利用者は入力部11jを用い、ユーザインタフェース画面100−3に表示された画像領域121への入力操作(例えば、画像領域121のクリックやタップ)を行って画像領域121を選択する。設定部162dには、選択された画像領域121に対応する歪み窓DWのIDが表示される。利用者は、設定部162dに直接歪み窓DWのIDを入力することによっても、画像領域121を選択することもできる。利用者は次に設定部162cへの入力操作を行う。入力操作によって入力された指定情報は、インタフェース部11iから動き編集部11hに送られる。動き編集部11hは、この指定情報に応じ、画像領域121と同一形状・同一姿勢の画像領域122を複製し、さらに画像領域122と同じ色の直線132を生成する。さらに、動き編集部11hは、追加された画像領域122に応じ、DB部11mに格納されている前述の参照画像Idataに対応付けられている動き情報Aの歪み窓DWを更新する。すなわち、動き編集部11hは、複製元の画像領域121に対応する歪み窓DWと同じ形状・姿勢の新たな歪み窓DWを複製する。追加された歪み窓DWに対応する動きは、さらなる動きの編集があるまで、複製元の歪み窓DWに対応する動きと同一である。画像領域122、直線132は、インタフェース部11iから表示部11kに送られる。表示部11kは新たな画像領域122が追加されたユーザインタフェース画面100−4を表示する。ユーザインタフェース画面100−4の時間軸情報表示部130には、画像領域122に対応する直線132が追加される(図6)。 When adding an image area, the user uses the input unit 11j to perform an input operation (for example, click or tap on the image area 121) to the image area 121 displayed on the user interface screen 100-3. Select. The setting unit 162d displays the ID of the distortion window DW corresponding to the selected image area 121. The user can also select the image area 121 by directly inputting the ID of the distortion window DW to the setting unit 162d. Next, the user performs an input operation to the setting unit 162c. The designation information input by the input operation is sent from the interface unit 11i to the motion editing unit 11h. In response to this designation information, the motion editing unit 11h duplicates the image area 122 having the same shape and posture as the image area 121, and further generates a straight line 132 having the same color as the image area 122. Furthermore, the motion editing unit 11h updates the distortion window DW of the motion information A associated with the above-described reference image I data stored in the DB unit 11m according to the added image region 122. In other words, the motion editing unit 11h duplicates a new distortion window DW having the same shape and posture as the distortion window DW corresponding to the image area 121 that is the copy source. The motion corresponding to the added distortion window DW is the same as the motion corresponding to the original distortion window DW until there is further motion editing. The image area 122 and the straight line 132 are sent from the interface unit 11i to the display unit 11k. The display unit 11k displays a user interface screen 100-4 to which a new image area 122 is added. A straight line 132 corresponding to the image region 122 is added to the time axis information display unit 130 of the user interface screen 100-4 (FIG. 6).

画像領域122の位置を移動する場合、利用者は入力部11jを用い、ユーザインタフェース画面100−4に表示された画像領域122への入力操作(例えば、画像領域122のドラッグやスワイプ)を行う。この入力操作によって入力された指定情報は、インタフェース部11iへ送られ、この指定情報に応じて、画像領域122の座標を移動させる。インタフェース部11iは、位置姿勢変換部11eで得られたホモグラフィ行列Tを使って、移動させた画像領域122の座標を、撮影装置12の座標系からDB内の当該シーンの参照画像の座標系に変換し、動き編集部11hに送る。動き編集部11hは、画像領域122の座標の移動に応じ、DB部11mに格納されている前述の参照画像Idataに対応付けられている動き情報Aの歪み窓DWを更新する。すなわち、動き編集部11hは、画像領域122の移動に応じて、その画像領域122に対応する歪み窓DWも移動する。移動後の歪み窓DWに対応する動きは、さらなる動きの編集があるまで、移動前の歪み窓DWに対応する動きと同一である。移動後の画像領域122の座標は、インタフェース部11iから表示部11kに送られ、表示部11kは新たな座標の画像領域122をユーザインタフェース画面100−4に表示する(図6)。 When moving the position of the image area 122, the user performs an input operation (for example, dragging or swiping the image area 122) to the image area 122 displayed on the user interface screen 100-4 using the input unit 11j. The designation information input by this input operation is sent to the interface unit 11i, and the coordinates of the image area 122 are moved according to this designation information. The interface unit 11i uses the homography matrix T obtained by the position / orientation conversion unit 11e to change the coordinates of the moved image region 122 from the coordinate system of the photographing apparatus 12 to the coordinate system of the reference image of the scene in the DB. And sent to the motion editing unit 11h. The motion editing unit 11h updates the distortion window DW of the motion information A associated with the reference image I data stored in the DB unit 11m in accordance with the movement of the coordinates of the image region 122. That is, the motion editing unit 11h moves the distortion window DW corresponding to the image area 122 in accordance with the movement of the image area 122. The movement corresponding to the distortion window DW after movement is the same as the movement corresponding to the distortion window DW before movement until further movement editing is performed. The coordinates of the image area 122 after movement are sent from the interface unit 11i to the display unit 11k, and the display unit 11k displays the image area 122 of the new coordinates on the user interface screen 100-4 (FIG. 6).

画像領域122の複製・移動によって得られた画像領域123を変形する場合、まず、利用者は入力部11jを用い、ユーザインタフェース画面100−3に表示された画像領域123への入力操作(例えば、画像領域121のクリックやタップ)を行って画像領域123を選択する。設定部162dには、選択された画像領域123に対応する歪み窓DWのIDが表示される。利用者は、設定部162dに直接歪み窓DWのIDを入力することによって、画像領域123を選択してもよい。次に利用者は入力部11jを用い、設定部162iへの入力操作を行って画像領域の変更を選択した後、ユーザインタフェース画面100−4に対し、変更後の画像領域123を特定するための入力操作を行う。この入力操作の例は、更新後の画像領域123の頂点を左クリック等によって指定し、右クリックによってそれらの指定を確定する操作である。これらの入力操作によって入力された指定情報は、インタフェース部11iへ送られ、この指定情報に応じて、画像領域123を変形する。インタフェース部11iは、位置姿勢変換部11eで得られたホモグラフィ行列Tを使って、変形した画像領域123の座標を、撮影装置12の座標系からDB内の当該シーンの参照画像の座標系に変換し、動き編集部11hに送る。動き編集部11hは、画像領域123の座標の変形に応じ、DB部11mに格納されている前述の参照画像Idataに対応付けられている動き情報Aの歪み窓DWを更新する。すなわち、動き編集部11hは、画像領域123の変形に応じて、その画像領域123に対応する歪み窓DWも変形する。変形後の歪み窓DWに対応する動きは、さらなる動きの編集があるまで、変形前の歪み窓DWに対応する動きと同一である。変形後の画像領域123は、インタフェース部11iから表示部11kに送られ、表示部11kは変形後の画像領域123をユーザインタフェース画面100−4に表示する。なお、ユーザインタフェース画面100−4の時間軸情報表示部130には、画像領域123が複製された時点で当該画像領域123に対応する直線133が表示されている(図6)。 When transforming the image area 123 obtained by copying / moving the image area 122, first, the user uses the input unit 11j to perform an input operation on the image area 123 displayed on the user interface screen 100-3 (for example, The image area 123 is selected by clicking or tapping the image area 121. The setting unit 162d displays the ID of the distortion window DW corresponding to the selected image area 123. The user may select the image region 123 by directly inputting the ID of the distortion window DW into the setting unit 162d. Next, the user performs an input operation to the setting unit 162i using the input unit 11j and selects the change of the image region, and then specifies the image region 123 after the change on the user interface screen 100-4. Perform input operations. An example of this input operation is an operation of designating the apexes of the updated image region 123 by left clicking or the like and confirming the designation by right clicking. The designation information input by these input operations is sent to the interface unit 11i, and the image area 123 is deformed according to the designation information. The interface unit 11i uses the homography matrix T obtained by the position / orientation conversion unit 11e to change the coordinates of the deformed image region 123 from the coordinate system of the photographing apparatus 12 to the coordinate system of the reference image of the scene in the DB. Converted and sent to the motion editing unit 11h. The motion editing unit 11h updates the distortion window DW of the motion information A associated with the above-described reference image I data stored in the DB unit 11m according to the transformation of the coordinates of the image region 123. That is, in accordance with the deformation of the image area 123, the motion editing unit 11h also deforms the distortion window DW corresponding to the image area 123. The motion corresponding to the post-deformation distortion window DW is the same as the motion corresponding to the pre-deformation distortion window DW until further motion editing is performed. The transformed image area 123 is sent from the interface unit 11i to the display unit 11k, and the display unit 11k displays the transformed image area 123 on the user interface screen 100-4. In the time axis information display unit 130 of the user interface screen 100-4, a straight line 133 corresponding to the image area 123 is displayed when the image area 123 is copied (FIG. 6).

画像領域121を削除する場合、まず、利用者は入力部11jを用い、ユーザインタフェース画面100−3に表示された画像領域121への入力操作を行って画像領域121を選択する。設定部162dには、選択された画像領域121に対応する歪み窓DWのIDが表示される。利用者は、設定部162dに直接歪み窓DWのIDを入力することによって、画像領域121を選択してもよい。次に利用者は入力部11jを用い、設定部163bへの入力操作を行う。この入力操作によって入力された指定情報は、インタフェース部11iから、動き編集部11hに送られる。動き編集部11hは、この指定情報に応じて画像領域121を削除する。さらに、動き編集部11hは、画像領域121の削除に応じ、DB部11mに格納されている前述の参照画像Idataに対応付けられている動き情報Aの歪み窓DWを更新する。すなわち、動き編集部11hは、削除された画像領域121に対応する歪み窓DWを削除する。これらの情報は、インタフェース部11iから表示部11kに送られ、表示部11kは画像領域121が削除されたユーザインタフェース画面100−4を表示する。 When deleting the image area 121, first, the user selects an image area 121 by performing an input operation on the image area 121 displayed on the user interface screen 100-3 using the input unit 11j. The setting unit 162d displays the ID of the distortion window DW corresponding to the selected image area 121. The user may select the image area 121 by directly inputting the ID of the distortion window DW to the setting unit 162d. Next, the user performs an input operation to the setting unit 163b using the input unit 11j. The designation information input by this input operation is sent from the interface unit 11i to the motion editing unit 11h. The motion editing unit 11h deletes the image area 121 according to the designation information. Furthermore, the motion editing unit 11h updates the distortion window DW of the motion information A associated with the above-described reference image I data stored in the DB unit 11m in response to the deletion of the image area 121. That is, the motion editing unit 11h deletes the distortion window DW corresponding to the deleted image area 121. These pieces of information are sent from the interface unit 11i to the display unit 11k, and the display unit 11k displays the user interface screen 100-4 from which the image area 121 is deleted.

以上の画像領域の追加、移動、変更、削除に伴って更新された動き情報Aに基づいて、前述の≪映像生成≫≪重畳映像生成・映像Pの対象物14への投影≫の処理が行われる。これにより、動き情報Aの更新内容がリアルタイムで対象物14に映像Pに反映され、変更された映像P(更新後映像)が対象物14に投影される。すなわち、ユーザインタフェース画面100−4に表示された編集結果が、リアルタイムに対象物14に重畳される映像Pに反映される。また図6の例では、シーンの時刻が進むにつれて、バー140が直線131〜133に沿ったτ方向に移動する。これにより、対象物14に重畳された映像Pの時間軸上の位置を視覚的に表現できる。 Adding more image areas, moving, changing, based on the motion information A that has been updated with the deletion, the process of the «projected to the object 14 in the video generation »« superimposed image generation and image P described above Done. Thus, updates to the motion information A is reflected on the image P C to the object 14 in real time, the modified image P C (updated image) is projected onto the object 14. That is, as a result edited displayed on the user interface screen 100-4 is reflected in the image P C to be superimposed on the target object 14 in real time. In the example of FIG. 6, the bar 140 moves in the τ direction along the straight lines 131 to 133 as the scene time advances. Thus, the position on the time axis of the video P C superimposed on the object 14 can be visually represented.

以上のように、ユーザインタフェース画面100−4は、対象物14の領域を利用者が設定するためのユーザインタフェースとして機能し、対象物14の画像を利用者が視認可能なように提示するとともに、対象物14の画像に含まれる画像領域を特定する第1指定情報の入力を受け付ける。ユーザインタフェース画面100−4の機能も、インタフェース部11i,入力部11j,表示部11kによって実現される。   As described above, the user interface screen 100-4 functions as a user interface for the user to set the area of the object 14, and presents the image of the object 14 so that the user can visually recognize the image. An input of first designation information for specifying an image region included in the image of the object 14 is received. The function of the user interface screen 100-4 is also realized by the interface unit 11i, the input unit 11j, and the display unit 11k.

≪画像領域・歪み窓DWに与える動き方の編集≫
利用者は、ユーザインタフェース画面100−3または4に表示された画像領域の動き方を編集可能である。これに同期して、対象物14の対象領域(歪み窓DWに対応)に与えられる見掛けの動きも編集可能である。画像領域121およびそれに対応する歪み窓DWに与える動き方を編集する場合、まず、利用者は入力部11jを用い、ユーザインタフェース画面100−3または4に表示された画像領域121への入力操作を行って画像領域121を選択する。設定部162dには、選択された画像領域121に対応する歪み窓DWのIDが表示される。利用者は、設定部162dに直接歪み窓DWのIDを入力することによって、画像領域121を選択してもよい。次に利用者は入力部11jを用い、動きの編集内容に応じた設定部162j〜162rへの入力操作を行って、動きパタン、動きの振幅、コントラスト、空間周波数、スピード、角度、位相などのパラメータを指定する。指定された内容は、それぞれの設定部162j〜162rに表示される。これらの入力操作によって入力された指定情報は、インタフェース部11iから、動き編集部11hに送られる。動き編集部11hは、この指定情報に応じて画像領域121の動きを変化させる。さらに、動き編集部11hは、画像領域121の動きの変化に応じ、DB部11mに格納されている前述の参照画像Idataに対応付けられている動き情報Aを更新する。すなわち、動き編集部11hは、画像領域121の動きの変化に応じて、その画像領域121に対応する歪み窓DWの動きも変化させる。また更新された動き情報Aに基づいて、前述の≪映像生成≫≪重畳映像生成・映像Pの対象物14への投影≫の処理が行われる。これにより、ユーザインタフェース画面100−4に表示された編集結果が、リアルタイムに対象物14に重畳される映像Pに反映される。またバー140の表示により、対象物14に重畳された映像Pの時間軸上の位置を視覚的に表現できる(図6)。
≪Editing how to move image area / distortion window DW≫
The user can edit how the image area displayed on the user interface screen 100-3 or 4 moves. In synchronization with this, the apparent movement given to the target region (corresponding to the distortion window DW) of the target object 14 can also be edited. When editing the movement method given to the image area 121 and the distortion window DW corresponding to the image area 121, first, the user uses the input unit 11j to perform an input operation to the image area 121 displayed on the user interface screen 100-3 or 4. Go to select the image area 121. The setting unit 162d displays the ID of the distortion window DW corresponding to the selected image area 121. The user may select the image area 121 by directly inputting the ID of the distortion window DW to the setting unit 162d. Next, the user uses the input unit 11j to perform input operations to the setting units 162j to 162r in accordance with the motion editing content, so that the motion pattern, motion amplitude, contrast, spatial frequency, speed, angle, phase, etc. Specify parameters. The designated contents are displayed on the setting sections 162j to 162r. The designation information input by these input operations is sent from the interface unit 11i to the motion editing unit 11h. The motion editing unit 11h changes the motion of the image area 121 according to the designation information. Furthermore, the motion editing unit 11h updates the motion information A associated with the above-described reference image I data stored in the DB unit 11m in accordance with a change in the motion of the image region 121. That is, the motion editing unit 11 h changes the motion of the distortion window DW corresponding to the image region 121 in accordance with the change of the motion of the image region 121. Also based on the updated motion information A, the processing of the «projected to the object 14 in the video generation »« superimposed image generation and image P described above is performed. Thus, the user interface screen 100-4 to the displayed editing result is reflected on the image P C to be superimposed on the target object 14 in real time. Also by the display of the bar 140, the position on the time axis of the video P C superimposed on the object 14 can be represented visually (Figure 6).

以上のように、ユーザインタフェース画面100−3,4は、対象物14の領域である対象領域の像に与える動きを利用者が設定するためのユーザインタフェースとして機能し、対象物14の画像に含まれる画像領域および対象領域の像に与える動きに対応するパラメータを利用者が視認可能なように提示するとともに、動きに対応するパラメータを特定する第2指定情報の入力を受け付ける。   As described above, the user interface screens 100-3 and 4 function as a user interface for the user to set the movement to be given to the image of the target area that is the area of the target object 14, and are included in the image of the target object 14. In addition to presenting the parameters corresponding to the movement given to the image area and the image of the target area so that the user can visually recognize, the input of the second designation information specifying the parameter corresponding to the movement is accepted.

≪画像領域・歪み窓DWに与える動きの時間範囲の編集≫
利用者は、ユーザインタフェース画面100−3または4に表示される画像領域に設定した動きの時間範囲を編集可能である。これに同期して、対象物14の対象領域(歪み窓DWに対応)に与えられる見掛けの動きの時間範囲も編集可能である。本形態では、歪み窓DWでの動きを開始するフレーム、DWでの動きの持続フレーム数、動きのフェードイン区間のフレーム数、動きのフェードアウト区間のフレーム数の編集が可能である。画像領域121の動きの時間範囲を編集する場合、まず、利用者は入力部11jを用い、ユーザインタフェース画面100−3または4に表示された画像領域121への入力操作を行って画像領域121を選択する。設定部162dには、選択された画像領域121に対応する歪み窓DWのIDが表示される。利用者は、設定部162dに直接歪み窓DWのIDを入力することによって、画像領域121を選択してもよい。次に利用者は入力部11jを用い、時間範囲を編集内容に応じた設定部162e〜162hへの入力操作を行って、画像領域121に対応する歪み窓DWでの動きを開始するフレーム、持続フレーム数、動きのフェードイン区間のフレーム数、動きのフェードアウト区間のフレーム数などのパラメータを指定する。指定された内容は、それぞれの設定部162e〜162hに表示される。これらの入力操作によって入力された指定情報は、インタフェース部11iから、動き編集部11hに送られる。動き編集部11hは、この指定情報に応じて画像領域121の動きの時間範囲(開示時点、終了時点、フェードイン期間、フェードアウト期間)などを設定する。さらに、動き編集部11hは、画像領域121の動きの時間範囲に応じ、DB部11mに格納されている前述の参照画像Idataに対応付けられている動き情報Aを更新する。すなわち、動き編集部11hは、画像領域121の動きの時間範囲に応じて、その画像領域121に対応する歪み窓DWの動きの時間範囲も変化させる。また更新された動き情報Aに基づいて、前述の≪映像生成≫≪重畳映像生成・映像Pの対象物14への投影≫の処理が行われる。これにより、ユーザインタフェース画面100−4に表示された編集結果が、リアルタイムに対象物14に重畳される映像Pに反映される。またバー140の表示により、対象物14に重畳された映像Pの時間軸上の位置を視覚的に表現できる(図6)。
≪Editing the time range of movement given to the image area / distortion window DW≫
The user can edit the movement time range set in the image area displayed on the user interface screen 100-3 or 4. In synchronization with this, the apparent motion time range given to the target area (corresponding to the distortion window DW) of the target object 14 can also be edited. In this embodiment, it is possible to edit the frame that starts the motion in the distortion window DW, the number of continuous frames of motion in the DW, the number of frames in the motion fade-in section, and the number of frames in the motion fade-out section. When editing the time range of movement of the image area 121, first, the user uses the input unit 11j to perform an input operation on the image area 121 displayed on the user interface screen 100-3 or 4 to display the image area 121. select. The setting unit 162d displays the ID of the distortion window DW corresponding to the selected image area 121. The user may select the image area 121 by directly inputting the ID of the distortion window DW to the setting unit 162d. Next, the user uses the input unit 11j to perform an input operation to the setting units 162e to 162h according to the editing content of the time range, and to start the frame in which the movement in the distortion window DW corresponding to the image region 121 is started, Specify parameters such as the number of frames, the number of frames in the motion fade-in section, and the number of frames in the motion fade-out section. The designated content is displayed on each setting unit 162e to 162h. The designation information input by these input operations is sent from the interface unit 11i to the motion editing unit 11h. The motion editing unit 11h sets a time range of motion of the image area 121 (disclosure point, end point, fade-in period, fade-out period) and the like according to the designation information. Furthermore, the motion editing unit 11h updates the motion information A associated with the above-described reference image I data stored in the DB unit 11m, according to the motion time range of the image region 121. That is, the motion editing unit 11h changes the time range of motion of the distortion window DW corresponding to the image region 121 according to the time range of motion of the image region 121. Also based on the updated motion information A, the processing of the «projected to the object 14 in the video generation »« superimposed image generation and image P described above is performed. Thus, the user interface screen 100-4 to the displayed editing result is reflected on the image P C to be superimposed on the target object 14 in real time. Also by the display of the bar 140, the position on the time axis of the video P C superimposed on the object 14 can be represented visually (Figure 6).

以上のように、ユーザインタフェース画面100−3,4は、対象物14の対象領域の像に与える動きの時間範囲を利用者が設定するためのユーザインタフェースとして機能し、映像Pが与える動きの時間軸上の位置、および映像Pが与える動きの時間範囲に対応するパラメータを利用者が視認可能なように提示するとともに、動きの時間範囲に対応するパラメータを特定する第3指定情報の入力を受け付ける。 As described above, the user interface screen 100-3,4 functions as a user interface for setting the user a time range of motion that gives the image of the target area of the object 14, the motion picture P C gives position on the time axis, and with user parameters corresponding to a time range of motion is presented to visible video P C gives the input of the third specifying information for specifying a parameter corresponding to a time range of motion Accept.

≪効果音の設定≫
利用者は、画像領域の動きに効果音を設定することもできる。ユーザインタフェース画面100−3または4に表示される画像領域121の動きに効果音を設定する場合、まず、利用者は入力部11jを用い、ユーザインタフェース画面100−3または4に表示された画像領域121への入力操作を行って画像領域121を選択する。設定部162dには、選択された画像領域121に対応する歪み窓DWのIDが表示される。利用者は、設定部162dに直接歪み窓DWのIDを入力することによって、画像領域121を選択してもよい。次に利用者は入力部11jを用い、設定部163aへの入力操作を行って効果音のID(非負の整数)を指定する。なお、効果音を設定しない場合にはID=−1とする。指定されたIDは設定部163aに表示される。これらの入力操作によって入力された指定情報は、インタフェース部11iから、動き編集部11hに送られる。動き編集部11hは、この指定情報に応じて画像領域121の動きの時間範囲に応じた効果音を設定する。すなわち、画像領域121の動きが与えられている時間範囲にだけ効果音を出力する設定を行う。動きのフェードイン・フェードアウトに応じて効果音の音量を変化させる設定でもよい。
≪Sound effect setting≫
The user can also set sound effects for the movement of the image area. When sound effects are set for the movement of the image area 121 displayed on the user interface screen 100-3 or 4, first, the user uses the input unit 11j to display the image area displayed on the user interface screen 100-3 or 4 The image area 121 is selected by performing an input operation on the screen 121. The setting unit 162d displays the ID of the distortion window DW corresponding to the selected image area 121. The user may select the image area 121 by directly inputting the ID of the distortion window DW to the setting unit 162d. Next, the user uses the input unit 11j to perform an input operation to the setting unit 163a to specify the sound effect ID (non-negative integer). When no sound effect is set, ID = -1. The designated ID is displayed on the setting unit 163a. The designation information input by these input operations is sent from the interface unit 11i to the motion editing unit 11h. The motion editing unit 11h sets a sound effect according to the time range of motion of the image area 121 according to the designation information. That is, a setting is made to output a sound effect only in a time range in which the movement of the image area 121 is given. It is also possible to change the volume of the sound effect according to the fade-in / fade-out of the movement.

≪設定の保存≫
利用者は、設定部163eへの入力操作を行うことにより、上記の編集結果、すなわち編集された動き情報AをDB部11mに保存できる。次回の起動時には、DB部11mから編集された動き情報Aが読み込まれ、前述の各処理が実行される。
≪Save settings≫
The user can save the edited result, that is, the edited motion information A, in the DB unit 11m by performing an input operation to the setting unit 163e. At the next startup, the motion information A edited from the DB unit 11m is read, and the above-described processes are executed.

[第2実施形態]
第1実施形態では、投影装置13によって映像Pを対象物14に投影し、対象物14に映像Pを重畳した。しかしながら、透過型ディスプレイに表示された映像Pを対象物14の像に重畳してもよい。
[Second Embodiment]
In the first embodiment, it projected on the object 14 an image P C by a projection device 13, and superimposes the image P C to the object 14. However, it may be superimposed the image P C displayed on the transmissive display to the image of the object 14.

図7に例示するように、本形態の映像システム2は、第1実施形態で説明した映像生成装置11、撮影装置12、および透過型ディスプレイ23(映像提示部)を有する。対象物14は壁23に固定されており、壁23と透過型ディスプレイ23との間に配置されている。第1実施形態で説明した映像Pは透過型ディスプレイ23に表示される。利用者はU方向に透過型ディスプレイ23越しに対象物14を見る。利用者は、透過型ディスプレイ23に表示された映像Pが対象物14に重畳した像を知覚し、これによって対象物14に見掛けの動きが与えられたように知覚する。 As illustrated in FIG. 7, the video system 2 of the present embodiment includes the video generation device 11, the imaging device 12, and the transmissive display 23 (video presentation unit) described in the first embodiment. The object 14 is fixed to the wall 23 and is disposed between the wall 23 and the transmissive display 23. Image P C described in the first embodiment is displayed on transmissive display 23. The user views the object 14 through the transmissive display 23 in the U direction. The user through display 23 image P C displayed on the perceived image superimposed on the object 14, thereby perceived as the movement of apparent object 14 is given.

[その他の変形例]
なお、本発明は上述の実施の形態に限定されるものではない。例えば、映像生成装置11が有する機能はネットワーク上に分散して配置されてもよい。
[Other variations]
The present invention is not limited to the embodiment described above. For example, the functions of the video generation device 11 may be distributed and arranged on the network.

また、上述の実施形態では、初期状態としてDB部11mのDBに動き情報が格納されていた。しかしながら、初期状態ではDBに動き情報が格納されておらず、≪動き編集≫によって歪み窓DWや動き内容が特定されてから、それに対応する動き情報がDBに格納されてもよい。あるいは、初期状態としてDB部11mのDBに格納された動き情報が、予め定められた複数の歪み窓DWの情報と、それぞれの歪み窓DWに対応する、歪みの空間範囲、歪みの時間範囲、歪みの基底関数の種類、振幅、空間周波数、速さ、角度、位相、効果音のIDの情報とを含んでいてもよい。   In the above-described embodiment, the motion information is stored in the DB of the DB unit 11m as an initial state. However, in the initial state, the motion information is not stored in the DB, and the motion information corresponding to the distortion window DW and the motion content may be stored in the DB after << distortion editing >> is specified. Alternatively, the motion information stored in the DB of the DB unit 11m as an initial state includes information on a plurality of predetermined distortion windows DW and a distortion spatial range, a distortion time range corresponding to each distortion window DW, It may include information on the type of distortion basis function, amplitude, spatial frequency, speed, angle, phase, and sound effect ID.

第1実施形態において、撮影装置12と投影装置13との相対的な位置(相対座標)が予め定められていてもよい。これにより、キャリブレーションを省略できる。また、映像Pが輝度運動成分のみからなる動画であってもよい(例えば、特許文献1参照)。この場合には、式(1)に代えて以下の式によって映像Pを生成してもよい。
P=w(Y−Y)/K+B (2)
ただし、Yは映像Iの輝度成分のみからなる動画であり、Yは画像Iの輝度成分のみからなる画像である。
In the first embodiment, the relative position (relative coordinates) between the imaging device 12 and the projection device 13 may be determined in advance. Thereby, calibration can be omitted. Also, it may be a video image P C is composed of only the luminance motion component (e.g., see Patent Document 1). In this case, the video P may be generated by the following equation instead of the equation (1).
P = w (Y D -Y B ) / K + B (2)
However, Y D is a moving image consisting of only a luminance component of the image I D, Y B is an image consisting of only a luminance component of the image I B.

その他、一般的なプロジェクションマッピングに用いられる映像がPであってもよい。 Other video used for general projection mapping may be a P C.

第1実施形態では、≪画像検索≫において、画像Iに適合する参照画像Idataが複数検出された場合には、検出されたすべての参照画像Idataについてホモグラフィ行列Tが推定され、それぞれの参照画像Idataに対応するシーンについて映像IDsが生成された。しかしながら、画像Iに適合する参照画像Idataが複数検出された場合に、それより後の処理の対象とするシーンを利用者が選択可能であってもよい。 In the first embodiment, in the «image search», if the image I conforming reference image I data to B is more detected, the homography matrix T for all the reference images I data that has been detected is estimated, respectively Video I Ds was generated for the scene corresponding to the reference image I data . However, if a matching reference image I data to the image I B is more detected, the user of the scene to be processed later than it may be selectable.

また、上述の実施形態では、インタフェース部11i、入力部11j、および表示部11kが、利用者からの情報の入力の受け付け、および利用者に対する情報の提示を行うユーザインタフェース(指定部)であった。しかしながら、前述した表示部11kから表示される情報の少なくとも一部が投影装置13から投影されてもよい。その場合には、投影装置13がユーザインタフェース(指定部)の一部であってもよい。また、表示部11kが表示した全ての情報が投影装置13から投影される場合、表示部11kが省略されてもよい。この場合には、インタフェース部11i、入力部11j、および投影装置13がユーザインタフェース(指定部)となる。   In the above-described embodiment, the interface unit 11i, the input unit 11j, and the display unit 11k are user interfaces (designation units) that receive input of information from the user and present information to the user. . However, at least a part of the information displayed from the display unit 11k described above may be projected from the projection device 13. In that case, the projection device 13 may be a part of the user interface (designation unit). Further, when all information displayed by the display unit 11k is projected from the projection device 13, the display unit 11k may be omitted. In this case, the interface unit 11i, the input unit 11j, and the projection device 13 serve as a user interface (designation unit).

上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。   The various processes described above are not only executed in time series according to the description, but may also be executed in parallel or individually as required by the processing capability of the apparatus that executes the processes. Needless to say, other modifications are possible without departing from the spirit of the present invention.

上述の構成をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。このプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体の例は、非一時的な(non-transitory)記録媒体である。このような記録媒体の例は、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等である。   When the above configuration is realized by a computer, the processing contents of the functions that each device should have are described by a program. By executing this program on a computer, the above processing functions are realized on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium. An example of a computer-readable recording medium is a non-transitory recording medium. Examples of such a recording medium are a magnetic recording device, an optical disk, a magneto-optical recording medium, a semiconductor memory, and the like.

このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。   This program is distributed, for example, by selling, transferring, or lending a portable recording medium such as a DVD or CD-ROM in which the program is recorded. Furthermore, the program may be distributed by storing the program in a storage device of the server computer and transferring the program from the server computer to another computer via a network.

このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。処理の実行時、このコンピュータは、自己の記憶装置に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。   A computer that executes such a program first stores, for example, a program recorded on a portable recording medium or a program transferred from a server computer in its own storage device. When executing the process, the computer reads a program stored in its own storage device, and executes a process according to the read program. As another execution form of the program, the computer may read the program directly from the portable recording medium and execute processing according to the program, and each time the program is transferred from the server computer to the computer. The processing according to the received program may be executed sequentially. The above-described processing may be executed by a so-called ASP (Application Service Provider) type service that realizes a processing function only by an execution instruction and result acquisition without transferring a program from the server computer to the computer. Good.

上記実施形態では、コンピュータ上で所定のプログラムを実行させて本装置の処理機能が実現されたが、これらの処理機能の少なくとも一部がハードウェアで実現されてもよい。   In the above embodiment, the processing functions of the apparatus are realized by executing a predetermined program on a computer. However, at least a part of these processing functions may be realized by hardware.

1,2 映像生成システム
11 映像生成装置
1, 2 Video generation system 11 Video generation device

Claims (11)

対象物に見掛けの動きを与えるために重畳される映像を生成する映像生成装置であって、
前記映像を生成するための情報を利用者が設定するためのユーザインタフェースであり、前記対象物の画像に含まれる画像領域を前記利用者が視認可能なように提示するとともに、前記映像を生成するための指定情報の入力を受け付ける指定部と、
前記指定部で受け付けた前記指定情報に対応する前記映像を生成する映像生成部と、
前記対象物の領域である対象領域と、前記指定部で受け付けた前記指定情報に対応する前記映像生成部が生成した前記映像と、が重畳された様子を前記利用者が視認可能なように、前記指定部で受け付けた前記指定情報に対応する前記映像を提示する映像提示部と、を有し、
前記対象物の領域である対象領域と、前記指定部で受け付けた前記指定情報に対応する前記映像生成部が生成した前記映像と、が重畳された様子を前記利用者が視認可能な状態で、前記指定部における前記対象物の画像に含まれる前記画像領域の提示と、前記映像を生成するための前記指定情報の更新入力の受け付けとが可能とされており、
前記映像生成装置はさらに、データベース部と画像検索部とを有し、
前記データベース部には、登録対象物を特定可能な情報と、前記登録対象物の画像に含まれる画像領域の動きを特定する動き情報と、の組を含む情報が記憶されており、
前記画像検索部は、前記データベース部から、前記対象物の画像にマッチする前記登録対象物を特定可能な情報と、前記対象物の画像にマッチする前記登録対象物の画像に含まれる画像領域の動きを特定する前記動き情報と、を抽出し、
前記映像生成部は、前記対象物の画像と前記画像検索部で抽出された前記登録対象物を特定可能な情報とから得られるパラメータに基づいて、前記対象物の画像に含まれる前記画像領域に対し、前記画像検索部で抽出された前記動き情報に基づく動きを与えて前記映像を生成し
前記指定情報は、動きに対応するパラメータを特定するものであり、
前記映像生成部は、前記指定情報の更新入力を契機に、前記対象物の画像に含まれる前記画像領域に対し、前記指定情報で特定されるパラメータに対応する動きを与えて前記映像を更新する、映像生成装置。
A video generation device that generates a video to be superimposed to give an apparent movement to an object,
It is a user interface for a user to set information for generating the video, and presents the image area included in the image of the target object so that the user can visually recognize, and generates the video. A designation unit that accepts input of designation information for
A video generation unit that generates the video corresponding to the designation information received by the designation unit;
In order for the user to visually recognize a state in which the target area that is the target object area and the video generated by the video generation unit corresponding to the designation information received by the designation unit are superimposed, A video presentation unit that presents the video corresponding to the designation information received by the designation unit;
In a state where the user can visually recognize a state in which the target region that is the target object region and the video generated by the video generation unit corresponding to the designation information received by the designation unit are superimposed, It is possible to present the image area included in the image of the object in the designation unit and accept an update input of the designation information for generating the video,
The video generation device further includes a database unit and an image search unit,
In the database unit, information including a set of information that can specify a registration target and motion information that specifies a motion of an image area included in the image of the registration target is stored,
The image search unit includes, from the database unit, information that can identify the registration target that matches the image of the target, and an image area included in the image of the registration target that matches the image of the target Extracting the movement information for identifying movement;
The video generation unit is configured to store the image area included in the image of the object based on parameters obtained from the image of the object and information that can identify the registration object extracted by the image search unit. On the other hand, the video is generated by giving a motion based on the motion information extracted by the image search unit, and the designation information specifies a parameter corresponding to the motion,
The video generation unit updates the video by giving a motion corresponding to the parameter specified by the designation information to the image area included in the image of the target object when the designation information is updated. , Video generation device.
対象物に見掛けの動きを与えるために重畳される映像を生成する映像生成装置であって、
前記対象物の領域を利用者が設定するためのユーザインタフェースであり、前記対象物の画像を前記利用者が視認可能なように提示するとともに、前記対象物の画像に含まれる画像領域を特定する第1指定情報の入力を受け付ける指定部と、
前記指定部で受け付けた前記第1指定情報で特定される前記画像領域に対応する前記映像を生成する映像生成部と、
前記第1指定情報で特定される前記画像領域に対応する前記対象物の領域である対象領域と、前記指定部で受け付けた前記第1指定情報で特定される前記画像領域に対応する前記映像生成部が生成した前記映像と、が重畳された様子を前記利用者が視認可能なように、前記指定部で受け付けた前記第1指定情報で特定される前記画像領域に対応する前記映像生成部が生成した前記映像を提示する映像提示部と、を有し、
前記対象物の領域である対象領域と、前記指定部で受け付けた前記第1指定情報で特定される前記画像領域に対応する前記映像生成部が生成した前記映像と、が重畳された様子を前記利用者が視認可能な状態で、前記指定部における前記対象物の画像に含まれる前記画像領域の提示と、前記第1指定情報の入力の受け付けとが可能とされており、
前記映像生成装置はさらに、データベース部と画像検索部とを有し、
前記データベース部には、登録対象物を特定可能な情報と、前記登録対象物の画像に含まれる画像領域の動きを特定する動き情報と、の組を含む情報が記憶されており、
前記画像検索部は、前記データベース部から、前記対象物の画像にマッチする前記登録対象物を特定可能な情報と、前記対象物の画像にマッチする前記登録対象物の画像に含まれる画像領域の動きを特定する前記動き情報と、を抽出し、
前記映像生成部は、前記対象物の画像と前記画像検索部で抽出された前記登録対象物を特定可能な情報とから得られるパラメータに基づいて、前記第1指定情報で特定される前記画像領域に対し、前記画像検索部で抽出された前記動き情報に基づく動きを与えて前記映像を生成し、
前記指定部は、さらに前記対象領域の像に与える動きを前記利用者が設定するためのユーザインタフェースであり、前記画像領域および前記対象領域の像に与える動きに対応するパラメータを前記利用者が視認可能なように提示するとともに、前記動きに対応するパラメータを特定する第2指定情報の更新入力を受け付け、
前記映像生成部は、前記第2指定情報の更新入力を契機に、前記指定部で受け付けた前記第1指定情報で特定される前記画像領域に、前記指定部で受け付けた前記第2指定情報で特定される前記パラメータに対応する動きを与えて前記映像を更新し、
前記映像提示部は、前記対象物の領域である対象領域と、前記指定部で受け付けた前記第1指定情報で特定される前記画像領域に、前記指定部で受け付けた前記第2指定情報で特定されるパラメータに対応する動きを与える前記映像と、が重畳された様子を前記利用者が視認可能なように、前記指定部で受け付けた前記第1指定情報で特定される前記画像領域に、前記指定部で受け付けた前記第2指定情報で特定されるパラメータに対応する動きを与える、前記映像生成部が更新した前記映像を提示し、
前記対象物の領域である対象領域と、前記指定部で受け付けた前記第1指定情報で特定される前記画像領域に、前記指定部で受け付けた前記第2指定情報で特定されるパラメータに対応する動きを与える、前記映像生成部が更新した前記映像と、が重畳された様子を前記利用者が視認可能な状態で、前記指定部における前記動きに対応するパラメータの提示と、前記第2指定情報の入力の受け付けとが可能とされている、映像生成装置。
A video generation device that generates a video to be superimposed to give an apparent movement to an object,
It is a user interface for a user to set an area of the object, presents the image of the object so that the user can visually recognize, and specifies an image area included in the image of the object A designation unit that receives input of the first designation information;
A video generation unit that generates the video corresponding to the image area specified by the first specification information received by the specification unit;
The target area corresponding to the image area specified by the first designation information and the video generation corresponding to the image area identified by the first designation information received by the designation unit The video generation unit corresponding to the image area specified by the first designation information received by the designation unit so that the user can visually recognize a state in which the video generated by the unit is superimposed on the video image. A video presentation unit for presenting the generated video,
A state in which a target region that is a region of the target object and the video generated by the video generation unit corresponding to the image region specified by the first specification information received by the specification unit are superimposed In a state where the user can visually recognize, it is possible to present the image area included in the image of the object in the designation unit and to accept input of the first designation information,
The video generation device further includes a database unit and an image search unit,
In the database unit, information including a set of information that can specify a registration target and motion information that specifies a motion of an image area included in the image of the registration target is stored,
The image search unit includes, from the database unit, information that can identify the registration target that matches the image of the target, and an image area included in the image of the registration target that matches the image of the target Extracting the movement information for identifying movement;
The image generation unit is configured to identify the image area specified by the first designation information based on a parameter obtained from an image of the object and information that can identify the registration target extracted by the image search unit. In contrast, generating the video by giving a motion based on the motion information extracted by the image search unit,
The designating unit is a user interface for the user to set a movement to be given to the image of the target area, and the user visually recognizes a parameter corresponding to the movement to be given to the image area and the image of the target area. Presenting as possible and accepting an update input of the second designation information specifying the parameter corresponding to the movement,
In response to the update input of the second designation information, the video generation unit uses the second designation information received by the designation unit in the image area specified by the first designation information received by the designation unit. Updating the video with a movement corresponding to the identified parameter;
The video presenting unit is specified by the second designation information received by the designation unit in the target area that is the area of the target object and the image area specified by the first designation information received by the designation unit. In the image area identified by the first designation information received by the designation unit, the image area giving the movement corresponding to the parameter to be viewed can be visually recognized by the user, Presenting the video updated by the video generation unit, giving a motion corresponding to the parameter specified by the second designation information received by the designation unit;
The target area that is the area of the target object and the image area that is specified by the first designation information received by the designation section correspond to the parameters that are identified by the second designation information received by the designation section. Presentation of parameters corresponding to the movement in the designation unit and the second designation information in a state where the user can visually recognize a state in which the video and the video updated by the video generation unit are superimposed. An image generation device capable of accepting an input of.
請求項2の映像生成装置であって、
前記指定部は、さらに前記対象領域の像に与える動きの時間範囲を前記利用者が設定するためのユーザインタフェースであり、前記映像が与える動きの時間軸上の位置、および前記映像が与える動きの時間範囲に対応するパラメータを前記利用者が視認可能なように提示するとともに、前記動きの時間範囲に対応するパラメータを特定する第3指定情報の入力を受け付け、
前記映像生成部は、前記指定部で受け付けた前記第1指定情報で特定される前記画像領域に、前記指定部で受け付けた前記第3指定情報で特定される前記パラメータに対応する時間範囲で動きを与える前記映像を生成し、
前記映像提示部は、前記対象物の領域である対象領域と、前記指定部で受け付けた前記第1指定情報で特定される前記画像領域に、前記指定部で受け付けた前記第3指定情報で特定される前記パラメータに対応する時間範囲で動きを与える前記映像と、が重畳された様子、および前記映像が与える動きの時間軸上の位置を前記利用者が視認可能なように、前記指定部で受け付けた前記第1指定情報で特定される前記画像領域に、前記指定部で受け付けた前記第3指定情報で特定される前記パラメータに対応する時間範囲で動きを与える前記映像を提示し、
前記対象物の領域である対象領域と、前記指定部で受け付けた前記第1指定情報で特定される前記画像領域に、前記指定部で受け付けた前記第3指定情報で特定される前記パラメータに対応する時間範囲で動きを与える、前記映像生成部が生成した前記映像と、が重畳された様子、および前記映像が与える動きの時間軸上の位置を前記利用者が視認可能な状態で、前記指定部における前記動きの時間範囲に対応するパラメータの提示と、前記第3指定情報の入力の受け付けとが可能とされている、映像生成装置。
The video generation device according to claim 2,
The designation unit is a user interface for the user to set a time range of movement given to the image of the target area, and a position on the time axis of the movement given by the video and a movement given by the video Presenting the parameter corresponding to the time range so as to be visible to the user, accepting the input of the third designation information specifying the parameter corresponding to the time range of the movement,
The video generation unit moves to the image area specified by the first specification information received by the specification unit in a time range corresponding to the parameter specified by the third specification information received by the specification unit. Generating the video,
The video presenting unit is identified by the third designation information received by the designation unit in the target area that is the area of the target object and the image area identified by the first designation information received by the designation unit. The designation unit is configured so that the user can visually recognize the superimposed state of the video that gives motion in the time range corresponding to the parameter and the position on the time axis of the motion given by the video. Presenting the video giving motion in a time range corresponding to the parameter specified by the third specification information received by the specification unit in the image region specified by the received first specification information;
Corresponds to the target area that is the area of the object and the parameter specified by the third designation information received by the designation section in the image area that is identified by the first designation information received by the designation section. The designation is made in a state where the user can visually recognize the superimposed state of the video generated by the video generation unit and the position on the time axis of the motion given by the video. A video generation device capable of presenting a parameter corresponding to the time range of movement in the unit and accepting input of the third designation information.
請求項2または3の映像生成装置であって、
前記映像は、前記対象領域の像に与える動きを表す輝度運動成分である、映像生成装置。
The video generation device according to claim 2 or 3,
The video generation apparatus, wherein the video is a luminance motion component representing a motion given to an image of the target area.
請求項1から4の何れかの映像生成装置であって、
前記動きに対応するパラメータは、動きのパタン、動きの振幅、動き映像のコントラスト、動き映像の空間周波数、動きのスピード、動きの角度、および動きの位相の何れか1つ以上を表す、映像生成装置。
The video generation device according to any one of claims 1 to 4,
The parameter corresponding to the motion represents one or more of a motion pattern, motion amplitude, motion video contrast, motion video spatial frequency, motion speed, motion angle, and motion phase. apparatus.
請求項1から5の何れかの映像生成装置であって、
前記登録対象物を特定可能な情報は、前記登録対象物の画像の特徴量と前記登録対象物の参照画像とを含み、
前記対象物の画像にマッチする前記登録対象物は、前記対象物の画像の特徴量と一致または近似する特徴量を持つ特徴点を所定個以上含む前記登録対象物であり、
前記映像生成部は、
前記対象物の画像を、前記画像検索部で抽出された前記登録対象物の参照画像と同じ姿勢・スケールの変換画像に変換し、
前記変換画像に前記画像検索部で抽出された前記動き情報に基づく動きを与えて変換映像を生成し、
前記変換映像を前記対象物の画像と同じ姿勢・スケールの前記映像に逆変換する、映像生成装置。
The video generation device according to any one of claims 1 to 5,
The information that can specify the registration object includes a feature amount of the image of the registration object and a reference image of the registration object,
The registered object that matches the image of the object is the registered object that includes at least a predetermined number of feature points having feature quantities that match or approximate the feature quantities of the image of the object,
The video generation unit
Converting the image of the object into a converted image having the same posture and scale as the reference image of the registered object extracted by the image search unit;
Giving the converted image a motion based on the motion information extracted by the image search unit to generate a converted video;
A video generation device that reversely converts the converted video into the video having the same posture and scale as the image of the object.
請求項1から6の何れかの映像生成装置であって、
前記対象物の画像は、投影光が投影された前記対象物を撮影して得られたものであり、
前記投影光の強度の増分に対する前記対象物の画像の画素値の増分の比率を表すアルベドを計算するアルベド計算部を有し、
前記映像生成部は、さらに前記アルベドにも基づいて前記映像を生成する、映像生成装置。
The video generation device according to any one of claims 1 to 6,
The image of the object is obtained by photographing the object on which projection light is projected,
An albedo calculation unit for calculating an albedo representing a ratio of an increment of a pixel value of an image of the object to an increase in intensity of the projection light;
The video generation device is further configured to generate the video based on the albedo.
請求項1から7の何れかの映像生成装置であって、
前記指定部は、さらに前記映像の平均輝度を前記利用者が設定するためのユーザインタフェースであり、前記平均輝度を前記利用者が視認可能なように提示するとともに、前記平均輝度に対応するパラメータを特定する第4指定情報の入力を受け付け、
前記映像生成部は、前記指定部で受け付けた前記第4指定情報で特定される前記パラメータに対応する平均輝度の前記映像を生成する、映像生成装置。
The video generation device according to any one of claims 1 to 7,
The designation unit is a user interface for allowing the user to set an average luminance of the video, presents the average luminance so that the user can visually recognize, and sets a parameter corresponding to the average luminance. Accepts the input of the fourth specified information to identify,
The video generation unit is configured to generate the video having an average luminance corresponding to the parameter specified by the fourth designation information received by the designation unit.
対象物に見掛けの動きを与えるために重畳される映像を生成する映像生成方法であって、
(a)前記映像を生成するための情報を利用者が設定するためのユーザインタフェースである指定部が、前記対象物の画像に含まれる画像領域を前記利用者が視認可能なように提示するとともに、前記映像を生成するための指定情報の入力を受け付けるステップと、
(b)映像生成部が、前記指定部で受け付けた前記指定情報に対応する前記映像を生成するステップと、
(c)映像提示部が、前記対象物の領域である対象領域と、前記指定部で受け付けた前記指定情報に対応する前記映像生成部が生成した前記映像と、が重畳された様子を前記利用者が視認可能なように、前記指定部で受け付けた前記指定情報に対応する前記映像を提示するステップと、
(d)前記対象物の領域である対象領域と、前記指定部で受け付けた前記指定情報に対応する前記映像生成部が生成した前記映像と、が重畳された様子を前記利用者が視認可能な状態で、前記指定部における前記対象物の画像に含まれる前記画像領域の提示と、前記映像を生成するための前記指定情報の入力を受け付けとが行われると、前記受け付けた指定情報が即時反映された映像を更新後映像として前記映像生成部が生成するステップと、
(e)前記映像提示部が、前記対象物の領域である対象領域と、前記映像生成部が生成した前記更新後映像と、が重畳された様子を前記利用者が視認可能なように、前記更新後映像を提示するステップと、を有し、
前記映像提示部が前記更新後映像を提示することにより、前記対象物の領域である対象領域と、前記指定部で受け付けた前記指定情報に対応して前記映像生成部が生成した前記更新後映像と、が重畳された様子を前記利用者が視認可能な状態となり、
データベース部には、登録対象物を特定可能な情報と、前記登録対象物の画像に含まれる画像領域の動きを特定する動き情報と、の組を含む情報が記憶されており、
前記ステップ(b)は、
(b−1)画像検索部が、前記データベース部から、前記対象物の画像にマッチする前記登録対象物を特定可能な情報と、前記対象物の画像にマッチする前記登録対象物の画像に含まれる画像領域の動きを特定する前記動き情報と、を抽出するステップと、
(b−2)前記映像生成部が、前記対象物の画像と前記ステップ(b−1)で抽出された前記登録対象物を特定可能な情報とから得られるパラメータに基づいて、前記対象物の画像に含まれる前記画像領域に対し、前記ステップ(b−1)で抽出された前記動き情報に基づく動きを与えて前記映像を生成するステップと、を含み、
前記指定情報は、動きに対応するパラメータを特定するものを含み、
前記映像生成方法は、
(f)前記対象領域の像に与える動きを前記利用者が設定するためのユーザインタフェースである前記指定部が、前記画像領域および前記対象領域の像に与える動きに対応するパラメータを前記利用者が視認可能なように提示するとともに、前記動きに対応するパラメータを特定する前記指定情報の更新入力を受け付けるステップを含み、
前記ステップ(d)は、前記指定情報の更新入力を契機に、前記対象物の画像に含まれる前記画像領域に対し、前記ステップ(f)で受け付けた前記指定情報で特定されるパラメータに対応する動きを与えて、前記ステップ(b)で生成された前記映像を前記更新後映像に更新するステップを含む、映像生成方法。
An image generation method for generating an image to be superimposed to give an apparent movement to an object,
(A) A designation unit, which is a user interface for a user to set information for generating the video, presents an image area included in the image of the object so that the user can visually recognize the image area. Receiving an input of designation information for generating the video;
(B) a video generation unit generating the video corresponding to the designation information received by the designation unit;
(C) The video presentation unit uses a state in which a target region that is a region of the target object and the video generated by the video generation unit corresponding to the designation information received by the designation unit are superimposed on each other Presenting the video corresponding to the designation information received by the designation unit so that a person can visually recognize,
(D) The user can visually recognize a state in which the target area that is the target object area and the video generated by the video generation unit corresponding to the designation information received by the designation unit are superimposed. In the state, when the presentation of the image area included in the image of the object in the designation unit and the input of the designation information for generating the video are accepted, the received designation information is immediately reflected The generated image as the updated image by the image generation unit;
(E) The video presentation unit is configured so that the user can visually recognize a state in which the target region that is the region of the target object and the updated video generated by the video generation unit are superimposed. Presenting the updated video, and
The updated video generated by the video generation unit corresponding to the target area that is the target object area and the designation information received by the designation unit when the video presentation unit presents the updated video. And the user can see the superimposed state,
The database unit stores information including a set of information that can specify the registration target and motion information that specifies the motion of the image area included in the image of the registration target,
The step (b)
(B-1) The image search unit includes, from the database unit, information that can identify the registration target that matches the target image and the registration target image that matches the target image. Extracting the motion information identifying the motion of the image area to be
(B-2) Based on parameters obtained from the image of the object and information that can identify the registered object extracted in the step (b-1), the video generation unit Generating the video by giving a motion based on the motion information extracted in the step (b-1) to the image region included in the image,
The designation information includes information for specifying a parameter corresponding to movement,
The video generation method includes:
(F) The specification unit, which is a user interface for the user to set the movement to be given to the image of the target area, allows the user to set parameters corresponding to the movement to be given to the image area and the image of the target area. Including the step of presenting the information so as to be visually recognized and receiving an update input of the specified information for specifying a parameter corresponding to the movement,
The step (d) corresponds to a parameter specified by the designation information received in the step (f) with respect to the image area included in the image of the object, triggered by an update input of the designation information. An image generation method including a step of giving a motion and updating the image generated in the step (b) to the updated image.
対象物に見掛けの動きを与えるために重畳される映像を生成する映像生成方法であって、
(a)前記対象物の領域を利用者が設定するためのユーザインタフェースである指定部が、前記対象物の画像を前記利用者が視認可能なように提示するとともに、前記対象物の画像に含まれる画像領域を特定する第1指定情報の入力を受け付けるステップと、
(b)映像生成部が、前記指定部で受け付けた前記第1指定情報で特定される前記画像領域に対応する前記映像を生成するステップと、
(c)映像提示部が、前記第1指定情報で特定される前記画像領域に対応する前記対象物の領域である対象領域と、前記指定部で受け付けた前記第1指定情報で特定される前記画像領域に対応する前記映像生成部が生成した前記映像と、が重畳された様子を前記利用者が視認可能なように、前記指定部で受け付けた前記第1指定情報で特定される前記画像領域に対応する前記映像生成部が生成した前記映像を提示するステップと、を有し、
(d)前記対象物の領域である対象領域と、前記指定部で受け付けた前記第1指定情報で特定される前記画像領域に対応する前記映像生成部が生成した前記映像と、が重畳された様子を前記利用者が視認可能な状態で、前記指定部における前記対象物の画像に含まれる前記画像領域の提示と、前記第1指定情報の入力の受け付けとが可能とされており、
データベース部には、登録対象物を特定可能な情報と、前記登録対象物の画像に含まれる画像領域の動きを特定する動き情報と、の組を含む情報が記憶されており、
前記ステップ(b)は、
(b−1)像検索部が、前記データベース部から、前記対象物の画像にマッチする前記登録対象物を特定可能な情報と、前記対象物の画像にマッチする前記登録対象物の画像に含まれる画像領域の動きを特定する前記動き情報と、を抽出するステップと、
(b−2)前記映像生成部が、前記対象物の画像と前記画像検索部で抽出された前記登録対象物を特定可能な情報とから得られるパラメータに基づいて、前記第1指定情報で特定される前記画像領域に対し、前記ステップ(b−1)で抽出された前記動き情報に基づく動きを与えて前記映像を生成するステップと、を含み
前記映像生成方法は、さらに
(e)前記対象領域の像に与える動きを前記利用者が設定するためのユーザインタフェースである前記指定部が、前記画像領域および前記対象領域の像に与える動きに対応するパラメータを前記利用者が視認可能なように提示するとともに、前記動きに対応するパラメータを特定する第2指定情報の更新入力を受け付けるステップと、
(f)前記映像生成部が、前記第2指定情報の更新入力を契機に、前記ステップ(a)で受け付けた前記第1指定情報で特定される前記画像領域に、前記ステップ(e)で受け付けた前記第2指定情報で特定される前記パラメータに対応する動きを与えて前記映像を更新するステップと、
(g)前記映像提示部が、前記対象物の領域である対象領域と、前記ステップ(a)で受け付けた前記第1指定情報で特定される前記画像領域に、前記ステップ(e)で受け付けた前記第2指定情報で特定されるパラメータに対応する動きを与える前記映像と、が重畳された様子を前記利用者が視認可能なように前記ステップ(a)で受け付けた前記第1指定情報で特定される前記画像領域に、前記ステップ(e)で受け付けた前記第2指定情報で特定されるパラメータに対応する動きを与える、前記ステップ(f)で更新された前記映像を提示するステップと、を有し、
前記対象物の領域である対象領域と、前記ステップ(a)で受け付けた前記第1指定情報で特定される前記画像領域に、前記ステップ(e)で受け付けた前記第2指定情報で特定されるパラメータに対応する動きを与える、前記ステップ(f)で更新された前記映像と、が重畳された様子を前記利用者が視認可能な状態で、前記指定部における前記動きに対応するパラメータの提示と、前記第2指定情報の入力の受け付けとが可能とされている、映像生成方法。
An image generation method for generating an image to be superimposed to give an apparent movement to an object,
(A) A designation unit that is a user interface for a user to set a region of the object presents the image of the object so that the user can visually recognize the image, and is included in the image of the object Receiving input of first designation information for specifying an image area to be displayed;
(B) a step of generating a video corresponding to the image region identified by the first designation information received by the designation unit;
(C) The video presenting unit is specified by a target region that is a region of the target object corresponding to the image region specified by the first specifying information, and the first specifying information received by the specifying unit. The image area specified by the first designation information received by the designation unit so that the user can visually recognize a state in which the video generated by the video generation unit corresponding to the image area is superimposed. Presenting the video generated by the video generation unit corresponding to
(D) The target area which is the area of the target object and the video generated by the video generation unit corresponding to the image area specified by the first specification information received by the specification unit are superimposed. In a state where the user can visually recognize the state, it is possible to present the image area included in the image of the object in the designation unit and to accept input of the first designation information,
The database unit stores information including a set of information that can specify the registration target and motion information that specifies the motion of the image area included in the image of the registration target,
The step (b)
(B-1) images the search unit, from the database unit, said a registration object identifiable information that match the image of the object, the image of the registration object that matches the image of the object Extracting the motion information identifying the motion of the included image region;
(B-2) The video generation unit is specified by the first designation information based on a parameter obtained from an image of the target and information capable of specifying the registration target extracted by the image search unit. Generating the video by giving a motion based on the motion information extracted in the step (b-1) to the image region, wherein the video generation method further includes (e) the target The designating unit, which is a user interface for the user to set a motion to be given to the image of the region, allows the user to visually recognize parameters corresponding to the motion to be given to the image of the image region and the target region. Presenting and receiving an update input of second designation information specifying a parameter corresponding to the movement;
(F) The video generation unit accepts in the step (e) the image area specified by the first designation information accepted in the step (a) when the second designation information is updated. Updating the video by giving a motion corresponding to the parameter specified by the second designation information;
(G) The video presentation unit has received the target area that is the target area and the image area specified by the first designation information received in the step (a) in the step (e). Identified by the first designation information received in the step (a) so that the user can visually recognize the superimposed state of the video that gives a motion corresponding to the parameter specified by the second designation information. Presenting the image updated in step (f) to give a motion corresponding to the parameter specified by the second designation information received in step (e) to the image region to be Have
The target area, which is the area of the object, and the image area specified by the first specification information received in step (a) are specified by the second specification information received in step (e). Presenting the parameter corresponding to the motion in the designating unit in a state where the user can visually see the superimposed state of the video updated in step (f), which gives the motion corresponding to the parameter. A video generation method capable of accepting input of the second designation information.
請求項1から8のいずれかの映像生成装置としてコンピュータを機能させるためのプログラム。   A program for causing a computer to function as the video generation device according to claim 1.
JP2016185085A 2016-09-23 2016-09-23 VIDEO GENERATION DEVICE, VIDEO GENERATION METHOD, AND PROGRAM Active JP6556680B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016185085A JP6556680B2 (en) 2016-09-23 2016-09-23 VIDEO GENERATION DEVICE, VIDEO GENERATION METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016185085A JP6556680B2 (en) 2016-09-23 2016-09-23 VIDEO GENERATION DEVICE, VIDEO GENERATION METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2018050216A JP2018050216A (en) 2018-03-29
JP6556680B2 true JP6556680B2 (en) 2019-08-07

Family

ID=61766586

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016185085A Active JP6556680B2 (en) 2016-09-23 2016-09-23 VIDEO GENERATION DEVICE, VIDEO GENERATION METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP6556680B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7010122B2 (en) * 2018-04-11 2022-01-26 日本電信電話株式会社 Video generator, video generation method, and program
CN111277915B (en) * 2018-12-05 2022-08-12 阿里巴巴集团控股有限公司 Video conversion method and device
JP7070533B2 (en) * 2019-11-26 2022-05-18 セイコーエプソン株式会社 Image data generation method, program and information processing equipment
CN113542703B (en) * 2020-04-22 2023-05-23 中强光电股份有限公司 Image playing system and image playing method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5325473A (en) * 1991-10-11 1994-06-28 The Walt Disney Company Apparatus and method for projection upon a three-dimensional object
US7019748B2 (en) * 2001-08-15 2006-03-28 Mitsubishi Electric Research Laboratories, Inc. Simulating motion of static objects in scenes
JP5682596B2 (en) * 2012-06-25 2015-03-11 辰巳電子工業株式会社 Game shooting device and game shooting method
KR20160102412A (en) * 2013-12-27 2016-08-30 소니 주식회사 Control device, control method, and computer program
EP3136717A4 (en) * 2014-04-22 2017-12-13 Nippon Telegraph and Telephone Corporation Video display device, video projection device, dynamic illusion presentation device, video generation device, method thereof, data construct, and program

Also Published As

Publication number Publication date
JP2018050216A (en) 2018-03-29

Similar Documents

Publication Publication Date Title
US10964108B2 (en) Augmentation of captured 3D scenes with contextual information
JP7007348B2 (en) Image processing equipment
KR102120046B1 (en) How to display objects
JP6556680B2 (en) VIDEO GENERATION DEVICE, VIDEO GENERATION METHOD, AND PROGRAM
CN108286945B (en) Three-dimensional scanning system and method based on visual feedback
US20130335535A1 (en) Digital 3d camera using periodic illumination
JP2018513640A (en) Automatic panning shot generation
US11055900B1 (en) Computer-generated image processing including volumetric scene reconstruction to replace a designated region
JP2001209827A (en) Image processor, image processing service providing method and order receiving processing method
US20210241422A1 (en) Image processing for reducing artifacts caused by removal of scene elements from images
WO2023207452A1 (en) Virtual reality-based video generation method and apparatus, device, and medium
WO2019198570A1 (en) Video generation device, video generation method, program, and data structure
CA3184368A1 (en) Generating an animation rig for use in animating a computer-generated character based on facial scans of an actor and a muscle model
US20170064284A1 (en) Producing three-dimensional representation based on images of a person
US20210217225A1 (en) Arbitrary view generation
JP5361758B2 (en) Image generation method, image generation apparatus, and program
JP2019146155A (en) Image processing device, image processing method, and program
JP6138779B2 (en) Automatic image synthesizer
JP6679966B2 (en) Three-dimensional virtual space presentation system, three-dimensional virtual space presentation method and program
JP2006323450A (en) Simulation image generator, simulation image generation method, computation program, and recording medium recorded with program
US11636578B1 (en) Partial image completion
JP6430420B2 (en) Information presentation system and information presentation method
US11120606B1 (en) Systems and methods for image texture uniformization for multiview object capture
JP2019144958A (en) Image processing device, image processing method, and program
JP2017215706A (en) Video synthesis method, video acquisition device, video synthesis system, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190709

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190710

R150 Certificate of patent or registration of utility model

Ref document number: 6556680

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150