JP7285045B2 - Image synthesizing device, image synthesizing method and program - Google Patents

Image synthesizing device, image synthesizing method and program Download PDF

Info

Publication number
JP7285045B2
JP7285045B2 JP2018212309A JP2018212309A JP7285045B2 JP 7285045 B2 JP7285045 B2 JP 7285045B2 JP 2018212309 A JP2018212309 A JP 2018212309A JP 2018212309 A JP2018212309 A JP 2018212309A JP 7285045 B2 JP7285045 B2 JP 7285045B2
Authority
JP
Japan
Prior art keywords
image
target object
size
video
priority
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018212309A
Other languages
Japanese (ja)
Other versions
JP2019200774A (en
Inventor
誠 佐藤
正斗 神崎
寿晃 鈴木
貴之 篠田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Television Network Corp
Original Assignee
Nippon Television Network Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Television Network Corp filed Critical Nippon Television Network Corp
Publication of JP2019200774A publication Critical patent/JP2019200774A/en
Application granted granted Critical
Publication of JP7285045B2 publication Critical patent/JP7285045B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像合成装置、画像合成方法及びプログラムに関する。 The present invention relates to an image synthesizing device, an image synthesizing method, and a program.

放送番組の映像等では、映像中に出現する人物や建物等のオブジェクトの名前、説明等の関連事項を記述したコンピュータグラフィク画像(以下、CG画像と記載する)を、そのオブジェクト上や近傍の位置に配置した合成映像が用いられている。 In broadcast program images, etc., computer graphics images (hereinafter referred to as CG images) that describe the names, descriptions, and other related matters of objects such as people and buildings that appear in the images are displayed on or near the objects. A composite image placed in

現在、これらの合成技術において、CG画像を配置する配置位置は、オブジェクトを基準にして予め定めており、コンピュータグラフィク画像をその位置に配置して、合成映像を生成している。 At present, in these synthesizing techniques, the layout position for arranging the CG image is determined in advance based on the object, and the computer graphics image is laid out at that position to generate a synthesized video.

しかしながら、オブジェクトの映像上の位置によっては、予め定めた位置にCG画像を配置すると、CG画像が画面内に収まりきれない場合があった。結果として、このような場合はCG画像の合成を諦めていた。 However, depending on the position of the object on the image, the CG image may not fit within the screen if the CG image is placed at a predetermined position. As a result, in such cases, synthesis of CG images has been given up.

また、オブジェクトが多数の場合、それに伴い合成するCG画像も増加する。このような場合、従来のように予め定めた位置にCG画像を配置すると、CG画像同士が重なり合ってしまう場合も多かった。 Also, when there are many objects, the number of CG images to be synthesized increases accordingly. In such a case, if the CG images were arranged at predetermined positions as in the conventional art, the CG images often overlapped with each other.

そこで、本発明の目的は、オブジェクトの映像上の位置によって、CG画像を重畳する位置を適応的に制御する画像合成装置、画像合成方法及びプログラムを提供することにある。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide an image synthesizing device, an image synthesizing method, and a program for adaptively controlling the superimposed position of a CG image according to the position of an object on a video image.

本発明の一態様は、映像中に出現するターゲットオブジェクトに関連するコンピュータグラフィク画像を前記映像に合成する画像合成装置であって、前記映像から、前記ターゲットオブジェクトを画像認識する画像認識部と、前記画像認識部により認識されたターゲットオブジェクトの映像上の位置を検出する位置検出部と、前記位置検出部により検出されたターゲットオブジェクトの映像上の位置を用いて、前記コンピュータグラフィク画像の映像上の配置位置を適応的に決定する画像配置部と、前記コンピュータグラフィク画像が前記画像配置部により決定された配置位置に重畳された映像を生成する画像合成部とを有する画像合成装置である。 One aspect of the present invention is an image synthesizing device that synthesizes a computer graphic image related to a target object appearing in a video with the video, comprising: an image recognition unit that recognizes the target object from the video; A position detection unit for detecting a position on the image of the target object recognized by the image recognition unit; and a placement of the computer graphic image on the image using the position on the image of the target object detected by the position detection unit. The image synthesizing device includes an image layout unit that adaptively determines a position, and an image synthesizing unit that generates an image in which the computer graphic image is superimposed on the layout position determined by the image layout unit.

本発明の一態様は、映像中に出現するターゲットオブジェクトに関連するコンピュータグラフィク画像を前記映像に合成する画像合成方法であって、前記映像から、前記ターゲットオブジェクトを画像認識し、認識されたターゲットオブジェクトの映像上の位置を検出し、検出されたターゲットオブジェクトの映像上の位置を用いて、前記コンピュータグラフィク画像の映像上の配置位置を適応的に決定し、前記コンピュータグラフィク画像が前記画像配置部により決定された配置位置に重畳された映像を生成する画像合成方法である。 One aspect of the present invention is an image synthesis method for synthesizing a computer graphic image related to a target object appearing in a video with the video, wherein the target object is image-recognized from the video, and the recognized target object is recognized. and adaptively determining the placement position of the computer graphic image on the video using the detected position of the target object on the video, wherein the computer graphic image is placed by the image placement unit An image synthesizing method for generating an image superimposed on a determined arrangement position.

本発明の一態様は、映像中に出現するターゲットオブジェクトに関連するコンピュータグラフィク画像を前記映像に合成するコンピュータのプログラムであって、前記映像から、前記ターゲットオブジェクトを画像認識する画像認識処理と、前記画像認識処理により認識されたターゲットオブジェクトの映像上の位置を検出する位置検出処理と、前記位置検出処理により検出されたターゲットオブジェクトの映像上の位置を用いて、前記コンピュータグラフィク画像の映像上の配置位置を適応的に決定する画像配置処理と、前記コンピュータグラフィク画像が前記画像配置部により決定された配置位置に重畳された映像を生成する画像合成処理とをコンピュータに実行させるプログラムである。 One aspect of the present invention is a computer program for synthesizing a computer graphic image related to a target object appearing in a video with the video, comprising: image recognition processing for recognizing the target object from the video; Position detection processing for detecting a position on the video of the target object recognized by the image recognition processing, and placement of the computer graphic image on the video using the position on the video of the target object detected by the position detection processing. A program for causing a computer to execute an image arrangement process for adaptively determining a position and an image composition process for generating an image in which the computer graphic image is superimposed on the arrangement position determined by the image arrangement unit.

本発明は、オブジェクトの映像上の位置によって、CG画像を重畳する位置を適応的に制御しているので、CG画像が適切な位置で重畳された映像を生成することができる。 Since the present invention adaptively controls the superimposed position of the CG image according to the position of the object on the video, it is possible to generate a video in which the CG image is superimposed at an appropriate position.

図1は第1の実施の形態における画像合成装置1のブロック図である。FIG. 1 is a block diagram of an image synthesizing device 1 according to the first embodiment. 図2はターゲットオブジェクト位置・大きさ検出部12によるターゲットオブジェクトの画面上の位置、大きさの認識の一例を示す図である。FIG. 2 is a diagram showing an example of recognition of the position and size of the target object on the screen by the target object position/size detection unit 12. In FIG. 図3はCG画像記憶部13に記憶されているCG画像の一例を示す図である。FIG. 3 is a diagram showing an example of a CG image stored in the CG image storage unit 13. As shown in FIG. 図4はCG画像の大きさを制御する例を説明するための図である。FIG. 4 is a diagram for explaining an example of controlling the size of a CG image. 図5はCG画像配置部15によるCG画像の配置位置の決定の一例を説明するための図である。FIG. 5 is a diagram for explaining an example of how the CG image placement unit 15 determines the placement position of the CG image. 図6はコンピュータシステム2によって構成された画像合成装置1のブロック図である。FIG. 6 is a block diagram of the image synthesizing device 1 configured by the computer system 2. As shown in FIG. 図7は画像合成装置1の動作フローチャートである。FIG. 7 is an operation flowchart of the image synthesizing device 1. FIG. 図8は画像合成装置1の具体的な動作を説明するための図である。FIG. 8 is a diagram for explaining a specific operation of the image synthesizing device 1. FIG. 図9は画像合成装置1の具体的な動作を説明するための図である。FIG. 9 is a diagram for explaining a specific operation of the image synthesizing device 1. FIG. 図10は画像合成装置1の具体的な動作を説明するための図である。FIG. 10 is a diagram for explaining specific operations of the image synthesizing apparatus 1. FIG. 図11は画像合成装置1の具体的な動作を説明するための図である。FIG. 11 is a diagram for explaining specific operations of the image synthesizing apparatus 1. FIG. 図12は第1の実施の形態の変形例を説明するための図である。FIG. 12 is a diagram for explaining a modification of the first embodiment. 図13は第2の実施の形態の画像合成装置1のブロック図である。FIG. 13 is a block diagram of the image synthesizing device 1 of the second embodiment. 図14はターゲットオブジェクトをマラソン等の選手とし、選手を正面から撮影した映像を示した図である。FIG. 14 is a diagram showing an image of a marathon runner or the like taken as a target object from the front. 図15はターゲットオブジェクトをマラソン等の選手とし、選手を正面から撮影した映像を示した図である。FIG. 15 is a diagram showing an image of a marathon runner or the like taken as a target object from the front. 図16は第3の実施の形態の画像合成装置1のブロック図である。FIG. 16 is a block diagram of the image synthesizing device 1 of the third embodiment. 図17は第2の実施の形態の変形例を説明するための図である。FIG. 17 is a diagram for explaining a modification of the second embodiment. 図18は第2の実施の形態の変形例を説明するための図である。FIG. 18 is a diagram for explaining a modification of the second embodiment.

<第1の実施の形態>
図面を参照して、本発明の第1の実施の形態における画像合成装置及びプログラムを説明する。
<First embodiment>
An image synthesizing device and program according to a first embodiment of the present invention will be described with reference to the drawings.

図1は本実施形態における画像合成装置1のブロック図である。画像合成装置1は、画像認識部11と、ターゲットオブジェクト位置・大きさ検出部12と、CG画像記憶部13と、CG画像選択部14と、CG画像配置部15と、画像合成部16とを備える。 FIG. 1 is a block diagram of an image synthesizing device 1 according to this embodiment. The image synthesizer 1 includes an image recognition section 11, a target object position/size detection section 12, a CG image storage section 13, a CG image selection section 14, a CG image arrangement section 15, and an image synthesis section 16. Prepare.

画像認識部11は、CG画像に関連する又は表示する対象となるオブジェクト(以下、ターゲットオブジェクトと記載する)を、入力された映像から画像認識するものである。ターゲットオブジェクトの画像認識は、ターゲットオブジェクトの特徴量(例えば、ターゲットオブジェクトが特定人物の場合、顔の特徴量)等により認識する。このような、ターゲットオブジェクトを認識する画像認識方法としては、パターンマッチングや、ディープラーニング等の手法を用いた機械学習を用いた画像認識技術などがある。尚、ターゲットオブジェクトの画像認識は、予め定められた時間間隔(例えば、1秒又は2秒毎)で行われることが好ましい。 The image recognition unit 11 performs image recognition of an object (hereinafter referred to as a target object) related to a CG image or to be displayed, from an input video. Image recognition of the target object is performed based on the feature amount of the target object (for example, if the target object is a specific person, the feature amount of the face) or the like. As image recognition methods for recognizing such a target object, there are image recognition techniques using pattern matching and machine learning using techniques such as deep learning. Image recognition of the target object is preferably performed at predetermined time intervals (for example, every 1 second or 2 seconds).

画像認識部11が認識するターゲットオブジェクトの指定であるが、ユーザがCG画像を表示させたいターゲットオブジェクトを、画像認識部1に指定することにより行われる。ターゲットオブジェクトの指定は、個々の個体を特定する方法(例えば、特定の人物を指定する方法)と、個々の個体を特定しない方法(例えば、映像上に現れる人物等を指定する方法)とのいずれでも良い。また、指定するターゲットオブジェクトの数は、単数、複数を問わない。そして、画像認識したターゲットオブジェクトの認識結果(例えば、ターゲットオブジェクトの属性情報やターゲットオブジェクトを映像上で特定する情報等)を、ターゲットオブジェクト位置・大きさ検出部12に出力する。更に、複数のターゲットオブジェクトを画像認識する場合において、そのターゲットオブジェクトに優先順位が設けられている場合には、認識したターゲットオブジェクトの情報に優先順位を付してターゲットオブジェクト位置・大きさ検出部12に出力する。以下の説明では、ターゲットオブジェクトを主に特定の人物とする例を説明するが、ターゲットオブジェクトは人物に限らず、置物、建物等のオブジェクトでも良い。 The designation of the target object to be recognized by the image recognition unit 11 is performed by designating the target object for which the user wishes to display the CG image to the image recognition unit 1 . The target object can be specified by either a method of specifying an individual individual (e.g., a method of specifying a specific person) or a method of not specifying an individual individual (e.g., a method of specifying a person appearing in a video). But it's okay. Also, the number of target objects to be specified may be singular or plural. Then, the recognition result of the image-recognized target object (for example, attribute information of the target object, information specifying the target object on the image, etc.) is output to the target object position/size detection unit 12 . Furthermore, in the case of image recognition of a plurality of target objects, if priority is given to the target objects, the target object position/size detector 12 assigns priority to the information of the recognized target objects. output to In the following description, an example in which the target object is mainly a specific person will be described, but the target object is not limited to a person, and may be an object such as a figurine, a building, or the like.

ターゲットオブジェクト位置・大きさ検出部12は、画像認識部11の認識結果を受け、ターゲットオブジェクトの映像画面上の位置、大きさを検出する。ターゲットオブジェクト位置・大きさ検出部12によるターゲットオブジェクトの画面上の位置、大きさの認識であるが、例えば、図2の例がある。図2の例は、人物をターゲットオブジェクトとした場合の例である。ターゲットオブジェクト位置・大きさ検出部12は、画像認識部11が認識した人物に関して、図2に示す如く、認識した人物の頭頂部から首中点を結ぶ直線の距離をLとし、人物の首中心から下方向の位置にL×2Lの大きさの注目領域を設定する。また、認識した人物の首中点を中心点とする。そして、認識した人物の大きさを注目領域の面積とし、中心点を認識した人物の画面上の位置座標とする。尚、本例は一例であり、他の方法でもかまわない。例えば、顔を囲むL×Lの大きさの領域を注目領域としても良い。更に、ターゲットオブジェクトである人物の顔そのものを注目領域としても良い。そして、ターゲットオブジェクト位置・大きさ検出部12は、ターゲットオブジェクトの注目領域、中心点及び属性情報を、CG画像選択部14に出力する。 The target object position/size detection unit 12 receives the recognition result of the image recognition unit 11 and detects the position and size of the target object on the video screen. Recognition of the position and size of the target object on the screen by the target object position/size detection unit 12 is shown in FIG. 2, for example. The example in FIG. 2 is an example in which a person is the target object. With respect to the person recognized by the image recognition unit 11, the target object position/size detection unit 12 sets the distance of the straight line connecting the top of the recognized person's head to the midpoint of the neck as L, as shown in FIG. A region of interest having a size of L×2L is set at a position downward from . Also, the midpoint of the neck of the recognized person is set as the center point. Then, the size of the recognized person is set as the area of the attention area, and the center point is set as the position coordinates of the recognized person on the screen. This example is just an example, and other methods may be used. For example, an area having a size of L×L surrounding the face may be set as the attention area. Furthermore, the face itself of the person who is the target object may be set as the attention area. Then, the target object position/size detection unit 12 outputs the attention area, center point, and attribute information of the target object to the CG image selection unit 14 .

CG画像記憶部13は、図3に示す如く、映像に重畳するターゲットオブジェクトのCG画像が記憶されている。記憶されているCG画像は、ターゲットオブジェクトの属性毎に、CG画像の内容は同じものであるが、ターゲットオブジェクトの注目領域の大きさに応じた複数の異なる大きさのCG画像である。CG画像の大きさは、基本的に、ターゲットオブジェクトの注目領域の大きさが大きい程、CG画像も大きい。尚、CG画像の大きさは、ターゲットオブジェクトの大きさに比例させると、CG画像が不自然に大きくなってしまたり、小さくなってしまう可能性がある。そこで、図4のように、ターゲットオブジェクトの大きさがある所定の大きさ以上、又、以下になると、CG画像の大きさもそれ以上大きくならず、又は、小さくならないように制御しても良い。 As shown in FIG. 3, the CG image storage unit 13 stores the CG image of the target object superimposed on the video. The stored CG images are CG images having the same contents but having different sizes according to the size of the attention area of the target object for each attribute of the target object. As for the size of the CG image, basically, the larger the size of the attention area of the target object, the larger the CG image. If the size of the CG image is made proportional to the size of the target object, the CG image may become unnaturally large or small. Therefore, as shown in FIG. 4, when the size of the target object exceeds or falls below a predetermined size, the size of the CG image may be controlled so as not to increase or decrease any further.

CG画像選択部14は、ターゲットオブジェクト位置・大きさ検出部12からのターゲットオブジェクトの注目領域及びターゲットオブジェクトの属性情報を受信し、ターゲットオブジェクトの属性情報に合致し、ターゲットオブジェクトの注目領域に応じた大きさのCG画像を、CG画像記憶部13から選択する。CG画像選択部14のCG画像の選択であるが、ターゲットオブジェクトに優先順位が設定されている場合には、その優先順位の順番で、CG画像記憶部13から選択する。 The CG image selection unit 14 receives the attention area of the target object and the attribute information of the target object from the target object position/size detection unit 12, matches the attribute information of the target object, and selects an image corresponding to the attention area of the target object. A CG image of the size is selected from the CG image storage unit 13 . Regarding the selection of the CG image by the CG image selection unit 14, if the priority is set for the target object, it is selected from the CG image storage unit 13 in the order of the priority.

尚、本例では、複数のCG画像がCG画像記憶部13に記憶され、CG画像選択部14がターゲットオブジェクトの大きさ及び属性情報に応じたCG画像を、CG画像記憶部13から選択する方法を説明するが、これに限られない。例えば、CG画像選択部14が、ターゲットオブジェクトの属性情報及び検出されたターゲットオブジェクトの大きさに応じたCG画像を自動的に生成するようにしても良い。尚、CG画像を自動的に生成する場合も、上述したように、CG画像の大きさは、ターゲットオブジェクトの大きさに比例させると、CG画像が不自然に大きくなってしまたり、小さくなってしまう可能性がある。そこで、図4のように、ターゲットオブジェクトの大きさがある所定の大きさ以上、又、以下になると、CG画像の大きさもそれ以上大きくならず、又は、小さくならないように制御しても良い。 In this example, a plurality of CG images are stored in the CG image storage unit 13, and the CG image selection unit 14 selects a CG image from the CG image storage unit 13 according to the size and attribute information of the target object. but not limited to this. For example, the CG image selection unit 14 may automatically generate a CG image according to the attribute information of the target object and the size of the detected target object. In the case of automatically generating a CG image, as described above, if the size of the CG image is proportional to the size of the target object, the CG image becomes unnaturally large or small. It may get lost. Therefore, as shown in FIG. 4, when the size of the target object exceeds or falls below a predetermined size, the size of the CG image may be controlled so as not to increase or decrease any further.

CG画像配置部15は、CG画像選択部14により選択されたCG画像を、映像の画面上の適切な位置に配置するものである。CG画像の映像の画面上の配置位置は、予め複数設定されており、その配置位置には優先順位か設けられている。そして、その優先順位に従って、CG画像の配置を試み、配置可能な最も優先順位の高い配置位置にCG画像を配置する。 The CG image placement unit 15 places the CG image selected by the CG image selection unit 14 at an appropriate position on the video screen. A plurality of CG image video image placement positions on the screen are set in advance, and the placement positions are given an order of priority. Then, according to the order of priority, an attempt is made to arrange the CG image, and the CG image is arranged at the possible arrangement position with the highest priority.

CG画像配置部15によるCG画像の配置位置の決定の一例を、図5を用いて説明する。まず、ターゲットオブジェクトの中心点を中心とする円上にCG画像の配置位置を設定する。図5の例では、0度、90度、180度、270度の位置がCG画像の配置位置である。そして、配置位置の優先順位は、高い順位に、180度の配置位置a、0度の配置位置b、270度の配置位置c、90度の配置位置dに設定されている。上述した配置位置の優先順位は一例であり、これに限定するものではない。例えば、配置位置の優先順位は、高い順位に、配置位置b、配置位置a、配置位置c、配置位置dであっても良い。 An example of how the CG image placement unit 15 determines the placement position of the CG image will be described with reference to FIG. First, the layout position of the CG image is set on a circle centered on the center point of the target object. In the example of FIG. 5, positions of 0 degrees, 90 degrees, 180 degrees, and 270 degrees are the layout positions of the CG image. The priority of the arrangement position is set to the arrangement position a of 180 degrees, the arrangement position b of 0 degrees, the arrangement position c of 270 degrees, and the arrangement position d of 90 degrees in the highest order. The priority order of the arrangement positions described above is an example, and the present invention is not limited to this. For example, the priority of the placement positions may be placement position b, placement position a, placement position c, and placement position d in the highest order.

CG画像配置部15は、まず、最も優先順位が高い配置位置aに、CG画像の配置を試みる。この時、配置位置aに配置したCG画像の全てが画面内に表示できる場合、かつ、後述するように、優先順位の高いターゲットオブジェクトの注目領域に重複していない場合等は、CG画像の配置位置を配置位置aに決定する。一方、配置位置aに配置したCG画像が画面上からはみ出してCG画像の全てを表示できない場合、又は、優先順位の高いターゲットオブジェクトの注目領域に重複してしまう場合等は、配置位置aにはCG画像を配置できないと判定する。そして、次に優先順位の高い配置位置bに、CG画像の配置を試みる。このような判定を、配置位置が決定するまで行う。尚、全ての配置位置の検証を行っても配置位置の決定ができない場合は、CG画像の配置の決定行わず、CG画像を映像に重畳しないことを決定する。 The CG image placement unit 15 first tries to place the CG image at the placement position a, which has the highest priority. At this time, if all the CG images arranged at the arrangement position a can be displayed within the screen and, as will be described later, do not overlap the attention area of the target object with the higher priority, the CG image arrangement The position is determined as placement position a. On the other hand, if the CG image placed at the placement position a protrudes from the screen and cannot be displayed entirely, or if it overlaps with the attention area of the target object with the higher priority, the placement position a It is determined that the CG image cannot be arranged. Then, an attempt is made to arrange the CG image at the arrangement position b, which has the next highest priority. Such determination is performed until the arrangement position is determined. If the placement position cannot be determined even after all the placement positions have been verified, it is decided not to determine the placement of the CG image and not to superimpose the CG image on the video.

上述したCG画像配置部15の配置位置の決定は、一例であり、これに限定するものではなく、他の方法でも良い。 The determination of the placement position of the CG image placement unit 15 described above is an example, and the method is not limited to this, and other methods may be used.

画像合成部16は、CG画像配置部15により決定された映像上の配置位置に、CG画像選択部14により選択されたCG画像を重畳し、CG画像が合成された映像を生成する。 The image synthesizing unit 16 superimposes the CG image selected by the CG image selecting unit 14 on the arrangement position on the image determined by the CG image arranging unit 15 to generate an image synthesized with the CG image.

上述した画像合成装置1は、具体的には、各種の演算処理等を行うプロセッサを有するコンピュータシステム2(情報処理装置)によって実現することができる。図6はコンピュータシステム2によって構成された画像合成装置1のブロック図である。 Specifically, the image synthesizing device 1 described above can be realized by a computer system 2 (information processing device) having a processor that performs various kinds of arithmetic processing. FIG. 6 is a block diagram of the image synthesizing device 1 configured by the computer system 2. As shown in FIG.

画像合成装置1は、プロセッサ21、メモリ(ROMやRAM)22、記憶装置(ハードディスク、半導体ディスクなど)23、入力装置(キーボード、マウス、タッチパネルなど)24、表示装置25、通信装置26などのハードウェア資源を有する汎用のコンピュータ2により構成することができる。 The image synthesizing apparatus 1 includes hardware such as a processor 21, a memory (ROM or RAM) 22, a storage device (hard disk, semiconductor disk, etc.) 23, an input device (keyboard, mouse, touch panel, etc.) 24, a display device 25, a communication device 26, and the like. It can be configured by a general-purpose computer 2 having hardware resources.

コンピュータ2は、記憶装置23に格納されたプログラムがメモリ22にロードされ、プロセッサ21により実行されることにより、画像認識処理と、ターゲットオブジェクト位置・大きさ検出処理と、CG画像選択処理と、CG画像配置処理と、画像合成処理とが実現されるものである。尚、画像認識処理は画像認識部11に対応し、ターゲットオブジェクト位置・大きさ検出処理はターゲットオブジェクト位置・大きさ検出部12に対応し、CG画像選択処理はCG画像選択部14に対応し、CG画像配置処理はCG画像配置部15に対応し、画像合成処理は画像合成部16に対応する。 Programs stored in the storage device 23 are loaded into the memory 22 and executed by the processor 21 so that the computer 2 performs image recognition processing, target object position/size detection processing, CG image selection processing, CG Image arrangement processing and image composition processing are realized. Image recognition processing corresponds to the image recognition unit 11, target object position/size detection processing corresponds to the target object position/size detection unit 12, CG image selection processing corresponds to the CG image selection unit 14, The CG image arrangement processing corresponds to the CG image arrangement section 15, and the image composition processing corresponds to the image composition section 16. FIG.

次に、上述した画像合成装置1の動作を説明する。 Next, the operation of the image synthesizing device 1 described above will be described.

図7は画像合成装置1の動作フローチャートである。尚、以下の説明では、CG画像の配置位置とその優先順位とは、図5のものとして説明する。 FIG. 7 is an operation flowchart of the image synthesizing device 1. FIG. In the following explanation, it is assumed that the arrangement positions of CG images and their priorities are those shown in FIG.

最初に、ターゲットオブジェクトが単数の特定人物Xであり、特定人物Xが映像上移動する場合を、図7の動作フローチャート、図8及び図9の具体例を用いて説明する。 First, a case where the target object is a single specific person X and the specific person X moves on the image will be described with reference to the operation flowchart of FIG. 7 and specific examples of FIGS.

まず、ターゲットオブジェクトの数を設定する(Step100)。本例では、ターゲットオブジェクトは特定人物Xのみであり、単数なので、P=1である。 First, the number of target objects is set (Step 100). In this example, the target object is only the specific person X, and since it is singular, P=1.

画像認識部11は、CG画像を表示する対象となる特定人物Xを、映像から画像認識する(Step101)。そして、画像認識したターゲットオブジェクトの認識結果(例えば、ターゲットオブジェクトの属性情報やターゲットオブジェクトを映像上で特定する情報等)をターゲットオブジェクト位置・大きさ検出部12に出力する。尚、ターゲットオブジェクトに優先順位が設けられている場合には、認識したターゲットオブジェクトの情報に優先順位を付してターゲットオブジェクト位置・大きさ検出部12に出力する。 The image recognition unit 11 recognizes the image of the specific person X whose CG image is to be displayed (Step 101). Then, the recognition result of the image-recognized target object (for example, attribute information of the target object, information specifying the target object on the image, etc.) is output to the target object position/size detection unit 12 . When the target objects are given priority, the information of the recognized target object is given priority and output to the target object position/size detection unit 12 .

ターゲットオブジェクト位置・大きさ検出部12は、画像認識部11が認識した特定人物Xの画面上の位置、大きさを検出する。すなわち、特定人物Xの注目領域、中心点の算出である(Step102)。 The target object position/size detection unit 12 detects the position and size of the specific person X recognized by the image recognition unit 11 on the screen. That is, the attention area and center point of the specific person X are calculated (Step 102).

CG画像選択部14は、ターゲットオブジェクトの優先順位Mを1に設定する(Step103)。CG画像選択部14は、優先順位M=1の特定人物Xの注目領域及び属性情報を取得する(Step104)。CG画像選択部14は、特定人物Xの注目領域の大きさ及び属性情報に対応したCG画像を選択する(Step105)。 The CG image selection unit 14 sets the priority M of the target object to 1 (Step 103). The CG image selection unit 14 acquires the attention area and attribute information of the specific person X with the priority M=1 (Step 104). The CG image selection unit 14 selects a CG image corresponding to the size of the attention area of the specific person X and the attribute information (Step 105).

CG画像配置部15は、ターゲットオブジェクト位置・大きさ検出部12から特定人物Xの中心点と、CG画像選択部14から選択されたCG画像とを、取得する(Step106)。そして、CG画像の配置位置の優先順位数をQとし(Step107)、優先順位をNとしN=1とする(Step108)。 The CG image placement unit 15 acquires the center point of the specific person X from the target object position/size detection unit 12 and the CG image selected from the CG image selection unit 14 (Step 106). Then, the number of priorities of the layout positions of the CG images is set to Q (Step 107), the priority is set to N, and N=1 (Step 108).

CG画像配置部15は、CG画像を優先順位が1の配置位置に配置することを試みる(Step109)。図8は映像上の時刻tの特定人物Xの映像上の位置を示したものであり、特定人物Xの中心点を中心とする円上の4つのCG画像の配置位置aから配置位置dを示したものである。尚、配置位置の優先順位は高い順位に、180度の配置位置a、0度の配置位置b、270度の配置位置c、90度の配置位置dに設定されている。従って、CG画像配置部15は、CG画像を優先順位が1の配置位置aに配置することを試みる。 The CG image placement unit 15 attempts to place the CG image at the placement position with priority 1 (Step 109). FIG. 8 shows the position of the specific person X on the video at the time t on the video. is shown. In addition, the priority order of the arrangement position is set to the arrangement position a of 180 degrees, the arrangement position b of 0 degrees, the arrangement position c of 270 degrees, and the arrangement position d of 90 degrees. Therefore, the CG image placement unit 15 attempts to place the CG image at the placement position a with the priority of 1. FIG.

CG画像配置部15は、優先順位が1の配置位置にCG画像が配置可能かを判定する(Step110)。図8の例では、配置位置aにCG画像を配置した場合、CG画像の全てを表示でき、かつ、他のターゲットオブジェクトの注目領域に重複していないので、CG画像を配置位置aに配置可能と判定する。 The CG image placement unit 15 determines whether a CG image can be placed at the placement position with the priority of 1 (Step 110). In the example of FIG. 8, when the CG image is placed at the placement position a, the entire CG image can be displayed and does not overlap the attention area of another target object, so the CG image can be placed at the placement position a. I judge.

CG画像配置部15が配置可能と判定した場合、画像合成部16はその配置位置にCG画像が重畳された映像を生成する(Step111)。図8の下図の例では、配置位置aにCG画像が重畳された映像を示している。 When the CG image placement unit 15 determines that the placement is possible, the image synthesizing unit 16 generates an image in which the CG image is superimposed on the placement position (Step 111). The example in the lower diagram of FIG. 8 shows an image in which a CG image is superimposed at the arrangement position a.

CG画像選択部14は、処理対象となるターゲットオブジェクトが残っているかを判定する(Step112)。すなわち、M=Pとなるかの判定である。本例では、ターゲットオブジェクトが単数の特定人物Xであるので、M=P=1である。よって、処理は終了する。 The CG image selection unit 14 determines whether or not the target object to be processed remains (Step 112). That is, it is determined whether M=P. In this example, the target object is a single specific person X, so M=P=1. Therefore, the process ends.

次に、時刻t+1となり、特定人物Xが移動した場合を、図7の動作フローチャート、図9の具体例を用いて説明する。 Next, the case where the specific person X moves at time t+1 will be described with reference to the operation flowchart of FIG. 7 and the specific example of FIG.

まず、ターゲットオブジェクトの数を設定する(Step100)。本例では、特定人物Xの単数なので、P=1である。 First, the number of target objects is set (Step 100). In this example, since the specific person X is singular, P=1.

画像認識部11は、CG画像を表示する対象となる特定人物Xを、映像から画像認識する(Step101)。そして、画像認識したターゲットオブジェクトの認識結果(例えば、ターゲットオブジェクトの属性情報やターゲットオブジェクトを映像上で特定する情報等)をターゲットオブジェクト位置・大きさ検出部12に出力する。尚、ターゲットオブジェクトに優先順位が設けられている場合には、認識したターゲットオブジェクトの情報に優先順位を付してターゲットオブジェクト位置・大きさ検出部12に出力する。 The image recognition unit 11 recognizes the image of the specific person X whose CG image is to be displayed (Step 101). Then, the recognition result of the image-recognized target object (for example, attribute information of the target object, information specifying the target object on the image, etc.) is output to the target object position/size detection unit 12 . When the target objects are given priority, the information of the recognized target object is given priority and output to the target object position/size detection unit 12 .

ターゲットオブジェクト位置・大きさ検出部12は、画像認識部11が認識した特定人物Xの画面上の位置、大きさを検出する。すなわち、特定人物Xの注目領域、中心点の算出する(Step102)。 The target object position/size detection unit 12 detects the position and size of the specific person X recognized by the image recognition unit 11 on the screen. That is, the attention area and center point of the specific person X are calculated (Step 102).

CG画像選択部14は、ターゲットオブジェクトの優先順位Mを1に設定する(Step103)。CG画像選択部14は、優先順位M=1の特定人物Xの注目領域及び属性情報を取得する(Step104)。CG画像選択部14は、特定人物Xの注目領域の大きさ及び属性情報に対応したCG画像を選択する(Step105)。ここで、留意すべきは、選択されるCG画像の大きさである。時刻tの特定人物Xの注目領域の大きさと、時刻t+1の特定人物Xの注目領域の大きさとでは、時刻t+1の特定人物Xの注目領域の方が大きい。従って、時刻t+1の特定人物Xに対して選択されるCG画像は、時刻tの特定人物Xに対して選択されるCG画像よりも大きいことに留意すべきである。 The CG image selection unit 14 sets the priority M of the target object to 1 (Step 103). The CG image selection unit 14 acquires the attention area and attribute information of the specific person X with the priority M=1 (Step 104). The CG image selection unit 14 selects a CG image corresponding to the size of the attention area of the specific person X and the attribute information (Step 105). What should be noted here is the size of the selected CG image. The size of the attention area of the specific person X at time t is larger than the size of the attention area of the specific person X at time t+1. Therefore, it should be noted that the CG image selected for the specific person X at time t+1 is larger than the CG image selected for the specific person X at time t.

CG画像配置部15は、ターゲットオブジェクト位置・大きさ検出部12から特定人物Xの注目領域及び中心点と、CG画像選択部14から選択されたCG画像とを、取得する(Step106)。そして、CG画像の配置位置の優先順位数をQとし(Step107)、優先順位をNとしN=1とする(Step108)。尚、本例では、CG画像の配置位置の優先順位が1から4であるので、優先順位数は4であり、Q=4である。 The CG image placement unit 15 acquires the attention area and center point of the specific person X from the target object position/size detection unit 12 and the CG image selected from the CG image selection unit 14 (Step 106). Then, the number of priorities of the layout positions of the CG images is set to Q (Step 107), the priority is set to N, and N=1 (Step 108). In this example, since the priority of the layout position of the CG image is 1 to 4, the number of priority is 4 and Q=4.

CG画像配置部15は、CG画像を優先順位が1の配置位置に配置することを試みる(Step109)。図9は映像上の時刻t+1の特定人物Xの映像上の位置を示したものであり、特定人物Xの中心点を中心とする円上の4つのCG画像の配置位置aから配置位置dを示したものである。尚、配置位置の優先順位は高い順位に、180度の配置位置a、0度の配置位置b、270度の配置位置c、90度の配置位置dに設定されている。従って、CG画像配置部15は、CG画像を優先順位が1の配置位置aに配置することを試みる。 The CG image placement unit 15 attempts to place the CG image at the placement position with priority 1 (Step 109). FIG. 9 shows the position of the specific person X on the video at time t+1 on the video. is shown. In addition, the priority order of the arrangement position is set to the arrangement position a of 180 degrees, the arrangement position b of 0 degrees, the arrangement position c of 270 degrees, and the arrangement position d of 90 degrees. Therefore, the CG image placement unit 15 attempts to place the CG image at the placement position a with the priority of 1. FIG.

CG画像配置部15は、優先順位が1の配置位置aにCG画像が配置可能かを判定する(Step110)。図9の例では、配置位置aにCG画像を配置した場合、CG画像を画面内に全て表示することができないので、CG画像を配置位置aに配置不可能と判定する。 The CG image placement unit 15 determines whether a CG image can be placed at the placement position a with the priority of 1 (Step 110). In the example of FIG. 9, when the CG image is arranged at the arrangement position a, the CG image cannot be entirely displayed within the screen, so it is determined that the CG image cannot be arranged at the arrangement position a.

配置不可能と判定した場合、CG画像配置部15は配置可能な配置位置があるかを判定する(Step113)。すなわち、N=Qであるかである。図9の例では、配置可能な配置位置b、配置位置c、配置位置dが残っている。そこで、CG画像配置部15は、Nに1を加算し(Step114)、CG画像を優先順位が2の配置位置に配置することを試みる(Step109)。図9の例では、配置位置bにCG画像を配置した場合、CG画像の全てを表示でき、かつ、他のターゲットオブジェクトの注目領域に重複していないので、CG画像を配置位置bに配置可能と判定する。一方、N=Qの場合、Step112に進む。 If it is determined that the layout is not possible, the CG image layout section 15 determines whether there is a layout position where layout is possible (Step 113). That is, whether N=Q. In the example of FIG. 9, there are remaining positions b, c, and d that can be arranged. Therefore, the CG image placement unit 15 adds 1 to N (Step 114), and attempts to place the CG image at the placement position with priority 2 (Step 109). In the example of FIG. 9, when the CG image is placed at the placement position b, the CG image can be placed at the placement position b because the entire CG image can be displayed and does not overlap the attention area of another target object. I judge. On the other hand, if N=Q, go to step 112 .

CG画像配置部15が配置可能と判定した場合、画像合成部16はその配置位置にCG画像が重畳された映像を生成する(Step111)。図9の下図の例では、配置位置bにCG画像が重畳された映像を示している。 When the CG image placement unit 15 determines that the placement is possible, the image synthesizing unit 16 generates an image in which the CG image is superimposed on the placement position (Step 111). The example in the lower diagram of FIG. 9 shows an image in which a CG image is superimposed at the arrangement position b.

CG画像選択部14は、処理対象となるターゲットオブジェクトが残っているかを判定する(Step112)。すなわち、M=Pとなるかの判定である。本例では、ターゲットオブジェクトが単数の特定人物Xであるので、M=P=1である。よって、処理は終了する。 The CG image selection unit 14 determines whether or not the target object to be processed remains (Step 112). That is, it is determined whether M=P. In this example, the target object is a single specific person X, so M=P=1. Therefore, the process ends.

次に、ターゲットオブジェクトが複数の特定人物X、特定人物Yである場合を、図7の動作フローチャート、図10及び図11の具体例を用いて説明する。 Next, a case where the target objects are a plurality of specific persons X and Y will be described using the operation flowchart of FIG. 7 and specific examples of FIGS. 10 and 11. FIG.

まず、ターゲットオブジェクトの数を設定する(Step100)。本例では、複数の特定人物X、特定人物Yなので、P=2である。また、特定人物Xの優先順位を1、特定人物Yの優先順位を2とする。 First, the number of target objects is set (Step 100). In this example, since there are a plurality of specific persons X and Y, P=2. Also, the priority of the specific person X is set to 1, and the priority of the specific person Y is set to 2.

画像認識部11は、CG画像を表示する対象となる特定人物X、特定人物Yを、映像から画像認識する(Step101)。そして、画像認識したターゲットオブジェクトの認識結果(例えば、ターゲットオブジェクトの属性情報やターゲットオブジェクトを映像上で特定する情報等)をターゲットオブジェクト位置・大きさ検出部12に出力する。尚、認識した特定人物Xの情報に優先順位1を付し、認識した特定人物Yの情報に優先順位2を付してターゲットオブジェクト位置・大きさ検出部12に出力する。 The image recognition unit 11 recognizes the specific person X and the specific person Y, whose CG images are to be displayed, from the video (Step 101). Then, the recognition result of the image-recognized target object (for example, attribute information of the target object, information specifying the target object on the image, etc.) is output to the target object position/size detection unit 12 . The information on the recognized specific person X is given priority 1, and the information on the recognized specific person Y is given priority 2 and output to the target object position/size detection unit 12 .

ターゲットオブジェクト位置・大きさ検出部12は、画像認識部11が認識した特定人物X及び特定人物Yの画面上の位置、大きさを検出する。すなわち、特定人物X及び特定人物Yの注目領域、中心点の算出する(Step102)。 The target object position/size detection unit 12 detects the positions and sizes of the specific person X and the specific person Y recognized by the image recognition unit 11 on the screen. That is, the attention areas and center points of the specific person X and the specific person Y are calculated (Step 102).

CG画像選択部14は、ターゲットオブジェクトの優先順位Mを1に設定する(Step103)。尚、図10の例では、特定人物Xの優先順位を1、特定人物Yの優先順位を2とする。 The CG image selection unit 14 sets the priority M of the target object to 1 (Step 103). In the example of FIG. 10, the priority of the specific person X is 1, and the priority of the specific person Y is 2.

CG画像選択部14は、優先順位M=1の特定人物Xの注目領域及び属性情報を取得する(Step104)。CG画像選択部14は、特定人物Xの注目領域の大きさ及び属性情報に対応したCG画像を選択する(Step105)。 The CG image selection unit 14 acquires the attention area and attribute information of the specific person X with the priority M=1 (Step 104). The CG image selection unit 14 selects a CG image corresponding to the size of the attention area of the specific person X and the attribute information (Step 105).

CG画像配置部15は、ターゲットオブジェクト位置・大きさ検出部12から特定人物Xの注目領域及び中心点と、CG画像選択部14から選択されたCG画像とを、取得する(Step106)。そして、CG画像の配置位置の優先順位数をQとし(Step107)、優先順位をNとし、N=1とする(Step108)。尚、本例では、CG画像の配置位置の優先順位が1から4であるので、優先順位数は4であり、Q=4である。 The CG image placement unit 15 acquires the attention area and center point of the specific person X from the target object position/size detection unit 12 and the CG image selected from the CG image selection unit 14 (Step 106). Then, the number of priority levels of the layout position of the CG image is set to Q (Step 107), the priority level is set to N, and N=1 (Step 108). In this example, since the priority of the layout position of the CG image is 1 to 4, the number of priority is 4 and Q=4.

CG画像配置部15は、CG画像を優先順位が1の配置位置に配置することを試みる(Step109)。図10は映像上の時刻tの特定人物Xの映像上の位置を示したものであり、特定人物Xの中心点を中心とする円上の4つのCG画像の配置位置aから配置位置dを示したものである。尚、配置位置の優先順位は高い順位に、180度の配置位置a、0度の配置位置b、270度の配置位置c、90度の配置位置dに設定されている。従って、CG画像配置部15は、CG画像を優先順位が1の配置位置aに配置することを試みる。 The CG image placement unit 15 attempts to place the CG image at the placement position with priority 1 (Step 109). FIG. 10 shows the position on the video of the specific person X at the time t on the video. is shown. In addition, the priority order of the arrangement position is set to the arrangement position a of 180 degrees, the arrangement position b of 0 degrees, the arrangement position c of 270 degrees, and the arrangement position d of 90 degrees. Therefore, the CG image placement unit 15 attempts to place the CG image at the placement position a with the priority of 1. FIG.

CG画像配置部15は、優先順位が1の配置位置にCG画像が配置可能かを判定する(Step110)。図10の例では、配置位置aにCG画像を配置した場合、CG画像の全てを表示でき、かつ、優先順位の高い他のターゲットオブジェクトの注目領域に重複していないので、CG画像を配置位置aに配置可能と判定する。 The CG image placement unit 15 determines whether a CG image can be placed at the placement position with the priority of 1 (Step 110). In the example of FIG. 10, when the CG image is placed at the placement position a, the entire CG image can be displayed and does not overlap the attention area of another target object with a higher priority. It is determined that it can be placed in a.

CG画像配置部15が配置可能と判定した場合、画像合成部16はその配置位置にCG画像が重畳された映像を生成する(Step111)。図10の下図の例では、配置位置aに特定人物XのCG画像が重畳された映像を示している。 When the CG image placement unit 15 determines that the placement is possible, the image synthesizing unit 16 generates an image in which the CG image is superimposed on the placement position (Step 111). The example in the lower diagram of FIG. 10 shows an image in which a CG image of a specific person X is superimposed at the arrangement position a.

CG画像選択部14は、処理対象となるターゲットオブジェクトが残っているかを判定する(Step112)。すなわち、M=Pとなるかの判定である。本例では、M=1、P=2なので、M=Pではない。よって、Mに1を加算し(Step115)、Step104に戻る。 The CG image selection unit 14 determines whether or not the target object to be processed remains (Step 112). That is, it is determined whether M=P. In this example, M=1 and P=2, so M=P is not true. Therefore, 1 is added to M (Step 115), and the process returns to Step 104.

CG画像選択部14は、優先順位M=2の特定人物Yの注目領域及び属性情報を取得する(Step104)。CG画像選択部14は、特定人物Yの注目領域の大きさ及び属性情報に対応したCG画像を選択する(Step105)。ここで、留意すべきは、選択されるCG画像の大きさである。図11に示されるように、時刻tの特定人物Xの注目領域の大きさと、時刻tの特定人物Yの注目領域の大きさとでは、特定人物Yの注目領域の方が小さい。従って、特定人物Yに対して選択されるCG画像は、特定人物Xに対して選択されるCG画像よりも小さいことに留意すべきである。 The CG image selection unit 14 acquires the attention area and attribute information of the specific person Y with the priority M=2 (Step 104). The CG image selection unit 14 selects a CG image corresponding to the size and attribute information of the attention area of the specific person Y (Step 105). What should be noted here is the size of the selected CG image. As shown in FIG. 11, the size of the attention area of the specific person X at time t is smaller than the size of the attention area of the specific person Y at time t. Therefore, it should be noted that the CG image selected for the specific person Y is smaller than the CG image selected for the specific person X.

CG画像配置部15は、ターゲットオブジェクト位置・大きさ検出部12から特定人物Yの注目領域及び中心点と、CG画像選択部14から選択されたCG画像とを、取得する(Step106)。そして、CG画像の配置位置の優先順位数をQとし(Step107)、N=1とする(Step108)。 The CG image placement unit 15 acquires the attention area and center point of the specific person Y from the target object position/size detection unit 12 and the CG image selected from the CG image selection unit 14 (Step 106). Then, the number of priorities of the layout positions of the CG images is set to Q (Step 107), and N=1 (Step 108).

CG画像配置部15は、CG画像を優先順位が1の配置位置に配置することを試みる(Step109)。図11は映像上の特定人物Yの映像上の位置を示したものであり、特定人物Yの中心点を中心とする円上の4つのCG画像の配置位置aから配置位置dを示したものである。尚、配置位置の優先順位は高い順位に、180度の配置位置a、0度の配置位置b、270度の配置位置c、90度の配置位置dに設定されている。従って、CG画像配置部15は、CG画像を優先順位が1の配置位置aに配置することを試みる。 The CG image placement unit 15 attempts to place the CG image at the placement position with priority 1 (Step 109). FIG. 11 shows the position of the specific person Y on the video, and shows the arrangement positions a to d of four CG images on a circle with the center point of the specific person Y as the center. is. In addition, the priority order of the arrangement position is set to the arrangement position a of 180 degrees, the arrangement position b of 0 degrees, the arrangement position c of 270 degrees, and the arrangement position d of 90 degrees. Therefore, the CG image placement unit 15 attempts to place the CG image at the placement position a with the priority of 1. FIG.

CG画像配置部15は、優先順位が1の配置位置aにCG画像が配置可能かを判定する(Step110)。図11の例では、配置位置aにCG画像を配置した場合、CG画像が優先順位の高い特定人物Xの注目領域に重複してしまうので、CG画像を配置位置aに配置不可能と判定する。 The CG image placement unit 15 determines whether a CG image can be placed at the placement position a with the priority of 1 (Step 110). In the example of FIG. 11, when the CG image is placed at the placement position a, the CG image overlaps the attention area of the specific person X with the higher priority, so it is determined that the CG image cannot be placed at the placement position a. .

配置不可能と判定した場合、CG画像配置部15は配置可能な配置位置があるかを判定する(Step113)。すなわち、N=Qであるかである。図11の例では、配置可能な配置位置b、配置位置c、配置位置dが残っている。そこで、CG画像配置部15は、Nに1を加算し(Step114)、CG画像を優先順位が2の配置位置に配置することを試みる(Step109)。図11の例では、配置位置bにCG画像を配置した場合、CG画像を画面内に表示することができないので、CG画像を配置位置bに配置不可能と判定する。 If it is determined that the layout is not possible, the CG image layout section 15 determines whether there is a layout position where layout is possible (Step 113). That is, whether N=Q. In the example of FIG. 11, there are remaining positions b, c, and d that can be arranged. Therefore, the CG image placement unit 15 adds 1 to N (Step 114), and attempts to place the CG image at the placement position with priority 2 (Step 109). In the example of FIG. 11, when the CG image is arranged at the arrangement position b, the CG image cannot be displayed on the screen, so it is determined that the CG image cannot be arranged at the arrangement position b.

配置不可能と判定した場合、CG画像配置部15は配置可能な配置位置があるかを判定する(Step113)。すなわち、N=Qであるかである。図11の例では、配置可能な配置位置c、配置位置dが残っている。そこで、CG画像配置部15は、Nに1を加算し(Step114)、CG画像を優先順位が3の配置位置に配置することを試みる(Step109)。図11の例では、配置位置cにCG画像を配置した場合、CG画像の全てを表示でき、又は、特定人物Xのターゲットオブジェクトの注目領域に重複していないので、CG画像を配置位置cに配置可能と判定する。一方、N=Qの場合、Step112に進む。 If it is determined that the layout is not possible, the CG image layout section 15 determines whether there is a layout position where layout is possible (Step 113). That is, whether N=Q. In the example of FIG. 11, there are still positions c and d that can be arranged. Therefore, the CG image placement unit 15 adds 1 to N (Step 114) and attempts to place the CG image at the placement position with the priority of 3 (Step 109). In the example of FIG. 11, when the CG image is placed at the placement position c, the entire CG image can be displayed, or since it does not overlap the attention area of the target object of the specific person X, the CG image is placed at the placement position c. It is determined that placement is possible. On the other hand, if N=Q, go to step 112 .

CG画像配置部15が配置可能と判定した場合、画像合成部16はその配置位置にCG画像が重畳された映像を生成する(Step111)。図11の下図の例では、配置位置cに特定人物YのCG画像が重畳された映像を示している。 When the CG image placement unit 15 determines that the placement is possible, the image synthesizing unit 16 generates an image in which the CG image is superimposed on the placement position (Step 111). The example in the lower diagram of FIG. 11 shows an image in which a CG image of a specific person Y is superimposed at the arrangement position c.

CG画像選択部14は、処理対象となるターゲットオブジェクトが残っているかを判定する(Step112)。すなわち、M=Pとなるかの判定である。本例では、ターゲットオブジェクトが特定人物Xと特定人物Yの二人なので、M=P=2である。よって、処理は終了する。 The CG image selection unit 14 determines whether or not the target object to be processed remains (Step 112). That is, it is determined whether M=P. In this example, since the target objects are two specific persons X and Y, M=P=2. Therefore, the process ends.

第1の実施の形態は、ターゲットオブジェクトの映像上の位置及び大きさによって、CG画像を重畳する位置とCG画像の大きさを適応的に制御しているので、CG画像が適切な位置、大きさで重畳された映像を生成することができる。 In the first embodiment, the position and size of the CG image to be superimposed are adaptively controlled according to the position and size of the target object on the video. It is possible to generate an image that is superimposed with

尚、CG画像の表示は、ターゲットオブジェクトが映像上に表示(登場)している間、表示し続けても良いが、CG画像の表示の開始から所定時間経過後に表示しないようにしても良い。また、CG画像を表示したターゲットオブジェクトが映像から一旦消え、再度、表示(登場)されたような場合は、CG画像を表示しないように制御しても良い。 The display of the CG image may be continued while the target object is being displayed (appeared) on the video, or it may not be displayed after a predetermined period of time has passed since the start of the display of the CG image. If the target object displaying the CG image once disappears from the video and is displayed (appears) again, control may be performed so that the CG image is not displayed.

<第1の実施の形態の変形例>
第1の実施の形態では、予め記憶されているCG画像をCG画像選択部14が選択し、選択されたCG画像を映像に合成する例を説明した。
<Modification of First Embodiment>
In the first embodiment, an example has been described in which the CG image selection unit 14 selects a CG image stored in advance and synthesizes the selected CG image with a video.

しかし、多くのCG画像を配置する場合や、CG画像の配置位置によっては、いずれのターゲットオブジェクトのCG画像であるのかが解りにくくなる場合もあると思われる。 However, when many CG images are arranged, or depending on the arrangement positions of the CG images, it may be difficult to understand which target object the CG image belongs to.

そこで、第1の実施の形態の変形例では、映像に重畳するCG画像を配置する位置によって変形させる例を説明する。 Therefore, in the modified example of the first embodiment, an example in which a CG image to be superimposed on a video image is modified according to the arrangement position will be described.

変形させる代表的な方法として、重畳するCG画像がいずれのターゲットオブジェクトのCG画像であるかを示すような吹き出し、矢印を設ける方法がある。図12は、吹き出しによってCG画像を変形させた場合の例である。図12の例では、各CG画像aからCG画像dが吹き出しの画像であり、吹き出し元をターゲットオブジェクトの中心点に設定した場合の例を示している。 As a representative method of deformation, there is a method of providing balloons and arrows indicating which target object the CG image to be superimposed is the CG image. FIG. 12 shows an example in which a CG image is deformed by balloons. In the example of FIG. 12, each of the CG images a to d is an image of a balloon, and shows an example in which the origin of the balloon is set to the center point of the target object.

これらの変形は、CG画像配置部15がCG画像の配置位置を決定した後に、決定した配置位置からターゲットオブジェクトの中心点に向けて、選択したCG画像の吹き出しを変形させることにより、可能となる。 These transformations are made possible by, after the CG image placement unit 15 has determined the placement position of the CG image, transforming the balloon of the selected CG image from the determined placement position toward the center point of the target object. .

<第2の実施の形態>
駅伝やマラソン等の競技では、多くの人物が映像に映っており、また、その順位の変動も大きい。このようなケースにおいて、競技に出場している全ての選手をターゲットオブジェクトとし、全ての選手にCG画像を配置すると、CG画像によって本来の映像が見にくくなってしまう。そこで、先頭から何位までというようにターゲットオブジェクトに優先順位をつけて、配置するCG画像の数を制限することが考えられる。
<Second Embodiment>
In competitions such as relay road races and marathons, many people appear in the video, and the rankings fluctuate greatly. In such a case, if all athletes participating in the competition are set as target objects and CG images are arranged for all athletes, the CG images make it difficult to see the original video. Therefore, it is conceivable to limit the number of CG images to be laid out by giving priority to the target objects, such as from the top.

しかし、ターゲットオブジェクトを単に認識するだけでは順位まではわからない。 However, simply recognizing the target object does not give the ranking.

そこで、第2の実施の形態では、認識したターゲットオブジェクトの映像上の位置関係を識別し、その位置関係に基づいてターゲットオブジェクトの優先順位を設定する方法を説明する。 Therefore, in the second embodiment, a method of identifying the positional relationship of the recognized target objects on the video and setting the priority of the target objects based on the positional relationship will be described.

図13は第2の実施の形態の画像合成装置1のブロック図である。 FIG. 13 is a block diagram of the image synthesizing device 1 of the second embodiment.

第2の実施の形態の画像合成装置1は、第1の実施の形態の画像合成装置1に加えて、位置関係識別部30を備える。 The image synthesizing device 1 of the second embodiment includes a positional relationship identifying section 30 in addition to the image synthesizing device 1 of the first embodiment.

位置関係識別部30は、画像識別部11により識別されたターゲットオブジェクトの映像上の位置関係を識別するものである。位置関係を識別する一つの方法としては、映像上のターゲットオブジェクトの大きさを用いる。2次元の映像では、手前にあるものが大きく映り、遠方にあるものほど小さく映る。これは競技を撮影している場合も同様である。例えば、マラソンや駅伝では、選手を正面から撮影した場合、手前を走る選手ほど映像上で大きく映り、後方の選手ほど映像上で小さく映る。選手を背面から撮影した場合も、同様である。位置関係識別部30は、このような性質を利用し、画像識別部11により識別したターゲットオブジェクトの映像上の大きさから各ターゲットオブジェクトの位置関係を識別する。 The positional relationship identifying section 30 identifies the positional relationship on the image of the target object identified by the image identifying section 11 . One way to identify the positional relationship is to use the size of the target object on the image. In a two-dimensional image, objects in the foreground appear larger, and objects in the distance appear smaller. This is also the case when shooting a competition. For example, in a marathon or a long-distance relay race, when the athletes are photographed from the front, the athletes running in front appear larger on the image, and the athletes behind them appear smaller on the image. The same is true when the player is photographed from behind. The positional relationship identification unit 30 uses such a property to identify the positional relationship of each target object from the size of the target object identified by the image identification unit 11 on the image.

具体的には、位置関係識別部30は、識別したターゲットオブジェクトの映像上の大きさの指標として、ターゲットオブジェクト位置・大きさ検出部12が検出した注目領域の大きさ(例えば、面積)に着目する。 Specifically, the positional relationship identification unit 30 focuses on the size (for example, area) of the region of interest detected by the target object position/size detection unit 12 as an index of the size of the identified target object on the image. do.

例えば、図14はターゲットオブジェクトをマラソン等の選手とし、選手を正面から撮影した映像の場合である。図14の例では、選手Aの注目領域が最も大きく、選手Cの注目領域が最も小さい。従って、選手の順位は、選手A、選手B、選手Cであることが識別できる。一方、図15は選手を背面から撮影した映像の場合である。図15の例でも、選手Aの注目領域が最も大きく、人物Cの注目領域が最も小さい。しかし、選手を背面から撮影した映像であるので、選手の順位は、選手C、選手B、選手Aであることを識別できる。 For example, FIG. 14 shows a case where the target object is a marathoner or the like, and the image is taken from the front of the athlete. In the example of FIG. 14, player A's attention area is the largest, and player C's attention area is the smallest. Therefore, it can be identified that the ranking of the players is Athlete A, Athlete B, and Athlete C. On the other hand, FIG. 15 shows the case of an image of a player photographed from behind. In the example of FIG. 15 as well, the attention area of player A is the largest, and the attention area of person C is the smallest. However, since the images are shot of the players from behind, it can be identified that the players are ranked as player C, player B, and player A.

このような撮影方向は、撮影するカメラから得ても良いし、画像認識により顔正面か背面かを識別し、正面から撮影した映像か、背面から撮影した映像かを識別するようにしても良い。 Such a photographing direction may be obtained from the camera that takes the photograph, or it may be possible to identify whether the face is the front or the rear by image recognition, and to distinguish whether the image is photographed from the front or from the rear. .

このように、識別されたターゲットオブジェクトの映像上の大きさに着目することにより、位置関係識別部30は、画像識別部1により識別されたターゲットオブジェクトの映像上の位置関係を識別する。そして、位置関係識別部30は、ターゲットオブジェクト位置・大きさ検出部12が検出したターゲットオブジェクトの中心点、注目領域の大きさ及び属性情報に、位置関係を識別したターゲットオブジェクトの優先順位を付して、CG画像選択部14に出力する。尚、上述した注目領域は一例であり、他の方法でもかまわない。例えば、顔を囲むL×Lの大きさの領域を注目領域としても良い。更に、ターゲットオブジェクトである人物の顔そのものを注目領域としても良い。 By focusing on the size of the identified target object on the image in this way, the positional relationship identifying section 30 identifies the positional relationship on the image of the target object identified by the image identifying section 1 . Then, the positional relationship identification unit 30 gives priority to the target object whose positional relationship is identified to the center point, the size of the attention area, and the attribute information of the target object detected by the target object position/size detection unit 12. and output to the CG image selection unit 14 . Note that the attention area described above is only an example, and other methods may be used. For example, an area having a size of L×L surrounding the face may be set as the attention area. Furthermore, the face itself of the person who is the target object may be set as the attention area.

尚、上述した例では、識別したターゲットオブジェクトの注目領域に着目して位置関係を識別したが、これに限られない。注目領域の大きさを決定したL等の長さに着目するようにしても良い。更に、例えば、ターゲットオブジェクト自体の映像内での選手の大きさでも良い。また、他の方法として、映像上にある基準点を利用する方法がある。基準点の例としては、映像上の消失点等がある。位置関係の特定は、まず、画像識別部1により、識別された選手の映像上の位置情報を取得する。映像上にある消失点と各選手の映像上の位置情報との距離を計算し、この距離が長い程、映像上手前にあると推定するようにしても良い。 In the above example, the positional relationship is identified by focusing on the attention area of the identified target object, but the present invention is not limited to this. Attention may be paid to the length such as L that determines the size of the attention area. Furthermore, for example, it may be the size of the player in the image of the target object itself. Another method is to use a reference point on the image. An example of a reference point is a vanishing point on an image. To specify the positional relationship, first, the image identification unit 1 acquires the position information of the identified player on the video. The distance between the vanishing point on the video and the position information of each player on the video may be calculated, and the longer the distance, the closer to the front of the video it may be estimated.

CG画像配置部15は、位置関係識別部30が識別したターゲットオブジェクトの優先順位で、上述した第1の実施の形態と同様に、CG画像の配置を行う。このとき、CG画像配置部15は、CG画像を配置するターゲットオブジェクトを、例えば、上位から1番目から3番目までの順位のターゲットオブジェクトとすることにより、配置するCG画像の数を制限することができる。 The CG image placement unit 15 places the CG images in the order of priority of the target objects identified by the positional relationship identification unit 30, as in the first embodiment described above. At this time, the CG image placement unit 15 can limit the number of CG images to be placed by setting the target objects to which the CG images are to be placed to, for example, the target objects ranked first to third from the top. can.

<第2の実施の形態の変形例>
第2の実施の形態の変形例を説明する。第2の実施の形態では、ターゲットオブジェクト(選手)の位置関係により、ターゲットオブジェクトの優先順位を設定する方法を説明した。第2の実施の形態の変形例では、ターゲットオブジェクト(選手)の位置関係により、ターゲットオブジェクト(選手)の優先順位を選定するまでは、同様であるが、ターゲットオブジェクト(選手)の優先順位を用いて、CG画像配置部15によるCG画像の配置位置の優先順位を変化させる例を説明する。
<Modification of Second Embodiment>
A modification of the second embodiment will be described. In the second embodiment, a method of setting the priority of target objects according to the positional relationship of the target objects (players) has been described. In the modification of the second embodiment, it is the same until the priority of the target object (player) is selected according to the positional relationship of the target object (player), but the priority of the target object (player) is used. Next, an example of changing the priority of the CG image placement position by the CG image placement unit 15 will be described.

図17は第2の実施の形態の変形例を説明するための図である。図17の例では、CG画像配置部15によるCG画像の映像の画面上の配置位置の優先順位を示しており、ターゲットオブジェクト(選手)の走行順位が1から3位までの配置位置の優先順位と、ターゲットオブジェクト(選手)の走行順位が4以下の配置位置の優先順位とを示している。 FIG. 17 is a diagram for explaining a modification of the second embodiment. In the example of FIG. 17, the priority of the placement position on the screen of the video of the CG image by the CG image placement unit 15 is shown. , and the priority order of placement positions where the running order of the target object (athlete) is 4 or lower.

ターゲットオブジェクト(選手)の走行順位が1から3位までの配置位置の優先順位は、高い順位に、180度の配置位置a、270度の配置位置c、90度の配置位置d、0度の配置位置bに設定されている。一方、ターゲットオブジェクト(選手)の走行順位が4位以下の配置位置の優先順位は、高い順位に、0度の配置位置b、270度の配置位置c、90度の配置位置d、180度の配置位置aに設定されている。 The priority of the placement positions of the target object (athlete) running order 1 to 3 is as follows. It is set to the arrangement position b. On the other hand, the priority of the placement positions for which the target object (athlete) has a running order of 4th or lower is 0-degree placement position b, 270-degree placement position c, 90-degree placement position d, and 180-degree placement position d. It is set to the arrangement position a.

このようなターゲットオブジェクト(選手)の走行順位によって、CG画像の画面上の配置位置の優先順位を変化させる理由は、走行順位が高いターゲットオブジェクト(選手)ほど、すなわち、映像の前方に映っているターゲットオブジェクト(選手)ほど、その選手のCG画像をターゲットオブジェクト(選手)の下方(例えば、配置位置a)に表示させ、走行順位が低いターゲットオブジェクト(選手)ほど、すなわち、映像の後方に映っているターゲットオブジェクト(選手)ほど、その選手のCG画像をターゲットオブジェクト(選手)の上方(例えば、配置位置b)に表示させることにある。 The reason why the priority of the placement position of the CG image on the screen is changed according to the running order of the target object (athlete) is that the higher the running order of the target object (athlete), that is, the closer the target object (athlete) is to the front of the video. The CG image of the target object (athlete) is displayed below the target object (athlete) (for example, the placement position a), and the target object (athlete) with the lower running order is displayed behind the image. The closer the target object (player) is, the more the player's CG image is displayed above the target object (player) (for example, the placement position b).

図18は、図17で示した配置順位により、選手Aから選手Fまでの6人の選手が映っている映像で、それらの選手のCG画像を表示した場合の一例を示した図である。図17では、1位から3位までの選手には走行順位が1から3位までの配置位置の優先順位が適用され、先頭の選手AのCG画像は優先順位が最も高い配置位置aに表示されており、2位の選手BのCG画像は優先順位が2番目の配置位置cに表示されており、3位の選手CのCG画像は優先順位が最も高い配置位置aに表示されている。一方、4位以下の選手には走行順位が4位以下の配置位置の優先順位が適用され、4位の選手DのCG画像は優先順位が最も高い配置位置bに表示されており、5位の選手EのCG画像は優先順位が最も高い配置位置bに表示されており、6位の選手FのCG画像は優先順位が最も高い配置位置bに表示されている。 FIG. 18 is a diagram showing an example of displaying CG images of six players from player A to player F according to the placement order shown in FIG. In FIG. 17, the first to third place runners are assigned the priority of the first to third running order, and the CG image of the leading player A is displayed at the highest priority position a. The CG image of player B in second place is displayed at position c, which has the second highest priority, and the CG image of player C in third place is displayed at position a, which has the highest priority. . On the other hand, the 4th place and lower runners are assigned the priority of the 4th place and lower running order. The CG image of player E ranked 6th is displayed at the highest priority placement position b, and the CG image of player F ranked sixth is displayed at the highest priority placement position b.

上述した配置位置の優先順位は一例であり、これに限定するものではない。配置位置の優先順位は適時変更しても良い。 The priority order of the arrangement positions described above is an example, and the present invention is not limited to this. You may change the priority of an arrangement position suitably.

このようにすることにより、映像上に多数のターゲットオブジェクト(選手)が映っている場合、走行順位が高いターゲットオブジェクト(選手)ほど、すなわち、前方に映っているターゲットオブジェクト(選手)ほど、そのターゲットオブジェクト(選手)のCG画像が下方(胸の位置)に表示され、走行順位が低いターゲットオブジェクト(選手)ほど、すなわち、後方に映っているターゲットオブジェクト(選手)ほど、そのターゲットオブジェクト(選手)のCG画像が上方に表示され、自然な映像表現を行うことができる。 By doing so, when a large number of target objects (athletes) are shown in the video, the higher the target object (athlete) in the running order, that is, the more forward the target object (athlete) is, the more the target object (athlete) is projected. The CG image of the object (athlete) is displayed below (chest position), and the lower the running order of the target object (athlete), that is, the more backward the target object (athlete) is, the more the target object (athlete) is displayed. A CG image is displayed above, and natural image expression can be performed.

<第3の実施の形態>
コンテンツの内容によっては、登場するターゲットオブジェクトの大きさが変化しない場合も多いと思われる。例えば、屋上に設けられた定点カメラの映像等では、カメラがパン、チルトすることにより、画面内に登場するビルなどのオブジェクトは変更するが、その大きさ自体は変わらない場合が多い。このような映像にCG画像を配置する場合、ターゲットオブジェクトの位置を考慮すれば良いと思われる。
<Third Embodiment>
Depending on the content, it is likely that the size of the target object that appears does not change in many cases. For example, in an image captured by a fixed-point camera installed on a rooftop, an object such as a building that appears in the screen changes as the camera pans and tilts, but the size of the object itself does not change in many cases. When arranging a CG image in such a video, it is thought that the position of the target object should be taken into consideration.

そこで、第3の実施の形態は、ターゲットオブジェクトの大きさを考慮せず、ターゲットオブジェクトの位置のみを考慮して、CG画像の画面に配置する例である。 Therefore, the third embodiment is an example in which the size of the target object is not taken into consideration, but only the position of the target object is taken into consideration when arranging it on the screen of the CG image.

図16は第3の実施の形態の画像合成装置1のブロック図である。 FIG. 16 is a block diagram of the image synthesizing device 1 of the third embodiment.

第3の実施の形態が第1の実施の形態と異なる所は、ターゲットオブジェクト位置・大きさ検出部12に代えて、ターゲットオブジェクト位置検出部40を備える点である。ターゲットオブジェクト位置検出部40は、画像認識部11の認識結果を受け、ターゲットオブジェクトの映像画面上の位置を検出する。すなわち、ターゲットオブジェクト位置・大きさ検出部12からターゲットオブジェクトの大きさを検出する機能が除かれている。 The third embodiment differs from the first embodiment in that a target object position detector 40 is provided instead of the target object position/size detector 12 . The target object position detection unit 40 receives the recognition result of the image recognition unit 11 and detects the position of the target object on the video screen. That is, the function of detecting the size of the target object is removed from the target object position/size detection unit 12 .

更に、CG画像選択部14は、ターゲットオブジェクトの大きさにかかわらず、一つの大きさのCG画像を選択する。尚、上述したように、予め用意されたCG画像から選択するのではなく、リアルタイムにCG画像を生成するようにしても良い。 Furthermore, the CG image selection unit 14 selects a CG image of one size regardless of the size of the target object. As described above, a CG image may be generated in real time instead of being selected from CG images prepared in advance.

他の動作は、第1の実施の形態と同様なものなので、説明を省略する。 Other operations are the same as those of the first embodiment, so description thereof is omitted.

以上好ましい実施の形態をあげて本発明を説明したが、全ての実施の形態の構成を備える必要はなく、適時組合せて実施することができるばかりでなく、本発明は必ずしも上記実施の形態に限定されるものではなく、その技術的思想の範囲内において様々に変形し実施することが出来る。 Although the present invention has been described above with reference to preferred embodiments, it is not necessary to include all the configurations of the embodiments, and not only can they be combined as appropriate, but the present invention is not necessarily limited to the above embodiments. However, it can be modified and implemented in various ways within the scope of its technical ideas.

1 画像合成装置
2 コンピュータ
11 画像認識部
12 ターゲットオブジェクト位置・大きさ検出部
13 CG画像記憶部
14 CG画像選択部
15 CG画像配置部
16 画像合成部
21 プロセッサ
22 メモリ
23 記憶装置
24 入力装置
25 表示装置
26 通信装置
30 位置関係識別部
40 ターゲットオブジェクト位置検出部
1 image synthesis device 2 computer 11 image recognition unit 12 target object position/size detection unit 13 CG image storage unit 14 CG image selection unit 15 CG image placement unit 16 image synthesis unit 21 processor 22 memory 23 storage device 24 input device 25 display Device 26 Communication device 30 Positional relationship identification unit 40 Target object position detection unit

Claims (9)

映像中に出現するターゲットオブジェクトに関連するコンピュータグラフィク画像を前記映像に合成する画像合成装置であって、
前記映像から、複数のターゲットオブジェクトを画像認識可能な画像認識部と、
前記画像認識部により認識されたターゲットオブジェクトの映像上の位置を検出する位置検出部と、
前記画像認識部により認識された各ターゲットオブジェクトの映像上の大きさを検出する大きさ検出部と、
前記大きさ検出部により検出された各ターゲットオブジェクトの映像上の大きさを用いて、ターゲットオブジェクト間の位置関係を識別し、各ターゲットオブジェクトの優先順位を決定する位置関係識別部と、
前記位置検出部により検出されたターゲットオブジェクトの映像上の位置と、前記位置関係識別部により決定された各ターゲットオブジェクトの優先順位と、を用いて、前記コンピュータグラフィク画像の映像上の配置位置を適応的に決定する画像配置部と、
前記コンピュータグラフィク画像が前記画像配置部により決定された配置位置に重畳された映像を生成する画像合成部と
を有し、
前記画像配置部には、前記コンピュータグラフィク画像の配置位置の候補であり、前記ターゲットオブジェクトの優先順位に応じて異なる優先順位の複数の候補配置位置が予め定められ、
前記画像配置部は、認識された各ターゲットオブジェクトの候補配置位置に、前記コンピュータグラフィク画像を配置していき、前記コンピュータグラフィク画像の全てが映像上に表示され、優先順位の高いターゲットオブジェクトと前記コンピュータグラフィク画像とが重畳しない候補配置位置のうち、最も優先順位の高い候補配置位置を、前記コンピュータグラフィク画像の配置位置に決定する、
画像合成装置。
An image compositing device for compositing a computer graphic image associated with a target object appearing in a video into the video, comprising:
an image recognition unit capable of image recognition of a plurality of target objects from the video;
a position detection unit that detects the position on the image of each target object recognized by the image recognition unit;
a size detection unit that detects the size of each target object recognized by the image recognition unit on the image;
a positional relationship identification unit that identifies the positional relationship between target objects using the size of each target object on the image detected by the size detection unit and determines the priority of each target object;
Using the position of each target object on the video detected by the position detection unit and the priority of each target object determined by the positional relationship identification unit, the arrangement position of the computer graphic image on the video is determined. an image placement unit that adaptively determines;
an image synthesizing unit that generates an image in which the computer graphic image is superimposed at the layout position determined by the image layout unit ;
has
The image placement unit predetermines a plurality of candidate placement positions, which are candidates for the placement position of the computer graphic image and have different priorities according to the priority of the target object,
The image arrangement unit arranges the computer graphic image at the candidate arrangement position of each recognized target object, and all of the computer graphic images are displayed on the video, and the target object with the high priority and the computer graphic image are arranged. determining the candidate layout position with the highest priority among the candidate layout positions that do not overlap with the graphic image as the layout position of the computer graphic image;
Image synthesizer.
前記ターゲットオブジェクトの優先順位は、ターゲットオブジェクトの走行順位であり、 the priority of the target object is the running order of the target object;
前記画像配置部には、前記コンピュータグラフィク画像の配置位置の候補であり、ターゲットオブジェクトの走行順位に応じて異なる優先順位が定められた複数の候補配置位置が予め定められ、 The image placement unit predetermines a plurality of candidate placement positions, which are candidates for the placement position of the computer graphic image and are given different priorities according to the running order of the target object,
前記画像配置部は、認識された各ターゲットオブジェクトの候補配置位置に、前記コンピュータグラフィク画像を配置していき、前記コンピュータグラフィク画像の全てが映像上に表示され、走行順位の高いターゲットオブジェクトと前記コンピュータグラフィク画像とが重畳しない配置位置のうち、最も優先順位の高い候補配置位置を、前記コンピュータグラフィク画像の配置位置と決定する、 The image arrangement unit arranges the computer graphic image at the candidate arrangement position of each recognized target object, and all of the computer graphic images are displayed on the video, and the target object with the highest running order and the computer determining a candidate layout position with the highest priority among layout positions that do not overlap with the graphic image as the layout position of the computer graphic image;
請求項1に記載の画像合成装置。2. The image synthesizing device according to claim 1.
前記大きさ検出部により検出されたターゲットオブジェクトの映像上の大きさに応じたコンピュータグラフィク画像を選択する画像選択部を有し、
前記画像配置部は、前記画像選択部により選択されたコンピュータグラフィク画像を、前記候補配置位置に配置する
請求項1又は請求項2に記載の画像合成装置。
an image selection unit that selects a computer graphic image corresponding to the size of the target object on the image detected by the size detection unit;
3. The image synthesizing apparatus according to claim 1, wherein said image arranging section arranges the computer graphic image selected by said image selecting section at said candidate arrangement position.
最小の大きさである第1の大きさのコンピュータグラフィク画像と、最大の大きさである第2の大きさのコンピュータグラフィク画像と、を少なくとも含む複数の大きさのコンピュータグラフィク画像が記憶された記憶部を有し、 A memory storing computer graphic images of a plurality of sizes including at least a computer graphic image of a first size, which is the smallest size, and a computer graphic image of a second size, which is the largest size. has a part
前記画像選択部は、検出されたターゲットオブジェクトの映像上の大きさが所定の大きさ以下である場合、前記第1の大きさのコンピュータグラフィク画像を選択し、検出されたターゲットオブジェクトの映像上の大きさが所定の大きさ以上である場合、前記第2の大きさのコンピュータグラフィク画像を選択する、 The image selection unit selects the computer graphics image of the first size when the size of the detected target object on the video is equal to or less than a predetermined size, and selecting a computer graphic image of said second size if the size is greater than or equal to a predetermined size;
請求項3に記載の画像合成装置。4. The image synthesizing device according to claim 3.
前記大きさ検出部は、前記画像認識部により認識されたターゲットオブジェクトの少なくとも一部を含む注目領域の大きさを、前記ターゲットオブジェクトの映像上の大きさとして検出する
請求項1から請求項4のいずれかに記載の画像合成装置。
The size detection unit detects a size of a region of interest including at least part of the target object recognized by the image recognition unit as a size of the target object on the image.
5. The image synthesizing device according to any one of claims 1 to 4 .
前記ターゲットオブジェクトの所定の領域が、前記注目領域である
請求項5に記載の画像合成装置。
6. The image synthesizing device according to claim 5, wherein the predetermined area of the target object is the attention area.
前記画像配置部は、各ターゲットオブジェクトの優先順位のうち、所定の上位の優先順位のターゲットオブジェクトにのみ、前記コンピュータグラフィク画像を配置する
請求項1から請求項6のいずれかに記載の画像合成装置。
7. The image synthesizing apparatus according to claim 1, wherein said image placement unit places said computer graphic image only on target objects having predetermined higher priority among the priority of each target object. .
映像中に出現するターゲットオブジェクトに関連するコンピュータグラフィク画像を前記映像に合成する画像合成方法であって、
前記コンピュータグラフィク画像の配置位置の候補であり、前記ターゲットオブジェクトの優先順位に応じて異なる優先順位の複数の候補配置位置が予め定められ、
前記映像から、複数のターゲットオブジェクトを画像認識し、
認識されたターゲットオブジェクトの映像上の位置を検出し、
認識された各ターゲットオブジェクトの映像上の大きさを検出し、
検出された各ターゲットオブジェクトの映像上の大きさを用いて、ターゲットオブジェクト間の位置関係を識別し、各ターゲットオブジェクトの優先順位を決定し、
検出された各ターゲットオブジェクトの映像上の位置と、決定された各ターゲットオブジェクトの優先順位と、を用いて、認識された各ターゲットオブジェクトの候補配置位置に、前記コンピュータグラフィク画像を配置していき、前記コンピュータグラフィク画像の全てが映像上に表示され、優先順位の高いターゲットオブジェクトと前記コンピュータグラフィク画像とが重畳しない候補配置位置のうち、最も優先順位の高い候補配置位置を、前記コンピュータグラフィク画像の配置位置に決定し、
前記映像に、前記コンピュータグラフィク画像が決定された配置位置に重畳された映像を生成する、
画像合成方法。
An image compositing method for compositing a computer graphic image associated with a target object appearing in a video into the video, comprising:
a plurality of candidate placement positions, which are candidates for the placement position of the computer graphic image and have different priorities according to the priority of the target object, are determined in advance;
Image recognition of a plurality of target objects from the video,
Detecting the position of each recognized target object on the image,
detecting the size of each recognized target object on the image,
using the size of each detected target object on the image to identify the positional relationship between the target objects and determine the priority of each target object;
arranging the computer graphic image at the candidate arrangement position of each recognized target object by using the detected position of each target object on the video and the determined priority of each target object; All of the computer graphic image is displayed on the video, and the highest priority candidate layout position among the candidate layout positions where the target object with the high priority and the computer graphic image do not overlap is used as the layout of the computer graphic image. position and
generating a video in which the computer graphic image is superimposed on the video at the determined arrangement position;
Image composition method.
映像中に出現するターゲットオブジェクトに関連するコンピュータグラフィク画像を前記映像に合成するコンピュータのプログラムであって、
前記映像から、複数のターゲットオブジェクトを画像認識可能な画像認識処理と、
前記画像認識処理により認識されたターゲットオブジェクトの映像上の位置を検出する位置検出処理と、
前記画像認識処理により認識された各ターゲットオブジェクトの映像上の大きさを検出する大きさ検出処理と、
前記大きさ検出処理により検出された各ターゲットオブジェクトの映像上の大きさを用いて、ターゲットオブジェクト間の位置関係を識別し、各ターゲットオブジェクトの優先順位を決定する位置関係識別処理と、
前記位置検出処理により検出された各ターゲットオブジェクトの映像上の位置と、前記位置関係識別処理により識別された各ターゲットオブジェクトの優先順位と、を用いて、前記コンピュータグラフィク画像の映像上の配置位置を適応的に決定する画像配置処理と、
前記コンピュータグラフィク画像が前記画像配置処理により決定された配置位置に重畳された映像を生成する画像合成処理と
をコンピュータに実行させ
前記コンピュータには、前記コンピュータグラフィク画像の配置位置の候補であり、前記ターゲットオブジェクトの優先順位に応じて異なる優先順位の複数の候補配置位置が予め記憶され、
前記画像配置処理は、認識された各ターゲットオブジェクトの候補配置位置に、前記コンピュータグラフィク画像を配置していき、前記コンピュータグラフィク画像の全てが映像上に表示され、優先順位の高いターゲットオブジェクトと前記コンピュータグラフィク画像とが重畳しない候補配置位置のうち、最も優先順位の高い候補配置位置を、前記コンピュータグラフィク画像の配置位置に決定する、
るプログラム。
1. A computer program for synthesizing a computer graphic image associated with a target object appearing in a video into said video, comprising:
an image recognition process capable of recognizing a plurality of target objects from the video;
a position detection process for detecting the position on the image of each target object recognized by the image recognition process;
a size detection process for detecting the size of each target object recognized by the image recognition process on the image;
a positional relationship identification process for identifying the positional relationship between the target objects using the size of each target object on the image detected by the size detection process, and determining the priority of each target object;
Using the position of each target object on the video detected by the position detection process and the priority of each target object identified by the positional relationship identification process, the arrangement position of the computer graphic image on the video is determined. adaptively determined image arrangement processing;
causing a computer to perform an image synthesizing process for generating an image in which the computer graphic image is superimposed at the arrangement position determined by the image arrangement process ;
The computer stores in advance a plurality of candidate placement positions, which are candidates for the placement position of the computer graphic image and have different priorities according to the priority of the target object,
The image arrangement process arranges the computer graphic image at the candidate arrangement position of each recognized target object, all of the computer graphic images are displayed on the video, and the target objects with high priority and the computer determining the candidate layout position with the highest priority among the candidate layout positions that do not overlap with the graphic image as the layout position of the computer graphic image;
program.
JP2018212309A 2018-05-09 2018-11-12 Image synthesizing device, image synthesizing method and program Active JP7285045B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018090385 2018-05-09
JP2018090385 2018-05-09

Publications (2)

Publication Number Publication Date
JP2019200774A JP2019200774A (en) 2019-11-21
JP7285045B2 true JP7285045B2 (en) 2023-06-01

Family

ID=68611266

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018212309A Active JP7285045B2 (en) 2018-05-09 2018-11-12 Image synthesizing device, image synthesizing method and program

Country Status (1)

Country Link
JP (1) JP7285045B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007215097A (en) 2006-02-13 2007-08-23 Matsushita Electric Ind Co Ltd Display data generating apparatus
JP2011234343A (en) 2010-04-06 2011-11-17 Canon Inc Video processing apparatus and video processing method
WO2013021643A1 (en) 2011-08-11 2013-02-14 パナソニック株式会社 Hybrid broadcast and communication system, data generation device, and receiver

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007215097A (en) 2006-02-13 2007-08-23 Matsushita Electric Ind Co Ltd Display data generating apparatus
JP2011234343A (en) 2010-04-06 2011-11-17 Canon Inc Video processing apparatus and video processing method
WO2013021643A1 (en) 2011-08-11 2013-02-14 パナソニック株式会社 Hybrid broadcast and communication system, data generation device, and receiver

Also Published As

Publication number Publication date
JP2019200774A (en) 2019-11-21

Similar Documents

Publication Publication Date Title
KR100845390B1 (en) Image processing apparatus, image processing method, record medium, and semiconductor device
CN113810587B (en) Image processing method and device
CN105830092B (en) For digit synthesis and/or the system of retrieval, method and apparatus
CN105027033B (en) Method, device and computer-readable media for selecting Augmented Reality object
JP6082101B2 (en) Body motion scoring device, dance scoring device, karaoke device, and game device
US10628993B2 (en) Image processing apparatus that generates a virtual view image from multiple images captured from different directions and method controlling the same
EP3383036A2 (en) Information processing device, information processing method, and program
US20120319949A1 (en) Pointing device of augmented reality
US11250633B2 (en) Image processing apparatus, display method, and non-transitory computer-readable storage medium, for displaying a virtual viewpoint image including an object at different points in time
US11501471B2 (en) Virtual and real composite image data generation method, virtual and real images compositing system, trained model generation method, virtual and real composite image data generation device
CN102289564A (en) Synthesis of information from multiple audiovisual sources
WO2007020789A1 (en) Face image display, face image display method, and face image display program
CN105474213A (en) System and method for creating navigable views of ordered images
US10810776B2 (en) Image processing device and image processing method
JP5350427B2 (en) Image processing apparatus, image processing apparatus control method, and program
CN112215964A (en) Scene navigation method and device based on AR
CN108431871A (en) The method that object is shown on threedimensional model
JP7285045B2 (en) Image synthesizing device, image synthesizing method and program
CN110858409A (en) Animation generation method and device
US10546406B2 (en) User generated character animation
CN111918114A (en) Image display method, image display device, display equipment and computer readable storage medium
WO2012070428A1 (en) Feeling-expressing-word processing device, feeling-expressing-word processing method, and feeling-expressing-word processing program
US10080963B2 (en) Object manipulation method, object manipulation program, and information processing apparatus
JP7296735B2 (en) Image processing device, image processing method and program
JP4615252B2 (en) Image processing apparatus, image processing method, recording medium, computer program, semiconductor device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220907

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230521

R150 Certificate of patent or registration of utility model

Ref document number: 7285045

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150