JP7191514B2 - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP7191514B2
JP7191514B2 JP2018001184A JP2018001184A JP7191514B2 JP 7191514 B2 JP7191514 B2 JP 7191514B2 JP 2018001184 A JP2018001184 A JP 2018001184A JP 2018001184 A JP2018001184 A JP 2018001184A JP 7191514 B2 JP7191514 B2 JP 7191514B2
Authority
JP
Japan
Prior art keywords
image
objects
distance value
depth
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018001184A
Other languages
Japanese (ja)
Other versions
JP2019121216A (en
Inventor
秀信 秋吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018001184A priority Critical patent/JP7191514B2/en
Publication of JP2019121216A publication Critical patent/JP2019121216A/en
Application granted granted Critical
Publication of JP7191514B2 publication Critical patent/JP7191514B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像を合成等する画像処理技術に関する。 The present invention relates to an image processing technique for synthesizing images.

3D対応のデジタルカメラなどにおいて、被写体とメニュー画面の奥行き関係を調整し、それぞれを合成する画像合成技術がある。例えば特許文献1には、撮影被写体画像の奥行きと画面に表示するメニュー画面との位置関係を調整し、画面表示時にメニュー画面が被写体の手前に来るように位置調整を行う技術が開示されている。 2. Description of the Related Art In a 3D compatible digital camera or the like, there is an image synthesizing technique for adjusting the depth relationship between a subject and a menu screen and synthesizing them. For example, Patent Literature 1 discloses a technique of adjusting the positional relationship between the depth of the photographed subject image and the menu screen displayed on the screen so that the menu screen is positioned in front of the subject when displayed on the screen. .

また近年のカメラには、画像の撮影だけではなく、奥行き方向の距離(以下、奥行距離とする。)を計測し、その奥行距離情報を撮影画像と共に記録可能なものもある。このような撮影画像と共に奥行距離情報も合わせて記録できるカメラを用いて、複数枚の画像を撮影し、例えば1枚の背景に対して被写体となる人物だけを複数人分合成するようなことも可能となる。例えば人物だけを複数人分合成する場合には、奥行距離情報を利用することにより、撮影画像から人物のオブジェクトと背景とを切り分け、その切り分けた人物のオブジェクトの前後関係を奥行距離情報に基づいて決定した上で合成するようなことが行われる。 Some recent cameras are capable of not only capturing an image, but also measuring a distance in the depth direction (hereinafter referred to as depth distance) and recording the depth distance information together with the captured image. Using a camera that can record depth and distance information together with such captured images, multiple images can be captured and, for example, multiple people can be synthesized against a single background. It becomes possible. For example, when only a person is synthesized for a plurality of people, the depth distance information is used to separate the person object and the background from the captured image, and the front-back relationship of the separated person object is calculated based on the depth distance information. Synthesis is performed after determination.

特開2010-86228号公報JP-A-2010-86228

ところで、複数枚の撮影画像に写った被写体のオブジェクトを切り出して合成する際、それぞれの撮影画像に写っている被写体の奥行距離の値が非常に近いような場合、合成結果が違和感のある画像になってしまうことがある。例えば奥行距離の近い被写体のオブジェクト同士が混ざり合って合成されてしまうことで、違和感のある合成画像が生成されることがある。 By the way, when extracting and synthesizing an object of a subject captured in a plurality of shot images, if the depth distance values of the subject appearing in each shot image are very close, the synthesis result will be an image that looks strange. Sometimes it becomes For example, when objects of subjects with close depth distances are mixed and synthesized, a synthesized image with a sense of incongruity may be generated.

そこで、本発明は、奥行距離の情報を用いて画像を合成する場合に、違和感の少ない合成結果を得られるようにすることを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to obtain a synthesis result that does not give a sense of discomfort when synthesizing images using depth distance information.

本発明は、複数の画像からオブジェクトを抽出する抽出手段と、前記画像に含まれる奥行距離の情報を基に、前記複数の画像から抽出されたオブジェクトごとに奥行距離を代表する代表距離値を決定する決定手段と、前記抽出されたオブジェクトごとの前記代表距離値に基づいて、前記オブジェクトを合成して合成画像を生成する合成手段とを有し、前記決定手段は、前記オブジェクトが合成される際にオブジェクト同士が重なる場合には前記重なるオブジェクトについて前記代表距離値を決定し、前記オブジェクト同士が重ならないオブジェクトについては代表距離値として初期値を決定することを特徴とする。 The present invention includes extraction means for extracting an object from a plurality of images, and determining a representative distance value representing a depth distance for each object extracted from the plurality of images based on depth distance information included in the images. and synthesizing means for synthesizing the objects to generate a synthesized image based on the representative distance value for each of the extracted objects, wherein the determining means determines when the objects are synthesized When the objects overlap each other, the representative distance value is determined for the overlapping objects, and the initial value is determined as the representative distance value for the objects that do not overlap each other .

本発明によれば、奥行距離の情報を用いて画像を合成する場合に、複数の被写体を合成しても、違和感の少ない合成結果が得られるようになる。 According to the present invention, when synthesizing an image using depth distance information, even if a plurality of subjects are synthesized, a synthetic result with little sense of incongruity can be obtained.

実施形態の画像合成装置の概略構成を示す図である。1 is a diagram showing a schematic configuration of an image synthesizing device according to an embodiment; FIG. 奥行距離情報を持つ画像と3Dレンダリングの関係説明に用いる図である。FIG. 10 is a diagram used for explaining the relationship between an image having depth distance information and 3D rendering; 合成処理のフローチャートである。9 is a flow chart of synthesis processing; 重ならないオブジェクトが存在する場合の合成例を示す図である。FIG. 10 is a diagram showing an example of synthesis when there are non-overlapping objects; 重なり判定がある場合の合成処理のフローチャートである。10 is a flowchart of composition processing when there is overlap determination; 顔認識を行う場合の合成成処理のフローチャートである。8 is a flow chart of synthesis processing when face recognition is performed; 背景と合成対象を選択する際の画面遷移の説明に用いる図である。FIG. 10 is a diagram used for explaining screen transitions when selecting a background and a composition target; 顔の有無と合成順番の説明に用いる図である。FIG. 10 is a diagram used for explaining the presence/absence of a face and the composition order; 顔の一部の部位を比較する例の説明に用いる図である。FIG. 10 is a diagram used for explaining an example of comparing partial parts of a face; オブジェクトの奥行距離を一括して変更する例の説明に用いる図である。FIG. 11 is a diagram used for explaining an example of collectively changing depth distances of objects;

以下、図面を参照して本発明の好ましい実施形態について説明する。
<第1実施形態>
図1は、本実施形態の画像処理装置の一例である画像合成装置の概略的な構成を示す図である。
制御部105は、この画像合成装置の全体制御を行う。また、画像合成装置の以下に述べる各構成要素は、メモリ106を使用して各処理を行う。
画像データ読み込み部100は、図示していない外部メディア等から画像データを取得する。本実施形態で説明する画像データは、画像と当該画像の画素ごとの奥行方向の距離(以下、奥行距離とする)の情報とを有するデータである。奥行距離とその情報(奥行距離情報とする)の詳細については後述する。
Preferred embodiments of the present invention will be described below with reference to the drawings.
<First embodiment>
FIG. 1 is a diagram showing a schematic configuration of an image synthesizing device, which is an example of an image processing device according to this embodiment.
A control unit 105 performs overall control of the image synthesizing apparatus. Further, each component of the image synthesizing apparatus, which will be described below, uses the memory 106 to perform each process.
The image data reading unit 100 acquires image data from an external medium or the like (not shown). The image data described in the present embodiment is data that includes an image and information on the distance in the depth direction for each pixel of the image (hereinafter referred to as depth distance). Details of the depth distance and its information (referred to as depth distance information) will be described later.

デコード部101は、画像データ読み込み部100が取得した画像データをデコードし、画像として認識できる状態にする。さらにデコード部101は、画像に含まれている奥行距離情報を取得する機能を有し、デコードした画像の各画素と奥行距離との関係付けを行う。 The decoding unit 101 decodes the image data acquired by the image data reading unit 100 and makes it recognizable as an image. Further, the decoding unit 101 has a function of acquiring depth distance information included in the image, and associates each pixel of the decoded image with the depth distance.

オブジェクト抽出部103は、前述のように画素ごとに奥行距離情報が付与されている画像から、被写体等のオブジェクトを抽出する。このオブジェクトの抽出は、画像から、奥行距離が所定の距離より短い(近い)各画素よりなるオブジェクトを抽出する処理となされている。画像からオブジェクトが分離された残りの画像領域は背景となる。このように、オブジェクト抽出部103は、所定の距離を閾値として用い、奥行距離情報が付与された入力画像の中から、奥行距離が閾値より短い(近い)オブジェクトを、それ以外の背景から分離する。なお、オブジェクトの抽出は、奥行距離情報を用いない、他の既存のオブジェクト抽出技術を用いて行われても良い。 The object extraction unit 103 extracts an object such as a subject from an image to which depth distance information is assigned to each pixel as described above. This object extraction is a process of extracting an object composed of pixels whose depth distance is shorter (closer) than a predetermined distance from the image. The remaining image area where the object is separated from the image becomes the background. In this way, the object extraction unit 103 uses a predetermined distance as a threshold, and separates an object whose depth distance is shorter (closer) than the threshold from the input image to which depth distance information is added from the background other than that. . Object extraction may be performed using other existing object extraction techniques that do not use depth distance information.

距離算出部107は、画素ごとの奥行距離情報から後述する奥行マップを生成し、また、オブジェクト抽出部103により抽出されたオブジェクトの各画素の奥行距離情報を基に、後述する代表距離値を算出する。奥行マップの生成と代表距離値の算出方法の詳細については後述する。 The distance calculation unit 107 generates a depth map, which will be described later, from the depth distance information for each pixel, and also calculates a representative distance value, which will be described later, based on the depth distance information of each pixel of the object extracted by the object extraction unit 103. do. The details of how to generate the depth map and how to calculate the representative distance value will be described later.

合成部102は、オブジェクト抽出部103によって複数の入力画像からそれぞれ前述のように抽出された複数のオブジェクトと、背景として用いられる画像(以下、背景画像とする)とを合成する。詳細については後述するが、合成部102では、距離算出部107により算出された代表距離値を用いて、複数のオブジェクトと背景画像との合成を行う。
表示部104は、画像を表示する。表示部104には、合成部102での合成処理により生成された合成画像も表示される。なお、表示部104は、ユーザ等からの指示を受付可能なタッチパネルの機能を有していても良い。
The synthesizing unit 102 synthesizes a plurality of objects extracted from the plurality of input images by the object extracting unit 103 as described above and an image used as a background (hereinafter referred to as a background image). Although the details will be described later, the synthesizing unit 102 uses the representative distance value calculated by the distance calculating unit 107 to synthesize a plurality of objects and a background image.
The display unit 104 displays images. The display unit 104 also displays a synthesized image generated by the synthesizing process in the synthesizing unit 102 . Note that the display unit 104 may have a touch panel function capable of receiving instructions from a user or the like.

なお、図1の制御部105、画像データ読み込み部100、デコード部101、距離算出部107、合成部102、オブジェクト抽出部103等は、ハードウェア構成により実現されても良いし、ソフトウェア構成により実現されても良い。ソフトウェア構成により各部の処理が実行される場合、それら本実施形態にかかるプログラム(ソフトウェア)をCPU等が実行することにより実現される。本実施形態にかかるプログラムは、メモリ106(ROMや着脱可能な半導体メモリを含む)から読み出されても、或いは不図示のインターネット等のネットワークからダウンロードされても良い。 Note that the control unit 105, the image data reading unit 100, the decoding unit 101, the distance calculation unit 107, the synthesizing unit 102, the object extraction unit 103, etc. in FIG. May be. When the processing of each part is executed by the software configuration, it is realized by executing the program (software) according to the present embodiment by the CPU or the like. The program according to this embodiment may be read from the memory 106 (including ROM and removable semiconductor memory), or may be downloaded from a network such as the Internet (not shown).

次に、図2(a)~図2(c)を用いて、奥行距離情報を有する画像データついて説明する。
図2(a)に示す画像200は、画素ごとに奥行距離情報を有した画像である。なお、図2(a)に例示した画像200は、中央部に人物被写体の顔に相当するオブジェクト204が写っている画像であるとする。
Next, image data having depth distance information will be described with reference to FIGS. 2(a) to 2(c).
An image 200 shown in FIG. 2A is an image having depth distance information for each pixel. Assume that the image 200 illustrated in FIG. 2A is an image in which an object 204 corresponding to the face of a human subject is shown in the center.

画像200には、当該画像を構成する画素ごとに奥行距離情報が保存されており、以下、各画素に保存されている奥行距離情報について説明する。
図2(a)の画素201は、画像200に含まれる各画素のうちの一つである。この画素201を構成するデータ202は、奥行距離情報Zと色情報RGBとを組み合わせた構成(ZRGB構成)となされている。奥行距離情報Zは、その値が大きいほど、この画像が撮影された際にカメラに近い状態(手前に飛び出ている状態)であったことを示している。色情報RGBは、赤(R)、緑(G)、青(B)の三原色の各色の情報である。奥行距離情報Zと色情報RGBはそれぞれが8ビット情報となされており、1画素あたりでは合計32ビットのデータとなされている。なお、ここでは一例として、1画素の奥行距離情報Zの8ビットをZRGB構成の32ビットの中に入れ込む例を挙げたが、この例には限定されず、奥行距離がわかる形式であればどのような形式であっても良い。
In the image 200, depth distance information is stored for each pixel forming the image. The depth distance information stored in each pixel will be described below.
A pixel 201 in FIG. 2( a ) is one of the pixels included in the image 200 . The data 202 forming this pixel 201 has a configuration (ZRGB configuration) in which depth distance information Z and color information RGB are combined. The larger the value of the depth/distance information Z, the closer it was to the camera when the image was taken (the closer it is to the front). The color information RGB is information on each of the three primary colors of red (R), green (G), and blue (B). Each of the depth distance information Z and the color information RGB is 8-bit information, and a total of 32-bit data per pixel. Here, as an example, the 8-bit depth distance information Z of one pixel is inserted into the 32-bit ZRGB configuration, but the present invention is not limited to this example. Any format may be used.

図2(a)に示す平面の画像210は色情報RGBのみから作られる。また、画素ごとの奥行距離情報Zからは奥行マップ211が生成される。奥行マップ211は、画素ごとの奥行距離情報が、各画素の配列に対応して二次元配列されたマップである。なお、図2(a)の例では、図示を簡略にするため、画素の数を減らした粗いメッシュで奥行マップ211が表されている。図2(a)に例示した奥行マップ211において、斜線により表されたメッシュ部分205は、画像200の中で顔のオブジェクト204に相当する領域である。図2(a)の奥行マップ211では、オブジェクト204に相当するメッシュ部分205の奥行距離情報Zの数値が他の部分の数値より大きくなっているが、これは撮影時に顔(オブジェクト204)がカメラに近い位置に存在していたことを示している。 A planar image 210 shown in FIG. 2(a) is created only from color information RGB. A depth map 211 is generated from the depth distance information Z for each pixel. The depth map 211 is a map in which depth distance information for each pixel is two-dimensionally arranged corresponding to the arrangement of each pixel. Note that in the example of FIG. 2A, the depth map 211 is represented by a coarse mesh with a reduced number of pixels for the sake of simplification. In the depth map 211 exemplified in FIG. 2( a ), a hatched mesh portion 205 is a region corresponding to the face object 204 in the image 200 . In the depth map 211 of FIG. 2A, the numerical value of the depth distance information Z of the mesh portion 205 corresponding to the object 204 is larger than the numerical value of the other portions. This indicates that it existed at a position close to

そして、これら平面の画像210と奥行マップ211を基に、仮想3D空間内に画像を配置することが可能となる。図2(b)は、平面の画像210と奥行マップ211に基づいて、仮想3D空間内に画像200を配置した場合の配置結果を3Dワイヤーフレーム207の概略イメージで示した図である。図2(b)において、x方向は画像200の左右方向(画像の右側からx値が増える方向)、y方向は画像200の上下方向(画像の上側でy値が増える方向)を示し、z方向は奥行方向を表している。図2(b)の3Dワイヤーフレーム207においては、奥行方向の値(奥行距離)が大きいほど、z方向の高さが高くなり、画像撮影時にカメラから近いことを表している。図2(b)に示した配置結果の例の場合、z方向の高さが高くなっている領域206は、図2(a)の顔のオブジェクト204に相当する領域である。 Then, based on the plane image 210 and the depth map 211, it is possible to arrange the image in the virtual 3D space. FIG. 2B is a diagram showing a schematic image of a 3D wire frame 207 of a result of arranging the image 200 in the virtual 3D space based on the plane image 210 and the depth map 211 . In FIG. 2B, the x direction indicates the horizontal direction of the image 200 (the direction in which the x value increases from the right side of the image), the y direction indicates the vertical direction of the image 200 (the direction in which the y value increases from the upper side of the image), and z The direction represents the depth direction. In the 3D wire frame 207 of FIG. 2B, the larger the value in the depth direction (depth distance), the higher the height in the z direction, indicating that the object is closer to the camera when the image is captured. In the case of the arrangement result example shown in FIG. 2(b), the region 206 with increased height in the z direction corresponds to the face object 204 in FIG. 2(a).

次に、入力画像からオブジェクトと背景を分離(オブジェクトを抽出)する分離方法について説明する。
これまで説明してきたように、入力画像は画素ごとに奥行距離情報を持つため、奥行距離情報Zに対する閾値として所定の距離を設定し、奥行距離が閾値以内かどうかによりオブジェクトを背景から分離することができる。
Next, a separation method for separating an object and a background (extracting an object) from an input image will be described.
As described above, since the input image has depth distance information for each pixel, a predetermined distance is set as a threshold for the depth distance information Z, and the object is separated from the background depending on whether the depth distance is within the threshold. can be done.

次に、奥行距離情報を持つ画像から抽出されたオブジェクトごとの代表距離値を算出する方法について述べる。
先に説明したように分離された顔のオブジェクト204は、図2(b)の領域206に示すようにz方向(奥行距離)が背景よりも高く(カメラに近く)なっており、3Dワイヤーフレームでは半球形のように表される。
ここで、代表距離値を算出する方法としては複数の方法が考えられ、本実施形態では、以下の第1の算出方法と第2の算出方法の二つの例を挙げる。
第1の算出方法は、オブジェクトを構成する各画素の各奥行距離の値を加算し、その加算結果をオブジェクト内の全画素数で除算することにより、1画素あたりの平均距離値を算出して代表距離値とする方法である。
第2の算出方法は、オブジェクト内の全画素数の中で図2(b)に示す最大の奥行距離の値221を求め、その値を代表距離値とする方法である。
Next, a method of calculating a representative distance value for each object extracted from an image having depth distance information will be described.
The face object 204 separated as described above is higher in the z direction (depth distance) than the background (closer to the camera) as shown in region 206 in FIG. is represented as a hemisphere.
Here, a plurality of methods are conceivable as a method of calculating the representative distance value, and in this embodiment, two examples of the following first calculation method and second calculation method will be given.
The first calculation method calculates the average distance value per pixel by adding the values of the depth distances of the pixels that make up the object and dividing the addition result by the total number of pixels in the object. This is a method of using a representative distance value.
A second calculation method is to obtain the maximum depth distance value 221 shown in FIG.

本実施形態では、これら第1、第2の算出方法の何れかを用いて代表距離値を計算し、先に分離されたオブジェクトを構成する全ての画素の奥行距離に代表距離値を適用することで、図2(c)に示すような円柱型230で表される奥行距離情報を設定する。なお、図2(c)は図2(b)と同様に3Dワイヤーフレームの概略イメージを表している。 In the present embodiment, the representative distance value is calculated using either of the first and second calculation methods, and the representative distance value is applied to the depth distance of all the pixels forming the previously separated object. , depth distance information represented by a cylindrical shape 230 as shown in FIG. 2(c) is set. In addition, FIG.2(c) represents the schematic image of a 3D wire-frame similarly to FIG.2(b).

次に、複数枚の画像を合成する際に、本実施形態の画像合成装置で行われる各処理について、図3と図7を用いて説明する。
図3は本実施形態の画像合成装置において行われる処理の流れを示すフローチャートである。なお、以下のフローチャートの説明では、処理ステップS300~処理ステップS306をS300~S306と略記する。これらのことは後述する他のフローチャートにおいても同様とする。図3のフローチャートの処理は、一例として、本実施形態の画像合成装置の不図示のタッチパネル等の操作部から使用者が開始指示を入力したスタートするとする。なお、外部の装置やネットワーク等を介して開始指示が入力された場合、或いは予め設定された時間等のタイミングで図3のフローチャートの処理が開始されても良い。
Next, each process performed by the image synthesizing apparatus of this embodiment when synthesizing a plurality of images will be described with reference to FIGS. 3 and 7. FIG.
FIG. 3 is a flow chart showing the flow of processing performed in the image synthesizing apparatus of this embodiment. In the following description of the flowchart, processing steps S300 to S306 are abbreviated as S300 to S306. The same applies to other flowcharts to be described later. As an example, the processing of the flowchart of FIG. 3 is started when the user inputs a start instruction from an operation unit such as a touch panel (not shown) of the image synthesizing apparatus of the present embodiment. Note that the processing of the flowchart of FIG. 3 may be started when a start instruction is input via an external device, network, or the like, or at a timing such as a preset time.

制御部105は、S300において、図3のフローチャートの処理を開始すると、先ずメモリ106のメモリ初期化を行った後、S301に処理を進める。
S301に進むと、制御部105は、画像データ読み込み部100に対して画像データを取得することを指示する。これにより、画像データ読み込み部100は、不図示の外部メディア等から画像データを読み込むことで取得する。そして、制御部105は、画像データ読み込み部100が取得した画像データをメモリ106に蓄積させる。
さらに、制御部105は、表示部104に対し、ユーザが背景画像の選択を行うためのUI(ユーザインターフェイス)画面を表示させる。このときの制御部105は、メモリ106に蓄積された画像データを読み出してデコード部101によりデコードさせ、撮影画像をサムネイル画像に変換した上で、表示部104の画面上に一覧形式により表示させる。
3, the control unit 105 first initializes the memory 106, and then advances the process to S301.
In step S301, the control unit 105 instructs the image data reading unit 100 to acquire image data. Accordingly, the image data reading unit 100 acquires image data by reading it from an external medium (not shown) or the like. Then, the control unit 105 stores the image data acquired by the image data reading unit 100 in the memory 106 .
Furthermore, the control unit 105 causes the display unit 104 to display a UI (user interface) screen for the user to select a background image. At this time, the control unit 105 reads out the image data stored in the memory 106 and causes the decoding unit 101 to decode it, converts the captured image into a thumbnail image, and displays it on the screen of the display unit 104 in a list format.

図7(a)は、背景画像の選択の際に表示部104の画面に表示されるUI画面710の一例を示している。このUI画面710には、撮像画像のサムネイル画像の一覧と、背景画像の選択をユーザに促すメッセージとが表示される。図7(a)には、サムネイル画像として、人物(A)が写った画像A、人物(B)が写った画像B、人物(C)が写った画像Cと、人物が写っていない画像Dの4枚が一覧表示されている例を示している。これら各画像の中の所望の画像に対し、ユーザが選択指示を入力すると、その選択指示された画像には、チェックマーク713が表示される。チェックマーク713は、その画像が選択された状態であることをユーザに認識させるアイコンである。図7(a)では、人物が写っていない画像Dがユーザにより選択されたことでチェックマーク713が表示された例が示されている。また、図7(a)のUI画面710には、完了ボタン712も表示される。制御部105は、各画像の中で何れかの画像がユーザにより選択された上で、完了ボタン712への決定指示がなされた場合、その画像を合成の際に使用する背景画像として確定する。図7(a)の例では、画像Dにチェックマーク713が表示された状態で、完了ボタン712への決定指示がなされたことにより、人物が写っていない画像Dが背景画像として確定されたとする。 FIG. 7A shows an example of a UI screen 710 displayed on the screen of the display unit 104 when selecting a background image. The UI screen 710 displays a list of thumbnail images of captured images and a message prompting the user to select a background image. FIG. 7A shows, as thumbnail images, an image A with a person (A), an image B with a person (B), an image C with a person (C), and an image D with no person. 4 shows an example in which four images of are displayed in a list. When the user inputs a selection instruction for a desired image among these images, a check mark 713 is displayed on the selected image. A check mark 713 is an icon that allows the user to recognize that the image is selected. FIG. 7A shows an example in which a check mark 713 is displayed when the user selects an image D that does not include a person. A completion button 712 is also displayed on the UI screen 710 in FIG. 7A. When the user selects one of the images and instructs the completion button 712 to make a decision, the control unit 105 determines that image as a background image to be used for synthesis. In the example of FIG. 7(a), it is assumed that image D with no person is confirmed as the background image by pressing the completion button 712 while a check mark 713 is displayed on image D. .

そして、背景画像が確定すると、制御部105はS302に処理を進める。
S302に進むと、制御部105は、表示部104に対し、ユーザが合成対象の画像(以下、合成対象画像とする)の選択を行うためのUI画面を表示させる。
Then, when the background image is confirmed, the control unit 105 advances the processing to S302.
In step S302, the control unit 105 causes the display unit 104 to display a UI screen for the user to select an image to be synthesized (hereinafter referred to as an image to be synthesized).

図7(b)は、合成対象画像の選択の際に表示部104の画面に表示されるUI画面720の一例を示している。UI画面720には、UI画面710と同様に撮像画像のサムネイル画像の一覧として、画像A、画像B、画像C、画像Dの4枚が表示されている例を示している。また、このときのUI画面720には、合成対象画像の選択をユーザに促すメッセージが表示される。そして、UI画面720において、所望の画像に対してユーザが選択指示を入力すると、その選択指示された画像には前述同様のチェックマーク713が表示される。図7(b)には、人物(A)が写った画像Aと、人物(B)が写った画像Bと、人物(C)が写った画像Cとが、ユーザにより選択されたことでチェックマーク713が表示された例が示されている。また、図7(b)のUI画面720は、完了ボタン722も表示される。制御部105は、各画像の中で所望の画像がユーザにより選択された上で、完了ボタン722への決定指示がなされた場合、その画像を合成対象画像として確定する。図7(b)の例では、画像Aと画像Bと画像Cにチェックマーク713が表示された状態で、完了ボタン722への決定指示がなされたことにより、それら画像Aと画像Bと画像Cの三枚が合成対象画像として確定されたとする。そして、合成対象画像が確定すると、制御部105はS303に処理を進める。 FIG. 7B shows an example of a UI screen 720 displayed on the screen of the display unit 104 when selecting an image to be synthesized. As with the UI screen 710, the UI screen 720 shows an example in which four thumbnail images of image A, image B, image C, and image D are displayed as a list of thumbnail images of captured images. At this time, the UI screen 720 also displays a message prompting the user to select an image to be synthesized. Then, when the user inputs a selection instruction for a desired image on the UI screen 720, the check mark 713 similar to that described above is displayed on the selected image. In FIG. 7B, an image A including a person (A), an image B including a person (B), and an image C including a person (C) are checked by the user. An example in which a mark 713 is displayed is shown. A completion button 722 is also displayed on the UI screen 720 of FIG. 7B. When the user selects a desired image from among the images and issues a determination instruction to the completion button 722, the control unit 105 determines that image as an image to be synthesized. In the example of FIG. 7B, when the check mark 713 is displayed on the image A, the image B, and the image C, the image A, the image B, and the image C are displayed when the completion button 722 is pressed. are determined as images to be synthesized. Then, when the composition target image is determined, the control unit 105 advances the processing to S303.

S303に進むと、制御部105は、S302で確定された全ての合成対象画像に対して、次のS304の代表距離値計算処理が終わったか否かを判定する。そして、制御部105は、代表距離値計算処理が行われていない未処理の合成対象画像がある場合には、その未処理の合成対象画像に対するS304の代表距離値計算処理を行わせる。 Proceeding to S303, the control unit 105 determines whether or not the next representative distance value calculation processing of S304 has been completed for all the synthesis target images confirmed in S302. Then, if there is an unprocessed synthesis target image for which the representative distance value calculation process has not been performed, the control unit 105 causes the unprocessed synthesis target image to be subjected to the representative distance value calculation process of S304.

S304において、制御部105は、オブジェクト抽出部103及び距離算出部107を制御して、S302で確定された合成対象画像に対する代表距離値計算処理を行わせる。S304の処理として、先ずオブジェクト抽出部103は、合成対象画像1枚について、その画像から被写体(例えば人物のオブジェクト)を抽出して背景から分離する。次に距離算出部107は、オブジェクト抽出部103により抽出されたオブジェクトを構成する各画素の奥行距離情報を基に、前述したように代表距離値を計算する。そして、制御部105は、距離算出部107にて計算された代表距離値を、抽出されたオブジェクトに関連付けてメモリ106に保存させる。その後、制御部105は、S303に処理を戻し、全ての合成対象画像に対する代表距離値計算処理が終わったか否かを再度判定する。このように、制御部105は、全ての合成対象画像の代表距離値計算処理が終わるまで、S303の判定処理とS304の代表距離値計算処理を繰り返す。そして、制御部105は、S303において、S302で確定された全ての合成対象画像に対する代表距離値計算処理が終わったと判定した場合、S305に処理を進める。 In S304, the control unit 105 controls the object extraction unit 103 and the distance calculation unit 107 to perform representative distance value calculation processing on the synthesis target image confirmed in S302. As the process of S304, the object extraction unit 103 first extracts a subject (for example, a human object) from one synthesis target image and separates it from the background. Next, the distance calculation unit 107 calculates the representative distance value based on the depth distance information of each pixel forming the object extracted by the object extraction unit 103, as described above. Then, the control unit 105 causes the memory 106 to store the representative distance value calculated by the distance calculation unit 107 in association with the extracted object. After that, the control unit 105 returns the processing to S303, and determines again whether or not the representative distance value calculation processing for all the images to be combined has ended. In this manner, the control unit 105 repeats the determination process of S303 and the representative distance value calculation process of S304 until the representative distance value calculation process of all synthesis target images is completed. Then, if the control unit 105 determines in S303 that the representative distance value calculation processing for all the synthesis target images confirmed in S302 has ended, the processing advances to S305.

S305に進むと、制御部105は、メモリ106内に各オブジェクト(人物オブジェクト)と関連付けられて格納されている代表距離値を基に、各オブジェクトの合成順番を決定する処理(代表距離値で合成順番をソートする処理)を行う。合成順番は、例えば代表距離値が小さい順(つまり撮影時にカメラから遠い順)となされる。その後、制御部105は、S306に処理を進める。 Proceeding to S305, the control unit 105 performs a process of determining the composition order of each object based on the representative distance value stored in the memory 106 in association with each object (human object) processing to sort the order). The synthesis order is, for example, in ascending order of the representative distance value (that is, in ascending order of distance from the camera at the time of photographing). After that, the control unit 105 advances the processing to S306.

S306に進むと、制御部105は、合成部102に対して、S305で決定された合成順番、つまり代表距離値が小さい順(カメラから遠い順)で、メモリ106からオブジェクトを順に読み出し、その読み出した順番で背景画像(D)に合成させる。そして、制御部105は、合成部102による合成処理がなされて得られた合成画像データをメモリ106に保存させる。 Proceeding to S306, the control unit 105 causes the synthesis unit 102 to sequentially read objects from the memory 106 in the synthesis order determined in S305, that is, in ascending order of the representative distance value (in order of distance from the camera). are combined with the background image (D) in this order. Then, the control unit 105 causes the memory 106 to store the synthesized image data obtained by the synthesizing process performed by the synthesizing unit 102 .

ここで、前述した人物が写った3枚の画像A~画像Cのうち、画像Aのオブジェクトの代表距離値が「100」、画像Bのオブジェクトの代表距離値が「10」、画像Cのオブジェクトの代表距離値が「50」であり、値が大きいほどカメラから近いとする。この場合、合成順番は、画像Bのオブジェクト、画像Cのオブジェクト、画像Aのオブジェクトの順番になる。したがってこの場合、合成部102では、背景画像(D)に画像Bのオブジェクト、その後、画像Cのオブジェクト、最後に画像Aのオブジェクトの順番で、各オブジェクトの画像が重ねられるような合成処理が行われる。これにより、代表距離値が大きい(カメラに近い)被写体が最後に画像合成されることになる。 Here, among the three images A to C in which a person is photographed, the representative distance value of the object of image A is "100", the representative distance value of the object of image B is "10", and the object of image C is "10". is "50", and the larger the value, the closer it is to the camera. In this case, the composition order is the order of the image B object, the image C object, and the image A object. Therefore, in this case, the synthesizing unit 102 performs synthesizing processing such that the images of the respective objects are superimposed on the background image (D) in the order of the object of image B, then the object of image C, and finally the object of image A. will be As a result, an object with a large representative distance value (close to the camera) is image synthesized last.

本実施形態においては、オブジェクトごとに代表距離値を計算しており、各オブジェクト内で奥行距離が均一化されるため、他の画像のオブジェクトと合成する際に、オブジェクト同士が混ざり合って合成されてしまうことがない。したがって、本実施形態によれば、違和感の少ない合成画像を得ることが可能となる。 In this embodiment, the representative distance value is calculated for each object, and the depth distance is uniformed within each object. I never get tired of it. Therefore, according to the present embodiment, it is possible to obtain a synthesized image that gives less discomfort.

<第2実施形態>
次に、第2実施形態として、オブジェクト同士の重なり判定を行い、合成時に重ならないオブジェクトについては代表距離値計算処理をスキップする例について説明する。なお、第2実施形態の画像合成装置の構成は図1と同様であるため図示と説明は省略する。
合成対象画像に含まれるオブジェクトが重ならない場合の例について、図4を用いながら説明する。
<Second embodiment>
Next, as a second embodiment, an example will be described in which overlap determination between objects is performed, and representative distance value calculation processing is skipped for objects that do not overlap when combined. Note that the configuration of the image synthesizing apparatus of the second embodiment is the same as that of FIG. 1, so illustration and description thereof will be omitted.
An example in which the objects included in the synthesis target image do not overlap will be described with reference to FIG.

図4の例において、画像400,401,402はそれぞれ合成対象画像であるとする。またオブジェクト404,405,406は、それぞれ対応した画像400,401,402において背景から分離されたオブジェクトであるとする。また、画像401のオブジェクト405と画像402のオブジェクト406は合成時に重なるオブジェクトであり、一方、画像400のオブジェクト404は他の画像のオブジェクトとは重ならないオブジェクトであるとする。 In the example of FIG. 4, assume that images 400, 401, and 402 are images to be synthesized. Also assume that objects 404, 405 and 406 are objects separated from the background in the corresponding images 400, 401 and 402, respectively. It is also assumed that the object 405 of the image 401 and the object 406 of the image 402 are objects that overlap each other when synthesized, while the object 404 of the image 400 is an object that does not overlap with objects of other images.

そして、画像403は、各オブジェクト404,405,406が背景画像に合成された後の合成画像を表している。すなわち図4の例の場合、重ならないオブジェクト404はオブジェクト407として画像403に配置され、一方、オブジェクト405はオブジェクト408、オブジェクト406はオブジェクト409として画像403に配置される。 An image 403 represents a composite image after each of the objects 404, 405, and 406 has been composited with the background image. That is, in the example of FIG. 4, non-overlapping object 404 is placed in image 403 as object 407, while object 405 is placed in image 403 as object 408 and object 406 as object 409. FIG.

第2実施形態の場合、制御部105は、オブジェクト抽出部103が複数の合成対象画像からそれぞれ抽出した複数のオブジェクト同士が重なるか否かを判定する重なり判定処理を行う。すなわち、代表距離値の計算が行われる前に、制御部105は、オブジェクト抽出部103にて抽出されたオブジェクト404,405,406のそれぞれ位置関係を認識し、それらオブジェクト同士が重なるか否かを判定する。そして、制御部105は、オブジェクト404のように、他のオブジェクトと重ならないオブジェクトを検出し、そのオブジェクト404については代表距離値計算処理をスキップさせる。 In the case of the second embodiment, the control unit 105 performs overlap determination processing for determining whether or not the plurality of objects extracted from the plurality of synthesis target images by the object extraction unit 103 overlap each other. That is, before the representative distance value is calculated, the control unit 105 recognizes the positional relationship of each of the objects 404, 405, and 406 extracted by the object extraction unit 103, and determines whether or not the objects overlap each other. judge. Then, the control unit 105 detects an object such as the object 404 that does not overlap with other objects, and skips the representative distance value calculation processing for that object 404 .

図5は、第2実施形態における処理のフローチャートである。
図5のフローチャートにおいて、図3のフローチャートと同じ処理ステップには同一の参照符号を付してそれらの説明を省略し、ここでは異なる処理ステップ(S501、S502、S503)についてのみ説明する。
FIG. 5 is a flow chart of processing in the second embodiment.
In the flowchart of FIG. 5, the same reference numerals are given to the same processing steps as in the flowchart of FIG.

図5のフローチャートの場合、S302の後、制御部105は、S503に処理を進める。
S503に進むと、制御部105は、S302で確定された全ての合成対象画像からオブジェクト抽出部103が抽出した全てのオブジェクトについて、それぞれ合成時に重なるか否かを判定する。例えば、図4の場合、制御部105は、オブジェクト405,406は重なると判定し、オブジェクト404は他のどのオブジェクトとも重ならないと判定する。このS503の後、制御部105は、S303に進み、全ての合成対象画像の処理が終わったと判定した場合にはS305に処理を進め、一方、未処理の合成対象画像がある場合にはS501に処理を進める。
In the case of the flowchart of FIG. 5, after S302, the control unit 105 advances the process to S503.
Proceeding to S503, the control unit 105 determines whether or not all objects extracted by the object extraction unit 103 from all the compositing target images determined in S302 will overlap each other at the time of compositing. For example, in the case of FIG. 4, the control unit 105 determines that objects 405 and 406 overlap, and determines that object 404 does not overlap any other object. After S503, the control unit 105 advances to S303. If it is determined that all synthesis target images have been processed, the control unit 105 advances the processing to S305. Proceed with processing.

S501に進むと、制御部105は、S503で行った重なり判定の結果に基づき、合成時に重なると判定されたオブジェクトについては、S304において代表距離値の算出を行わせた後、S303に処理を戻す。一方、制御部105は、S501において合成時に重ならないと判定されたオブジェクトについてはS502の処理を行う。 In step S501, the control unit 105 causes the representative distance value to be calculated in step S304 for objects that are determined to overlap when combined based on the result of the overlap determination performed in step S503, and then returns the processing to step S303. . On the other hand, the control unit 105 performs the processing of S502 for the objects determined in S501 not to overlap at the time of composition.

S502に進むと、制御部105は、そのオブジェクトは合成時に他のオブジェクトとは重ならず、代表距離値に基づく合成処理が不要となるため、距離算出部107に対し予め決められた初期値を設定させる。そして、制御部105は、その初期値の代表距離値をオブジェクトに関連付けてメモリ106に保存させる。S502の後、制御部105は、S305に処理を進める。S305以降の処理は前述同様であるため説明は省略する。 In step S502, the control unit 105 sends a predetermined initial value to the distance calculation unit 107 because the object does not overlap other objects during synthesis and the synthesis processing based on the representative distance value becomes unnecessary. set. Then, the control unit 105 stores the initial representative distance value in the memory 106 in association with the object. After S502, the control unit 105 advances the process to S305. Since the processing after S305 is the same as described above, the description is omitted.

第2実施形態によれば、合成時にオブジェクト同士が重ならないオブジェクトについては代表距離値計算処理をスキップすることにより、代表距離値計算による処理負担を軽減可能となる。また、合成時に重なるオブジェクト同士では、第1実施形態の場合と同様に、代表距離値に基づいた合成処理が行われるため、オブジェクト同士が混ざり合って合成されてしまうことがなく、違和感の少ない合成画像を得ることができる。 According to the second embodiment, by skipping the representative distance value calculation processing for objects that do not overlap each other at the time of combining, it is possible to reduce the processing load due to the representative distance value calculation. In addition, as in the case of the first embodiment, objects that overlap each other at the time of synthesis are synthesized based on the representative distance value. image can be obtained.

<第3実施形態>
次に、第3実施形態では、合成時のオブジェクトが特定のオブジェクト、例えば人物の顔のオブジェクトである場合の画像合成方法について説明する。
ここで、第1実施形態では、抽出されて合成されるオブジェクトとして人物オブジェクトを例に挙げたが、第3実施形態では特に人物の顔のオブジェクトが合成対象画像に含まれる場合について説明する。第3実施形態の場合、オブジェクト抽出部103は、人物の顔のオブジェクトが合成対象画像に含まれるか否かを判定する顔判定機能をも有している。第3実施形態の場合、オブジェクト抽出部103は、前述したようにオブジェクトの奥行距離を測ると同時に、顔の有無をも判定する。そして、制御部105は、オブジェクト抽出部103が判定した顔の有無情報と代表距離値とをオブジェクトに関連付けてメモリ106に保存しておき、合成処理の際に使用する。
<Third Embodiment>
Next, in the third embodiment, an image synthesizing method in which the object to be synthesized is a specific object, for example, a human face object will be described.
Here, in the first embodiment, a person object was taken as an example of an object to be extracted and synthesized, but in the third embodiment, a case in which a person's face object is included in an image to be synthesized will be described. In the case of the third embodiment, the object extraction unit 103 also has a face determination function for determining whether or not a person's face object is included in the composition target image. In the case of the third embodiment, the object extraction unit 103 measures the depth distance of the object as described above and also determines whether or not there is a face. Then, the control unit 105 associates the face presence/absence information and the representative distance value determined by the object extraction unit 103 with the object, stores them in the memory 106, and uses them in the synthesis process.

図6は、第3実施形態における処理のフローチャートである。
図6のフローチャートにおいて、図3のフローチャートと同じ処理ステップには同一の参照符号を付して、それらの説明は省略し、ここでは異なる処理ステップ(S601、S602、S603、S604)についてのみ説明する。
FIG. 6 is a flow chart of processing in the third embodiment.
In the flowchart of FIG. 6, the same processing steps as those of the flowchart of FIG. 3 are denoted by the same reference numerals, and descriptions thereof are omitted, and only different processing steps (S601, S602, S603, S604) are described here. .

図6のフローチャートの場合、S302の後、制御部105は、S601に処理を進める。
S601に進むと、制御部105は、S302で確定された全ての合成対象画像の代表距離値計算処理と顔認識処理が終わったか否かを判定する。そして、制御部105は、代表距離値計算処理と顔認識処理が行われていない未処理の合成対象画像がある場合には、その未処理の合成対象画像に対するS602の代表距離値計算処理と顔認識処理を行わせる。
In the case of the flowchart of FIG. 6, after S302, the control unit 105 advances the process to S601.
Upon proceeding to S601, the control unit 105 determines whether or not the representative distance value calculation processing and face recognition processing for all the compositing target images confirmed in S302 have ended. Then, if there is an unprocessed composition target image for which the representative distance value calculation processing and the face recognition processing have not been performed, the control unit 105 performs the representative distance value calculation processing and face recognition processing of S602 on the unprocessed composition target image. Let the recognition process run.

S602に進むと、制御部105は、オブジェクト抽出部103及び距離算出部107を制御して、S302で確定された合成対象画像に対する代表距離値計算処理と顔認識処理を行わせる。S304の処理として、先ずオブジェクト抽出部103は、合成対象画像1枚について、その画像から人物のオブジェクトを抽出する。さらに、オブジェクト抽出部103は、その人物の顔のオブジェクトがあるか否か判定して、顔のオブジェクトがあると判定した場合には、メモリ106に画像と関連付けて顔の有無情報をも保存しておく。また、距離算出部107は、前述同様に、オブジェクト抽出部103により抽出されたオブジェクトを構成する各画素の奥行距離情報を基に代表距離値を計算する。そして、制御部105は、距離算出部107にて計算された代表距離値を、抽出されたオブジェクトに関連付けてメモリ106に保存させる。その後、制御部105は、S601に処理を戻し、全ての合成対象画像に対する代表距離値計算処理と顔認識処理が終わったか否かを再度判定する。このように、制御部105は、全ての合成対象画像の代表距離値計算処理と顔認識処理が終わるまで、S601の判定処理とS602の代表距離値計算処理及び顔認識処理を繰り返す。そして、制御部105は、S601において、全ての成対象画像に対する代表距離値計算処理と顔認識処理が終わったと判定した場合、S603に処理を進める。 After proceeding to S602, the control unit 105 controls the object extraction unit 103 and the distance calculation unit 107 to perform representative distance value calculation processing and face recognition processing on the synthesis target image determined in S302. As the process of S304, the object extraction unit 103 first extracts a human object from one image to be synthesized. Furthermore, the object extraction unit 103 determines whether or not there is a face object of the person, and if it determines that there is a face object, stores the face presence/absence information in the memory 106 in association with the image. Keep Further, the distance calculation unit 107 calculates a representative distance value based on the depth distance information of each pixel forming the object extracted by the object extraction unit 103, in the same manner as described above. Then, the control unit 105 causes the memory 106 to store the representative distance value calculated by the distance calculation unit 107 in association with the extracted object. After that, the control unit 105 returns the processing to S601, and determines again whether or not the representative distance value calculation processing and the face recognition processing for all synthesis target images have been completed. In this manner, the control unit 105 repeats the determination processing in S601 and the representative distance value calculation processing and face recognition processing in S602 until the representative distance value calculation processing and face recognition processing for all synthesis target images are completed. Then, if the control unit 105 determines in S601 that the representative distance value calculation processing and the face recognition processing for all composition target images have ended, the processing advances to S603.

S603に進むと、制御部105は、メモリ106内に各オブジェクトと関連付けられて格納されている代表距離値と顔の有無情報とを基に、各オブジェクトの合成順番をソートする処理を行う。この場合、制御部105は、複数の合成対象画像から抽出された複数のオブジェクトの代表距離値をメモリ106から取得し、それら代表距離値の差分が一定範囲内となっている近い値であるかどうかを判定する。さらに、制御部105は、オブジェクトの代表距離値が近い場合において、何れかのオブジェクトに特定のオブジェクトが含まれているか否か判定する。この例の場合、制御部105は、顔の有無情報を用い、代表距離値が近いオブジェクトの中に顔オブジェクトを含むオブジェクトが存在するか否かを判定する。そして、制御部105は、代表距離値が近いオブジェクトの中に顔オブジェクトを含むオブジェクトが存在する場合、そのオブジェクトが合成時に手前側に合成(後から合成)されるように合成順番を決定する。この場合、制御部105は、代表距離値の差分が一定範囲内となっている各オブジェクトのうち、顔オブジェクトを含むオブジェクトが合成時に手前側に合成される合成順番になるように、当該顔オブジェクトを含むオブジェクトの代表距離値を変更する。このS603の後、制御部105は、S604に処理を進める。 Proceeding to S603, the control unit 105 sorts the compositing order of each object based on the representative distance value and face presence/absence information stored in the memory 106 in association with each object. In this case, the control unit 105 acquires from the memory 106 the representative distance values of the plurality of objects extracted from the plurality of synthesis target images, and determines whether the difference between the representative distance values is a close value within a certain range. determine what Further, the control unit 105 determines whether or not any of the objects includes the specific object when the representative distance values of the objects are close. In this example, the control unit 105 uses face presence/absence information to determine whether an object including a face object exists among objects having close representative distance values. Then, when an object including a face object exists among objects having close representative distance values, the control unit 105 determines the synthesis order so that the object is synthesized on the near side (synthesed later) when synthesizing. In this case, the control unit 105 arranges the face objects so that, among the objects whose representative distance value difference is within a certain range, the object including the face object is synthesized in the front side during synthesis. Change the representative distance value for objects containing . After S603, the control unit 105 advances the process to S604.

なお、制御部105は、顔オブジェクトを含んでいない方のオブジェクトが合成時において後ろ側に合成される合成順番になるように、当該顔オブジェクトを含んでいない方のオブジェクトの代表距離値を変更しても良い。
また、例えば共に顔を含むオブジェクト同士の代表距離値の差分が一定範囲内である場合には、それら顔を含む各オブジェクトでは代表距離値に応じた合成順番に決定される。このように共に顔を含むオブジェクト同士の代表距離値が近い場合には、さらに後述する第4実施形態のように顔の部位等の代表距離値を用いて合成を行うようにしても良い。
Note that the control unit 105 changes the representative distance value of the object that does not include the face object so that the object that does not include the face object is synthesized on the rear side during synthesis. can be
Further, for example, when the difference in the representative distance value between objects that both include faces is within a certain range, the synthesis order is determined according to the representative distance value for each object that includes the face. In this way, when the representative distance values of objects including faces are close to each other, synthesis may be performed using the representative distance values of facial parts, etc., as in the fourth embodiment described later.

S604に進むと、制御部105は、合成部102に対して、S603で決定された代表距離値による合成順番、つまり代表距離値が小さいオブジェクトの順(カメラから遠い順)で背景画像に合成させる。すなわちこの場合、画像合成では、代表距離値の差分が一定範囲内となっていた各オブジェクトのうち、顔を含まない方のオブジェクトから背景画像に合成され、その後、顔を含むオブジェクトが合成される。そして、制御部105は、合成部102による合成処理がなされて得られた合成画像データをメモリ106に保存させる。 In step S604, the control unit 105 causes the combining unit 102 to combine objects with the background image in the order of composition according to the representative distance value determined in step S603, that is, in the order of objects with smaller representative distance values (in order of distance from the camera). . That is, in this case, in the image synthesis, among the objects whose representative distance value difference is within a certain range, the object not including the face is synthesized with the background image, and then the object including the face is synthesized. . Then, the control unit 105 causes the memory 106 to store the synthesized image data obtained by the synthesizing process performed by the synthesizing unit 102 .

第3実施形態における画像合成について図8を用いて具体的に説明する。
図8は画像E,画像F,画像Gの3枚が合成対象画像となっている例を挙げる。画像Eのオブジェクトは代表距離値が1.0mで、かつ顔認識の結果、顔のオブジェクトは存在しないと判定されたものであるとする。画像Fと画像Gはそれぞれオブジェクトの代表距離値が同じ0.8mであるが、画像Fには顔のオブジェクトが存在すると判定されたのに対し、画像Gには顔のオブジェクトが存在しないと判定されたものであるとする。
Image composition in the third embodiment will be specifically described with reference to FIG.
FIG. 8 shows an example in which three images, image E, image F, and image G, are images to be synthesized. It is assumed that the object of image E has a representative distance value of 1.0 m, and that it has been determined that there is no face object as a result of face recognition. Image F and image G have the same representative distance value of 0.8 m for each object, but image F is judged to have a face object, while image G is judged to have no face object. It is assumed that

この場合、合成順番は以下のように決定される。
代表距離値がカメラから遠い画像Eのオブジェクトは、背景画像に最初に合成される合成順番として決定される。画像Fと画像Gのオブジェクトは代表距離値が同じであるため、顔の有無が判断される。画像Fには顔のオブジェクトが含まれ、画像Gは顔のオブジェクトが含まれないため、画像Gのオブジェクトの合成順番が先に決定され、画像Fのオブジェクトの合成順番は画像Gのオブジェクトの後に決定される。このようにすることで、画像Eのオブジェクトが最も奥側に配置され、次に、画像Gのオブジェクトが配置され、画像Fの顔のオブジェクトが最前面に配置された合成画像が得られることになる。
In this case, the synthesis order is determined as follows.
Objects in image E whose representative distance value is far from the camera are determined as the composition order in which they are first composited with the background image. Since the objects in image F and image G have the same representative distance value, presence/absence of a face is determined. Since image F contains a face object and image G does not contain a face object, the composition order of image G objects is determined first, and the composition order of image F objects is determined after image G objects. It is determined. By doing so, a composite image can be obtained in which the object of image E is arranged on the farthest side, the object of image G is arranged next, and the face object of image F is arranged in the foreground. Become.

第3実施形態では、代表距離値を使用しながら合成を行うが、代表距離値が近い値になっているオブジェクト同士については顔のオブジェクトを含むか否かを判定し、顔のオブジェクトを含むオブジェクトについては手前側に合成される合成順番を決定する。これにより、第3実施形態においても違和感のない合成画像が得られる。 In the third embodiment, synthesis is performed while using representative distance values. Objects having close representative distance values are judged whether or not they contain a face object. Determines the order of compositing on the near side. As a result, a natural synthesized image can be obtained even in the third embodiment.

<第4実施形態>
第4実施形態では、第1実施形態で述べた代表距離値を算出する際の異なる算出方法について説明する。
第4実施形態における代表距離値の算出方法では、オブジェクトの重なりを比較する対象となる二つ以上のオブジェクトについてそれぞれ同じ部位の奥行距離情報を算出し、それを代表距離値とする。
<Fourth Embodiment>
In the fourth embodiment, a different calculation method for calculating the representative distance value described in the first embodiment will be described.
In the method of calculating the representative distance value in the fourth embodiment, the depth distance information of the same part is calculated for each of two or more objects whose overlaps are to be compared, and is used as the representative distance value.

第4実施形態の代表距離値算出方法について、図9(a)と図9(b)を用いながら説明する。図9(a)において、画像900は、三人の人物が被写体として撮影された画像である。画像900は、人物(A)、人物(B)、人物(C)の三人の顔画像901,902,903が写っている例に挙げている。顔画像901は人物(A)の顔の画像であり、帽子904を着用している。顔画像902は人物(B)の顔の画像であり、顔を隠すものは存在していないとする。顔画像903は人物(C)の顔の画像であり、顔の前に手905があるとする。 The representative distance value calculation method of the fourth embodiment will be described with reference to FIGS. 9(a) and 9(b). In FIG. 9A, an image 900 is an image in which three persons are photographed as subjects. An image 900 is an example in which face images 901, 902, and 903 of three persons, person (A), person (B), and person (C) are shown. A face image 901 is a face image of a person (A) wearing a hat 904 . It is assumed that the face image 902 is the image of the face of the person (B), and there is nothing that hides the face. A face image 903 is a face image of a person (C), and a hand 905 is in front of the face.

図9(b)は図9(a)の例における距離マップ910を前述同様に示した図である。図9(b)に示すように、距離マップ910は、図9(a)の各被写体(人物)と帽子や手の奥行距離を含んだ距離マップとなっている。この図9(b)の距離マップ910において、斜線により表されたメッシュ部分911は顔画像901及び帽子904に対応しており、メッシュ部分912は顔画像902に、メッシュ部分913は顔画像903及び手905に対応している。メッシュ部分912では、顔画像902の中央に相当する部分917の奥行距離の値が大きくなっている。一方、メッシュ部分911の場合、顔画像901の中央に相当する部分916の奥行距離の値よりも、帽子904に対応した部分914の奥行距離の値の方が大きくなっている。また、メッシュ部分913の場合、顔画像903の中央に相当する部分919よりも、手905に対応した部分915の奥行距離の値の方が大きくなっている。 FIG. 9(b) is a diagram showing the distance map 910 in the example of FIG. 9(a) in the same manner as described above. As shown in FIG. 9(b), the distance map 910 is a distance map including the depth distance between each subject (person) and the hat or hand in FIG. 9(a). In the distance map 910 of FIG. 9(b), a hatched mesh portion 911 corresponds to the face image 901 and the hat 904, a mesh portion 912 corresponds to the face image 902, and a mesh portion 913 corresponds to the face image 903 and the hat 904. It corresponds to hand 905 . In the mesh portion 912, the depth distance value of the portion 917 corresponding to the center of the face image 902 is large. On the other hand, in the case of the mesh portion 911 , the depth distance value of the portion 914 corresponding to the hat 904 is larger than the depth distance value of the portion 916 corresponding to the center of the face image 901 . In the case of the mesh portion 913 , the value of the depth distance of the portion 915 corresponding to the hand 905 is larger than that of the portion 919 corresponding to the center of the face image 903 .

距離算出部107は、人物(A)の顔画像901及び帽子904、人物(B)の顔画像902、人物(C)の顔画像903及び手905を含む各オブジェクトの代表距離値を計算する。そして、距離算出部107は、それら各オブジェクトにそれぞれ対応したメッシュ部分911,912,913における各画素の奥行距離を合計して平均し、代表距離値を算出する。ただし、図9(a)の画像900の場合、代表距離値の計算結果は、帽子904や手905等の奥行距離の影響を受けることになる。 The distance calculation unit 107 calculates a representative distance value for each object including the face image 901 and hat 904 of person (A), the face image 902 of person (B), the face image 903 and hand 905 of person (C). Then, the distance calculation unit 107 sums and averages the depth distances of the pixels in the mesh portions 911, 912, and 913 corresponding to the respective objects, and calculates a representative distance value. However, in the case of the image 900 in FIG. 9A, the calculation result of the representative distance value is affected by the depth distance of the hat 904, the hand 905, and the like.

そこで、第4実施形態では帽子904や手905などの要因を除くようにして、顔の位置のみを比較する。ここで、単純に顔だけの奥行距離を比較するために、制御部105は、オブジェクト抽出部103に対し、各顔画像901,902,903のそれぞれから、例えば鼻の部位(パーツ)だけを抽出するよう指示する。顔の鼻等の部位を認識する技術は既存の技術であるため、その説明は省略する。そして、距離算出部107では、オブジェクト抽出部103により抽出された鼻の位置に該当する各画素の奥行距離の値を加算平均して代表距離値として算出する。図9(b)の例の場合、鼻の部分に相当する奥行距離の値は、前述した顔の中央に相当する部分916の距離値「9」、部分917の距離値「10」、部分919の距離値「8」となる。 Therefore, in the fourth embodiment, the hat 904, the hand 905, and other factors are excluded, and only the positions of the faces are compared. Here, in order to simply compare the depth distances of only the faces, the control unit 105 instructs the object extraction unit 103 to extract, for example, only nose parts from each of the face images 901, 902, and 903. instruct to do so. Since the technology for recognizing a part of the face such as the nose is an existing technology, the description thereof will be omitted. Then, the distance calculation unit 107 averages the values of the depth distance of each pixel corresponding to the position of the nose extracted by the object extraction unit 103 to calculate a representative distance value. In the case of the example of FIG. 9B, the depth distance value corresponding to the nose portion is the distance value "9" for the portion 916 corresponding to the center of the face described above, the distance value "10" for the portion 917, and the distance value "10" for the portion 919 distance value "8".

このように第4実施形態では、顔の一部の部位(パーツ)から代表距離値を計算することで、計算面積を減らすことに加え、帽子や手などの要素を省いて顔のオブジェクトの代表距離値を計算することができる。ここでは、顔のパーツとして鼻を挙げたが、これには限定されず、例えば目や口等のように特徴があり認識し易く、奥行距離の比較が容易な部位であれば良い。また、人体でなくても、自動車同士の比較では自動車のタイヤ位置のようにオブジェクト抽出部103が抽出可能なものであればどのようなものであっても良い。 Thus, in the fourth embodiment, by calculating the representative distance value from a part of the face (parts), in addition to reducing the calculation area, elements such as hats and hands are omitted to represent the face object. A distance value can be calculated. Here, the nose is used as a part of the face, but the present invention is not limited to this, and any part such as the eyes, mouth, etc. may be used as long as it has a feature, is easy to recognize, and is easy to compare depth distances. Moreover, even if it is not a human body, it may be anything that can be extracted by the object extraction unit 103, such as tire positions of automobiles, when comparing automobiles.

<第5実施形態>
第5実施形態では、第1実施形態で説明したオブジェクトの奥行距離情報を編集して、他のオブジェクトと合成する方法について説明する。
この第5実施形態における合成方法について図10を用いて説明する。
図10において、画像1000は人物(A)、画像1010は人物(B)が写った合成対象画像であり、それぞれにオブジェクト1001、1011が写っている。また、マップ1002は、画像1000の奥行距離情報Zのマップである。同様のマップ1012は、画像1010の奥行距離情報Zのマップである。マップ1002には、オブジェクト1001に対応したメッシュ部分1003が含まれ、マップ1012にはオブジェクト1011に対応したメッシュ部分1013が含まれている。
<Fifth Embodiment>
In the fifth embodiment, a method of editing the depth distance information of the object described in the first embodiment and synthesizing it with another object will be described.
A synthesizing method according to the fifth embodiment will be described with reference to FIG.
In FIG. 10, an image 1000 is a person (A) and an image 1010 is a composition target image in which a person (B) is shown, and objects 1001 and 1011 are shown in each of them. A map 1002 is a map of depth distance information Z of the image 1000 . A similar map 1012 is a map of depth distance information Z of the image 1010 . Map 1002 includes mesh portion 1003 corresponding to object 1001 , and map 1012 includes mesh portion 1013 corresponding to object 1011 .

この図10の例において、奥行距離情報のマップ1002と1012のうち、オブジェクト1001のメッシュ部分1003と、オブジェクト1011のメッシュ部分1013とを比較すると、オブジェクト1011の方が手前にあることがわかる。ここで、合成部102がこれらのオブジェクトを合成すると、合成画像1020が得られる。この合成画像1020は、人物(B)のオブジェクト1011に対応したオブジェクト1021の方が手前になるように合成された画像となる。 In the example of FIG. 10, comparing the mesh portion 1003 of the object 1001 and the mesh portion 1013 of the object 1011 in the depth distance information maps 1002 and 1012, it can be seen that the object 1011 is closer. Here, when the synthesizing unit 102 synthesizes these objects, a synthesized image 1020 is obtained. This synthesized image 1020 is an image synthesized so that the object 1021 corresponding to the object 1011 of the person (B) is in front.

次に、ユーザが、人物(A)のオブジェクト1001を、人物(B)のオブジェクト1011の前方に配置して画像合成指示を行ったとする。この場合、ユーザの指示を受けて、制御部105は、オブジェクト1001の奥行距離情報Zを一括で変更する。すなわち、制御部105は、オブジェクト1001の奥行距離情報のマップ1002のうち各奥行距離の値Z(a,b)が0でない部分、つまりオブジェクト1001に対応したメッシュ部分1003について距離値Xを一律に加算する。距離値Xは、例えばユーザにより指定された値でも良いし、予め決められた値でも良いし、ユーザにより指示されたオブジェクトとそれ以外のオブジェクトの奥行距離情報を基に制御部105が適切な値として決定した値でも良い。これにより、新しい奥行距離情報NewZ(a,b)が算出される。 Next, it is assumed that the user places the object 1001 representing the person (A) in front of the object 1011 representing the person (B) and issues an image composition instruction. In this case, the control unit 105 collectively changes the depth distance information Z of the object 1001 in response to the user's instruction. That is, the control unit 105 uniformly sets the distance value X for the portion of the depth distance information map 1002 of the object 1001 in which the value Z(a, b) of each depth distance is not 0, that is, the mesh portion 1003 corresponding to the object 1001. to add. The distance value X may be, for example, a value designated by the user or a predetermined value, or an appropriate value determined by the control unit 105 based on depth distance information between the object designated by the user and other objects. A value determined as Thereby, new depth distance information NewZ(a, b) is calculated.

このときの制御部105は、新しい奥行距離情報NewZ(a,b)を下記式のようにして算出する。 At this time, the control unit 105 calculates new depth distance information NewZ(a, b) using the following formula.

NewZ(a,b)=0 //Z(a,b)==0
=Z(a,b)+X //Z(a,b)!==0
NewZ(a,b)=0 //Z(a,b)==0
=Z(a,b)+X //Z(a,b)! == 0

第5実施形態の例において、マップ1004は、X=5とした場合に、制御部105で奥行距離情報Zが0でない場所に5が加算された例を示しており、メッシュ部分1005が加算後の奥行距離情報NewZの領域である。 In the example of the fifth embodiment, the map 1004 shows an example in which 5 is added to a location where the depth distance information Z is not 0 by the control unit 105 when X=5. is the area of the depth distance information NewZ.

このような処理が行われることで、合成部102では、画像1022に示すような合成画像が生成される。この画像1022では、人物(A)のオブジェクトは画像としての見た目は変わらないものの、奥行方向では5の値に相当する距離分だけ手前の位置に再配置される。その結果としてメッシュ部分1005の値は14(9+5)となり、メッシュ部分1013の値は10となる。合成部102は、このマップ1004のメッシュ部分1003の奥行距離情報を基に、オブジェクト1001とオブジェクト1011を背景画像に合成して、画像1022を生成する。これらの結果として画像1022は、人物(A)のオブジェクトが人物(B)のオブジェクトの手前に配置された合成画像となる。 By performing such processing, the synthesizing unit 102 generates a synthesized image as shown in the image 1022 . In this image 1022, the object of the person (A) does not change in appearance as an image, but is rearranged in the front position by a distance corresponding to a value of 5 in the depth direction. This results in a value of 14 (9+5) for mesh portion 1005 and a value of 10 for mesh portion 1013 . The synthesizing unit 102 synthesizes the object 1001 and the object 1011 with the background image based on the depth distance information of the mesh portion 1003 of the map 1004 to generate an image 1022 . As a result, the image 1022 is a composite image in which the person (A) object is placed in front of the person (B) object.

第5実施形態によれば、オブジェクトの奥行距離情報を編集して各オブジェクトを合成することにより、各オブジェクトの配置を違和感無く入れ替えた合成画像を得ることができる。 According to the fifth embodiment, by editing the depth distance information of the objects and synthesizing the respective objects, it is possible to obtain a synthetic image in which the positions of the respective objects are interchanged without causing a sense of incongruity.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 All of the above-described embodiments merely show specific examples for carrying out the present invention, and the technical scope of the present invention should not be construed to be limited by these. That is, the present invention can be embodied in various forms without departing from its technical spirit or main features.

100:画像データ読み込み部、101:デコード部、102:合成部、103:オブジェクト抽出部、104:表示部、105:制御部、106:メモリ、107:距離算出部 100: image data reading unit, 101: decoding unit, 102: synthesis unit, 103: object extraction unit, 104: display unit, 105: control unit, 106: memory, 107: distance calculation unit

Claims (11)

複数の画像からオブジェクトを抽出する抽出手段と、
前記画像に含まれる奥行距離の情報を基に、前記複数の画像から抽出されたオブジェクトごとに奥行距離を代表する代表距離値を決定する決定手段と、
前記抽出されたオブジェクトごとの前記代表距離値に基づいて、前記オブジェクトを合成して合成画像を生成する合成手段と
を有し、
前記決定手段は、前記オブジェクトが合成される際にオブジェクト同士が重なる場合には前記重なるオブジェクトについて前記代表距離値を決定し、前記オブジェクト同士が重ならないオブジェクトについては代表距離値として初期値を決定することを特徴とする画像処理装置。
an extraction means for extracting an object from a plurality of images;
Determination means for determining a representative distance value representing the depth distance for each object extracted from the plurality of images, based on the depth distance information included in the images;
synthesizing means for synthesizing the objects to generate a synthetic image based on the representative distance value for each of the extracted objects;
The determining means determines the representative distance value for the overlapping objects when the objects overlap when the objects are combined , and determines an initial value as the representative distance value for the objects that do not overlap . An image processing apparatus characterized by:
前記決定手段は、前記抽出されたオブジェクトのなかに特定のオブジェクトを含むオブジェクトがあり、前記特定のオブジェクトを含むオブジェクトと前記特定のオブジェクトを含まないオブジェクトとの前記代表距離値の差が一定範囲内である場合には、前記特定のオブジェクトを含むオブジェクトが、前記特定のオブジェクトを含まないオブジェクトよりも前記合成の際に手前になるように前記代表距離値を変更することを特徴とする請求項に記載の画像処理装置。 The determining means determines that an object including a specific object exists among the extracted objects, and a difference in the representative distance value between the object including the specific object and the object not including the specific object is within a certain range. 2, the representative distance value is changed so that an object including the specific object is in front of an object not including the specific object during the synthesis. The image processing device according to . 前記決定手段は、前記抽出されたオブジェクトごとに、当該オブジェクトに含まれる全画素の奥行距離を表す値の平均を前記代表距離値に決定することを特徴とする請求項1または2に記載の画像処理装置。 3. The image according to claim 1, wherein for each of the extracted objects, the determining means determines an average of values representing depth distances of all pixels included in the object as the representative distance value. processing equipment. 前記決定手段は、前記抽出されたオブジェクトごとに、当該オブジェクトに含まれる全画素のなかで最大の奥行距離を表す値を前記代表距離値に決定することを特徴とする請求項1または2に記載の画像処理装置。 3. The method according to claim 1, wherein, for each of the extracted objects, the determining means determines, as the representative distance value, a value representing a maximum depth distance among all pixels included in the object. image processing device. 前記決定手段は、前記抽出したオブジェクトのなかの特定の部位に含まれる全画素の奥行距離の情報を基に前記代表距離値を決定することを特徴とする請求項1または2に記載の画像処理装置。 3. The image processing according to claim 1, wherein said determining means determines said representative distance value based on depth distance information of all pixels included in a specific portion of said extracted object. Device. 前記決定手段は、前記特定の部位に含まれる全画素の奥行距離を表す値の平均を前記代表距離値に決定することを特徴とする請求項に記載の画像処理装置。 6. The image processing apparatus according to claim 5 , wherein said determining means determines an average of values representing depth distances of all pixels included in said specific region as said representative distance value. 前記決定手段は、前記抽出されたオブジェクトの奥行距離を表す値を変更する変更手段を有することを特徴とする請求項1からのいずれか1項に記載の画像処理装置。 7. The image processing apparatus according to any one of claims 1 to 6 , wherein said determining means has changing means for changing a value representing the depth distance of said extracted object. 前記変更手段は、ユーザから指示されたオブジェクトの前記奥行距離の値を変更することを特徴とする請求項に記載の画像処理装置。 8. The image processing apparatus according to claim 7 , wherein said changing means changes the value of said depth distance of an object designated by a user. 前記変更手段は、前記オブジェクトの奥行距離の値に対して一律に距離値を加算して前記奥行距離を変更することを特徴とする請求項またはに記載の画像処理装置。 9. The image processing apparatus according to claim 7 , wherein the changing unit uniformly adds a distance value to the value of the depth distance of the object to change the depth distance. 画像処理装置が実行する画像処理方法であって、
複数の画像からオブジェクトを抽出する抽出工程と、
前記画像に含まれる奥行距離の情報を基に、前記複数の画像から抽出されたオブジェクトごとに奥行距離を代表する代表距離値を決定する決定工程と、
前記抽出されたオブジェクトごとの前記代表距離値に基づいて、前記オブジェクトを合成して合成画像を生成する合成工程と
を有し、
前記決定工程では、前記オブジェクトが合成される際にオブジェクト同士が重なる場合には前記重なるオブジェクトについて前記代表距離値を決定し、前記オブジェクト同士が重ならないオブジェクトについては代表距離値として初期値を決定することを特徴とする画像処理方法。
An image processing method executed by an image processing device,
an extraction step of extracting an object from a plurality of images;
a determination step of determining a representative distance value that represents the depth distance for each object extracted from the plurality of images based on the depth distance information included in the images;
a synthesizing step of synthesizing the objects to generate a synthetic image based on the representative distance value for each of the extracted objects;
In the determining step, if the objects overlap when the objects are merged, the representative distance value is determined for the overlapping objects, and an initial value is determined as the representative distance value for the objects that do not overlap . An image processing method characterized by:
コンピュータを、請求項1からのいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the image processing apparatus according to any one of claims 1 to 9 .
JP2018001184A 2018-01-09 2018-01-09 Image processing device, image processing method, and program Active JP7191514B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018001184A JP7191514B2 (en) 2018-01-09 2018-01-09 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018001184A JP7191514B2 (en) 2018-01-09 2018-01-09 Image processing device, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2019121216A JP2019121216A (en) 2019-07-22
JP7191514B2 true JP7191514B2 (en) 2022-12-19

Family

ID=67306424

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018001184A Active JP7191514B2 (en) 2018-01-09 2018-01-09 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP7191514B2 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003219271A (en) 2002-01-24 2003-07-31 Nippon Hoso Kyokai <Nhk> System for synthesizing multipoint virtual studio
WO2004019621A1 (en) 2002-08-20 2004-03-04 Kazunari Era Method and device for creating 3-dimensional view image
JP2008217593A (en) 2007-03-06 2008-09-18 Nippon Hoso Kyokai <Nhk> Subject area extraction device and subject area extraction program
JP2010224607A (en) 2009-03-19 2010-10-07 Casio Computer Co Ltd Image composition device and program
JP2012105019A (en) 2010-11-09 2012-05-31 Toshiba Corp Image processing device, method, and program thereof
JP2013118468A (en) 2011-12-02 2013-06-13 Sony Corp Image processing device and image processing method
JP2013157671A (en) 2012-01-26 2013-08-15 Sony Corp Image processing device, image processing method, program, terminal device, and image processing system
JP5270052B1 (en) 2012-07-20 2013-08-21 楽天株式会社 Movie processing apparatus, movie processing method, and information recording medium
US20160180514A1 (en) 2014-12-17 2016-06-23 Lite-On Electronics (Guangzhou) Limited Image processing method and electronic device thereof

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003219271A (en) 2002-01-24 2003-07-31 Nippon Hoso Kyokai <Nhk> System for synthesizing multipoint virtual studio
WO2004019621A1 (en) 2002-08-20 2004-03-04 Kazunari Era Method and device for creating 3-dimensional view image
JP2008217593A (en) 2007-03-06 2008-09-18 Nippon Hoso Kyokai <Nhk> Subject area extraction device and subject area extraction program
JP2010224607A (en) 2009-03-19 2010-10-07 Casio Computer Co Ltd Image composition device and program
JP2012105019A (en) 2010-11-09 2012-05-31 Toshiba Corp Image processing device, method, and program thereof
JP2013118468A (en) 2011-12-02 2013-06-13 Sony Corp Image processing device and image processing method
JP2013157671A (en) 2012-01-26 2013-08-15 Sony Corp Image processing device, image processing method, program, terminal device, and image processing system
JP5270052B1 (en) 2012-07-20 2013-08-21 楽天株式会社 Movie processing apparatus, movie processing method, and information recording medium
US20160180514A1 (en) 2014-12-17 2016-06-23 Lite-On Electronics (Guangzhou) Limited Image processing method and electronic device thereof

Also Published As

Publication number Publication date
JP2019121216A (en) 2019-07-22

Similar Documents

Publication Publication Date Title
JP4970302B2 (en) Image processing apparatus, image processing method, and imaging apparatus
CN102170527B (en) Image processing apparatus
JP5949331B2 (en) Image generating apparatus, image generating method, and program
JP2002171398A (en) Image processing method and electronic camera
WO2004015987A1 (en) Image combination device, image combination method, image combination program, and recording medium containing the image combination program
KR20150119621A (en) display apparatus and image composition method thereof
JP2010239440A (en) Image compositing apparatus and program
CN112166455A (en) Image processing method, image processing device, movable platform and machine-readable storage medium
KR101165017B1 (en) 3d avatar creating system and method of controlling the same
JP2008131542A (en) Color correction apparatus, and color correction program
JP6614644B2 (en) Photo shooting game device, photo sticker creating device, photo shooting game device control method, and photo shooting game device control program
JP2013226286A (en) Method for synthesizing hair style, device for synthesizing hair style, and program for synthesizing hair style
US8971636B2 (en) Image creating device, image creating method and recording medium
JP2010092094A (en) Image processing apparatus, image processing program, and digital camera
JP7191514B2 (en) Image processing device, image processing method, and program
JP4596929B2 (en) Background image generation apparatus and background image generation program
JP5857606B2 (en) Depth production support apparatus, depth production support method, and program
JP2010097449A (en) Image composition device, image composition method and image composition program
US10021310B2 (en) Characteristic image display apparatus
WO2014132816A1 (en) Image processing device, method, and program
JP6717486B1 (en) Extended virtual space providing system
JP6332864B2 (en) Image processing apparatus, image processing method, and program
JP2011172103A (en) Image generating apparatus
JP2016129281A (en) Image processor
JP2007166383A (en) Digital camera, image composing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221207

R151 Written notification of patent or utility model registration

Ref document number: 7191514

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151