JP7191514B2 - Image processing device, image processing method, and program - Google Patents
Image processing device, image processing method, and program Download PDFInfo
- Publication number
- JP7191514B2 JP7191514B2 JP2018001184A JP2018001184A JP7191514B2 JP 7191514 B2 JP7191514 B2 JP 7191514B2 JP 2018001184 A JP2018001184 A JP 2018001184A JP 2018001184 A JP2018001184 A JP 2018001184A JP 7191514 B2 JP7191514 B2 JP 7191514B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- objects
- distance value
- depth
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、画像を合成等する画像処理技術に関する。 The present invention relates to an image processing technique for synthesizing images.
3D対応のデジタルカメラなどにおいて、被写体とメニュー画面の奥行き関係を調整し、それぞれを合成する画像合成技術がある。例えば特許文献1には、撮影被写体画像の奥行きと画面に表示するメニュー画面との位置関係を調整し、画面表示時にメニュー画面が被写体の手前に来るように位置調整を行う技術が開示されている。
2. Description of the Related Art In a 3D compatible digital camera or the like, there is an image synthesizing technique for adjusting the depth relationship between a subject and a menu screen and synthesizing them. For example,
また近年のカメラには、画像の撮影だけではなく、奥行き方向の距離(以下、奥行距離とする。)を計測し、その奥行距離情報を撮影画像と共に記録可能なものもある。このような撮影画像と共に奥行距離情報も合わせて記録できるカメラを用いて、複数枚の画像を撮影し、例えば1枚の背景に対して被写体となる人物だけを複数人分合成するようなことも可能となる。例えば人物だけを複数人分合成する場合には、奥行距離情報を利用することにより、撮影画像から人物のオブジェクトと背景とを切り分け、その切り分けた人物のオブジェクトの前後関係を奥行距離情報に基づいて決定した上で合成するようなことが行われる。 Some recent cameras are capable of not only capturing an image, but also measuring a distance in the depth direction (hereinafter referred to as depth distance) and recording the depth distance information together with the captured image. Using a camera that can record depth and distance information together with such captured images, multiple images can be captured and, for example, multiple people can be synthesized against a single background. It becomes possible. For example, when only a person is synthesized for a plurality of people, the depth distance information is used to separate the person object and the background from the captured image, and the front-back relationship of the separated person object is calculated based on the depth distance information. Synthesis is performed after determination.
ところで、複数枚の撮影画像に写った被写体のオブジェクトを切り出して合成する際、それぞれの撮影画像に写っている被写体の奥行距離の値が非常に近いような場合、合成結果が違和感のある画像になってしまうことがある。例えば奥行距離の近い被写体のオブジェクト同士が混ざり合って合成されてしまうことで、違和感のある合成画像が生成されることがある。 By the way, when extracting and synthesizing an object of a subject captured in a plurality of shot images, if the depth distance values of the subject appearing in each shot image are very close, the synthesis result will be an image that looks strange. Sometimes it becomes For example, when objects of subjects with close depth distances are mixed and synthesized, a synthesized image with a sense of incongruity may be generated.
そこで、本発明は、奥行距離の情報を用いて画像を合成する場合に、違和感の少ない合成結果を得られるようにすることを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to obtain a synthesis result that does not give a sense of discomfort when synthesizing images using depth distance information.
本発明は、複数の画像からオブジェクトを抽出する抽出手段と、前記画像に含まれる奥行距離の情報を基に、前記複数の画像から抽出されたオブジェクトごとに奥行距離を代表する代表距離値を決定する決定手段と、前記抽出されたオブジェクトごとの前記代表距離値に基づいて、前記オブジェクトを合成して合成画像を生成する合成手段とを有し、前記決定手段は、前記オブジェクトが合成される際にオブジェクト同士が重なる場合には前記重なるオブジェクトについて前記代表距離値を決定し、前記オブジェクト同士が重ならないオブジェクトについては代表距離値として初期値を決定することを特徴とする。 The present invention includes extraction means for extracting an object from a plurality of images, and determining a representative distance value representing a depth distance for each object extracted from the plurality of images based on depth distance information included in the images. and synthesizing means for synthesizing the objects to generate a synthesized image based on the representative distance value for each of the extracted objects, wherein the determining means determines when the objects are synthesized When the objects overlap each other, the representative distance value is determined for the overlapping objects, and the initial value is determined as the representative distance value for the objects that do not overlap each other .
本発明によれば、奥行距離の情報を用いて画像を合成する場合に、複数の被写体を合成しても、違和感の少ない合成結果が得られるようになる。 According to the present invention, when synthesizing an image using depth distance information, even if a plurality of subjects are synthesized, a synthetic result with little sense of incongruity can be obtained.
以下、図面を参照して本発明の好ましい実施形態について説明する。
<第1実施形態>
図1は、本実施形態の画像処理装置の一例である画像合成装置の概略的な構成を示す図である。
制御部105は、この画像合成装置の全体制御を行う。また、画像合成装置の以下に述べる各構成要素は、メモリ106を使用して各処理を行う。
画像データ読み込み部100は、図示していない外部メディア等から画像データを取得する。本実施形態で説明する画像データは、画像と当該画像の画素ごとの奥行方向の距離(以下、奥行距離とする)の情報とを有するデータである。奥行距離とその情報(奥行距離情報とする)の詳細については後述する。
Preferred embodiments of the present invention will be described below with reference to the drawings.
<First embodiment>
FIG. 1 is a diagram showing a schematic configuration of an image synthesizing device, which is an example of an image processing device according to this embodiment.
A
The image
デコード部101は、画像データ読み込み部100が取得した画像データをデコードし、画像として認識できる状態にする。さらにデコード部101は、画像に含まれている奥行距離情報を取得する機能を有し、デコードした画像の各画素と奥行距離との関係付けを行う。
The
オブジェクト抽出部103は、前述のように画素ごとに奥行距離情報が付与されている画像から、被写体等のオブジェクトを抽出する。このオブジェクトの抽出は、画像から、奥行距離が所定の距離より短い(近い)各画素よりなるオブジェクトを抽出する処理となされている。画像からオブジェクトが分離された残りの画像領域は背景となる。このように、オブジェクト抽出部103は、所定の距離を閾値として用い、奥行距離情報が付与された入力画像の中から、奥行距離が閾値より短い(近い)オブジェクトを、それ以外の背景から分離する。なお、オブジェクトの抽出は、奥行距離情報を用いない、他の既存のオブジェクト抽出技術を用いて行われても良い。
The
距離算出部107は、画素ごとの奥行距離情報から後述する奥行マップを生成し、また、オブジェクト抽出部103により抽出されたオブジェクトの各画素の奥行距離情報を基に、後述する代表距離値を算出する。奥行マップの生成と代表距離値の算出方法の詳細については後述する。
The
合成部102は、オブジェクト抽出部103によって複数の入力画像からそれぞれ前述のように抽出された複数のオブジェクトと、背景として用いられる画像(以下、背景画像とする)とを合成する。詳細については後述するが、合成部102では、距離算出部107により算出された代表距離値を用いて、複数のオブジェクトと背景画像との合成を行う。
表示部104は、画像を表示する。表示部104には、合成部102での合成処理により生成された合成画像も表示される。なお、表示部104は、ユーザ等からの指示を受付可能なタッチパネルの機能を有していても良い。
The synthesizing
The
なお、図1の制御部105、画像データ読み込み部100、デコード部101、距離算出部107、合成部102、オブジェクト抽出部103等は、ハードウェア構成により実現されても良いし、ソフトウェア構成により実現されても良い。ソフトウェア構成により各部の処理が実行される場合、それら本実施形態にかかるプログラム(ソフトウェア)をCPU等が実行することにより実現される。本実施形態にかかるプログラムは、メモリ106(ROMや着脱可能な半導体メモリを含む)から読み出されても、或いは不図示のインターネット等のネットワークからダウンロードされても良い。
Note that the
次に、図2(a)~図2(c)を用いて、奥行距離情報を有する画像データついて説明する。
図2(a)に示す画像200は、画素ごとに奥行距離情報を有した画像である。なお、図2(a)に例示した画像200は、中央部に人物被写体の顔に相当するオブジェクト204が写っている画像であるとする。
Next, image data having depth distance information will be described with reference to FIGS. 2(a) to 2(c).
An
画像200には、当該画像を構成する画素ごとに奥行距離情報が保存されており、以下、各画素に保存されている奥行距離情報について説明する。
図2(a)の画素201は、画像200に含まれる各画素のうちの一つである。この画素201を構成するデータ202は、奥行距離情報Zと色情報RGBとを組み合わせた構成(ZRGB構成)となされている。奥行距離情報Zは、その値が大きいほど、この画像が撮影された際にカメラに近い状態(手前に飛び出ている状態)であったことを示している。色情報RGBは、赤(R)、緑(G)、青(B)の三原色の各色の情報である。奥行距離情報Zと色情報RGBはそれぞれが8ビット情報となされており、1画素あたりでは合計32ビットのデータとなされている。なお、ここでは一例として、1画素の奥行距離情報Zの8ビットをZRGB構成の32ビットの中に入れ込む例を挙げたが、この例には限定されず、奥行距離がわかる形式であればどのような形式であっても良い。
In the
A
図2(a)に示す平面の画像210は色情報RGBのみから作られる。また、画素ごとの奥行距離情報Zからは奥行マップ211が生成される。奥行マップ211は、画素ごとの奥行距離情報が、各画素の配列に対応して二次元配列されたマップである。なお、図2(a)の例では、図示を簡略にするため、画素の数を減らした粗いメッシュで奥行マップ211が表されている。図2(a)に例示した奥行マップ211において、斜線により表されたメッシュ部分205は、画像200の中で顔のオブジェクト204に相当する領域である。図2(a)の奥行マップ211では、オブジェクト204に相当するメッシュ部分205の奥行距離情報Zの数値が他の部分の数値より大きくなっているが、これは撮影時に顔(オブジェクト204)がカメラに近い位置に存在していたことを示している。
A
そして、これら平面の画像210と奥行マップ211を基に、仮想3D空間内に画像を配置することが可能となる。図2(b)は、平面の画像210と奥行マップ211に基づいて、仮想3D空間内に画像200を配置した場合の配置結果を3Dワイヤーフレーム207の概略イメージで示した図である。図2(b)において、x方向は画像200の左右方向(画像の右側からx値が増える方向)、y方向は画像200の上下方向(画像の上側でy値が増える方向)を示し、z方向は奥行方向を表している。図2(b)の3Dワイヤーフレーム207においては、奥行方向の値(奥行距離)が大きいほど、z方向の高さが高くなり、画像撮影時にカメラから近いことを表している。図2(b)に示した配置結果の例の場合、z方向の高さが高くなっている領域206は、図2(a)の顔のオブジェクト204に相当する領域である。
Then, based on the
次に、入力画像からオブジェクトと背景を分離(オブジェクトを抽出)する分離方法について説明する。
これまで説明してきたように、入力画像は画素ごとに奥行距離情報を持つため、奥行距離情報Zに対する閾値として所定の距離を設定し、奥行距離が閾値以内かどうかによりオブジェクトを背景から分離することができる。
Next, a separation method for separating an object and a background (extracting an object) from an input image will be described.
As described above, since the input image has depth distance information for each pixel, a predetermined distance is set as a threshold for the depth distance information Z, and the object is separated from the background depending on whether the depth distance is within the threshold. can be done.
次に、奥行距離情報を持つ画像から抽出されたオブジェクトごとの代表距離値を算出する方法について述べる。
先に説明したように分離された顔のオブジェクト204は、図2(b)の領域206に示すようにz方向(奥行距離)が背景よりも高く(カメラに近く)なっており、3Dワイヤーフレームでは半球形のように表される。
ここで、代表距離値を算出する方法としては複数の方法が考えられ、本実施形態では、以下の第1の算出方法と第2の算出方法の二つの例を挙げる。
第1の算出方法は、オブジェクトを構成する各画素の各奥行距離の値を加算し、その加算結果をオブジェクト内の全画素数で除算することにより、1画素あたりの平均距離値を算出して代表距離値とする方法である。
第2の算出方法は、オブジェクト内の全画素数の中で図2(b)に示す最大の奥行距離の値221を求め、その値を代表距離値とする方法である。
Next, a method of calculating a representative distance value for each object extracted from an image having depth distance information will be described.
The
Here, a plurality of methods are conceivable as a method of calculating the representative distance value, and in this embodiment, two examples of the following first calculation method and second calculation method will be given.
The first calculation method calculates the average distance value per pixel by adding the values of the depth distances of the pixels that make up the object and dividing the addition result by the total number of pixels in the object. This is a method of using a representative distance value.
A second calculation method is to obtain the maximum
本実施形態では、これら第1、第2の算出方法の何れかを用いて代表距離値を計算し、先に分離されたオブジェクトを構成する全ての画素の奥行距離に代表距離値を適用することで、図2(c)に示すような円柱型230で表される奥行距離情報を設定する。なお、図2(c)は図2(b)と同様に3Dワイヤーフレームの概略イメージを表している。
In the present embodiment, the representative distance value is calculated using either of the first and second calculation methods, and the representative distance value is applied to the depth distance of all the pixels forming the previously separated object. , depth distance information represented by a
次に、複数枚の画像を合成する際に、本実施形態の画像合成装置で行われる各処理について、図3と図7を用いて説明する。
図3は本実施形態の画像合成装置において行われる処理の流れを示すフローチャートである。なお、以下のフローチャートの説明では、処理ステップS300~処理ステップS306をS300~S306と略記する。これらのことは後述する他のフローチャートにおいても同様とする。図3のフローチャートの処理は、一例として、本実施形態の画像合成装置の不図示のタッチパネル等の操作部から使用者が開始指示を入力したスタートするとする。なお、外部の装置やネットワーク等を介して開始指示が入力された場合、或いは予め設定された時間等のタイミングで図3のフローチャートの処理が開始されても良い。
Next, each process performed by the image synthesizing apparatus of this embodiment when synthesizing a plurality of images will be described with reference to FIGS. 3 and 7. FIG.
FIG. 3 is a flow chart showing the flow of processing performed in the image synthesizing apparatus of this embodiment. In the following description of the flowchart, processing steps S300 to S306 are abbreviated as S300 to S306. The same applies to other flowcharts to be described later. As an example, the processing of the flowchart of FIG. 3 is started when the user inputs a start instruction from an operation unit such as a touch panel (not shown) of the image synthesizing apparatus of the present embodiment. Note that the processing of the flowchart of FIG. 3 may be started when a start instruction is input via an external device, network, or the like, or at a timing such as a preset time.
制御部105は、S300において、図3のフローチャートの処理を開始すると、先ずメモリ106のメモリ初期化を行った後、S301に処理を進める。
S301に進むと、制御部105は、画像データ読み込み部100に対して画像データを取得することを指示する。これにより、画像データ読み込み部100は、不図示の外部メディア等から画像データを読み込むことで取得する。そして、制御部105は、画像データ読み込み部100が取得した画像データをメモリ106に蓄積させる。
さらに、制御部105は、表示部104に対し、ユーザが背景画像の選択を行うためのUI(ユーザインターフェイス)画面を表示させる。このときの制御部105は、メモリ106に蓄積された画像データを読み出してデコード部101によりデコードさせ、撮影画像をサムネイル画像に変換した上で、表示部104の画面上に一覧形式により表示させる。
3, the
In step S301, the
Furthermore, the
図7(a)は、背景画像の選択の際に表示部104の画面に表示されるUI画面710の一例を示している。このUI画面710には、撮像画像のサムネイル画像の一覧と、背景画像の選択をユーザに促すメッセージとが表示される。図7(a)には、サムネイル画像として、人物(A)が写った画像A、人物(B)が写った画像B、人物(C)が写った画像Cと、人物が写っていない画像Dの4枚が一覧表示されている例を示している。これら各画像の中の所望の画像に対し、ユーザが選択指示を入力すると、その選択指示された画像には、チェックマーク713が表示される。チェックマーク713は、その画像が選択された状態であることをユーザに認識させるアイコンである。図7(a)では、人物が写っていない画像Dがユーザにより選択されたことでチェックマーク713が表示された例が示されている。また、図7(a)のUI画面710には、完了ボタン712も表示される。制御部105は、各画像の中で何れかの画像がユーザにより選択された上で、完了ボタン712への決定指示がなされた場合、その画像を合成の際に使用する背景画像として確定する。図7(a)の例では、画像Dにチェックマーク713が表示された状態で、完了ボタン712への決定指示がなされたことにより、人物が写っていない画像Dが背景画像として確定されたとする。
FIG. 7A shows an example of a
そして、背景画像が確定すると、制御部105はS302に処理を進める。
S302に進むと、制御部105は、表示部104に対し、ユーザが合成対象の画像(以下、合成対象画像とする)の選択を行うためのUI画面を表示させる。
Then, when the background image is confirmed, the
In step S302, the
図7(b)は、合成対象画像の選択の際に表示部104の画面に表示されるUI画面720の一例を示している。UI画面720には、UI画面710と同様に撮像画像のサムネイル画像の一覧として、画像A、画像B、画像C、画像Dの4枚が表示されている例を示している。また、このときのUI画面720には、合成対象画像の選択をユーザに促すメッセージが表示される。そして、UI画面720において、所望の画像に対してユーザが選択指示を入力すると、その選択指示された画像には前述同様のチェックマーク713が表示される。図7(b)には、人物(A)が写った画像Aと、人物(B)が写った画像Bと、人物(C)が写った画像Cとが、ユーザにより選択されたことでチェックマーク713が表示された例が示されている。また、図7(b)のUI画面720は、完了ボタン722も表示される。制御部105は、各画像の中で所望の画像がユーザにより選択された上で、完了ボタン722への決定指示がなされた場合、その画像を合成対象画像として確定する。図7(b)の例では、画像Aと画像Bと画像Cにチェックマーク713が表示された状態で、完了ボタン722への決定指示がなされたことにより、それら画像Aと画像Bと画像Cの三枚が合成対象画像として確定されたとする。そして、合成対象画像が確定すると、制御部105はS303に処理を進める。
FIG. 7B shows an example of a
S303に進むと、制御部105は、S302で確定された全ての合成対象画像に対して、次のS304の代表距離値計算処理が終わったか否かを判定する。そして、制御部105は、代表距離値計算処理が行われていない未処理の合成対象画像がある場合には、その未処理の合成対象画像に対するS304の代表距離値計算処理を行わせる。
Proceeding to S303, the
S304において、制御部105は、オブジェクト抽出部103及び距離算出部107を制御して、S302で確定された合成対象画像に対する代表距離値計算処理を行わせる。S304の処理として、先ずオブジェクト抽出部103は、合成対象画像1枚について、その画像から被写体(例えば人物のオブジェクト)を抽出して背景から分離する。次に距離算出部107は、オブジェクト抽出部103により抽出されたオブジェクトを構成する各画素の奥行距離情報を基に、前述したように代表距離値を計算する。そして、制御部105は、距離算出部107にて計算された代表距離値を、抽出されたオブジェクトに関連付けてメモリ106に保存させる。その後、制御部105は、S303に処理を戻し、全ての合成対象画像に対する代表距離値計算処理が終わったか否かを再度判定する。このように、制御部105は、全ての合成対象画像の代表距離値計算処理が終わるまで、S303の判定処理とS304の代表距離値計算処理を繰り返す。そして、制御部105は、S303において、S302で確定された全ての合成対象画像に対する代表距離値計算処理が終わったと判定した場合、S305に処理を進める。
In S304, the
S305に進むと、制御部105は、メモリ106内に各オブジェクト(人物オブジェクト)と関連付けられて格納されている代表距離値を基に、各オブジェクトの合成順番を決定する処理(代表距離値で合成順番をソートする処理)を行う。合成順番は、例えば代表距離値が小さい順(つまり撮影時にカメラから遠い順)となされる。その後、制御部105は、S306に処理を進める。
Proceeding to S305, the
S306に進むと、制御部105は、合成部102に対して、S305で決定された合成順番、つまり代表距離値が小さい順(カメラから遠い順)で、メモリ106からオブジェクトを順に読み出し、その読み出した順番で背景画像(D)に合成させる。そして、制御部105は、合成部102による合成処理がなされて得られた合成画像データをメモリ106に保存させる。
Proceeding to S306, the
ここで、前述した人物が写った3枚の画像A~画像Cのうち、画像Aのオブジェクトの代表距離値が「100」、画像Bのオブジェクトの代表距離値が「10」、画像Cのオブジェクトの代表距離値が「50」であり、値が大きいほどカメラから近いとする。この場合、合成順番は、画像Bのオブジェクト、画像Cのオブジェクト、画像Aのオブジェクトの順番になる。したがってこの場合、合成部102では、背景画像(D)に画像Bのオブジェクト、その後、画像Cのオブジェクト、最後に画像Aのオブジェクトの順番で、各オブジェクトの画像が重ねられるような合成処理が行われる。これにより、代表距離値が大きい(カメラに近い)被写体が最後に画像合成されることになる。
Here, among the three images A to C in which a person is photographed, the representative distance value of the object of image A is "100", the representative distance value of the object of image B is "10", and the object of image C is "10". is "50", and the larger the value, the closer it is to the camera. In this case, the composition order is the order of the image B object, the image C object, and the image A object. Therefore, in this case, the synthesizing
本実施形態においては、オブジェクトごとに代表距離値を計算しており、各オブジェクト内で奥行距離が均一化されるため、他の画像のオブジェクトと合成する際に、オブジェクト同士が混ざり合って合成されてしまうことがない。したがって、本実施形態によれば、違和感の少ない合成画像を得ることが可能となる。 In this embodiment, the representative distance value is calculated for each object, and the depth distance is uniformed within each object. I never get tired of it. Therefore, according to the present embodiment, it is possible to obtain a synthesized image that gives less discomfort.
<第2実施形態>
次に、第2実施形態として、オブジェクト同士の重なり判定を行い、合成時に重ならないオブジェクトについては代表距離値計算処理をスキップする例について説明する。なお、第2実施形態の画像合成装置の構成は図1と同様であるため図示と説明は省略する。
合成対象画像に含まれるオブジェクトが重ならない場合の例について、図4を用いながら説明する。
<Second embodiment>
Next, as a second embodiment, an example will be described in which overlap determination between objects is performed, and representative distance value calculation processing is skipped for objects that do not overlap when combined. Note that the configuration of the image synthesizing apparatus of the second embodiment is the same as that of FIG. 1, so illustration and description thereof will be omitted.
An example in which the objects included in the synthesis target image do not overlap will be described with reference to FIG.
図4の例において、画像400,401,402はそれぞれ合成対象画像であるとする。またオブジェクト404,405,406は、それぞれ対応した画像400,401,402において背景から分離されたオブジェクトであるとする。また、画像401のオブジェクト405と画像402のオブジェクト406は合成時に重なるオブジェクトであり、一方、画像400のオブジェクト404は他の画像のオブジェクトとは重ならないオブジェクトであるとする。
In the example of FIG. 4, assume that
そして、画像403は、各オブジェクト404,405,406が背景画像に合成された後の合成画像を表している。すなわち図4の例の場合、重ならないオブジェクト404はオブジェクト407として画像403に配置され、一方、オブジェクト405はオブジェクト408、オブジェクト406はオブジェクト409として画像403に配置される。
An
第2実施形態の場合、制御部105は、オブジェクト抽出部103が複数の合成対象画像からそれぞれ抽出した複数のオブジェクト同士が重なるか否かを判定する重なり判定処理を行う。すなわち、代表距離値の計算が行われる前に、制御部105は、オブジェクト抽出部103にて抽出されたオブジェクト404,405,406のそれぞれ位置関係を認識し、それらオブジェクト同士が重なるか否かを判定する。そして、制御部105は、オブジェクト404のように、他のオブジェクトと重ならないオブジェクトを検出し、そのオブジェクト404については代表距離値計算処理をスキップさせる。
In the case of the second embodiment, the
図5は、第2実施形態における処理のフローチャートである。
図5のフローチャートにおいて、図3のフローチャートと同じ処理ステップには同一の参照符号を付してそれらの説明を省略し、ここでは異なる処理ステップ(S501、S502、S503)についてのみ説明する。
FIG. 5 is a flow chart of processing in the second embodiment.
In the flowchart of FIG. 5, the same reference numerals are given to the same processing steps as in the flowchart of FIG.
図5のフローチャートの場合、S302の後、制御部105は、S503に処理を進める。
S503に進むと、制御部105は、S302で確定された全ての合成対象画像からオブジェクト抽出部103が抽出した全てのオブジェクトについて、それぞれ合成時に重なるか否かを判定する。例えば、図4の場合、制御部105は、オブジェクト405,406は重なると判定し、オブジェクト404は他のどのオブジェクトとも重ならないと判定する。このS503の後、制御部105は、S303に進み、全ての合成対象画像の処理が終わったと判定した場合にはS305に処理を進め、一方、未処理の合成対象画像がある場合にはS501に処理を進める。
In the case of the flowchart of FIG. 5, after S302, the
Proceeding to S503, the
S501に進むと、制御部105は、S503で行った重なり判定の結果に基づき、合成時に重なると判定されたオブジェクトについては、S304において代表距離値の算出を行わせた後、S303に処理を戻す。一方、制御部105は、S501において合成時に重ならないと判定されたオブジェクトについてはS502の処理を行う。
In step S501, the
S502に進むと、制御部105は、そのオブジェクトは合成時に他のオブジェクトとは重ならず、代表距離値に基づく合成処理が不要となるため、距離算出部107に対し予め決められた初期値を設定させる。そして、制御部105は、その初期値の代表距離値をオブジェクトに関連付けてメモリ106に保存させる。S502の後、制御部105は、S305に処理を進める。S305以降の処理は前述同様であるため説明は省略する。
In step S502, the
第2実施形態によれば、合成時にオブジェクト同士が重ならないオブジェクトについては代表距離値計算処理をスキップすることにより、代表距離値計算による処理負担を軽減可能となる。また、合成時に重なるオブジェクト同士では、第1実施形態の場合と同様に、代表距離値に基づいた合成処理が行われるため、オブジェクト同士が混ざり合って合成されてしまうことがなく、違和感の少ない合成画像を得ることができる。 According to the second embodiment, by skipping the representative distance value calculation processing for objects that do not overlap each other at the time of combining, it is possible to reduce the processing load due to the representative distance value calculation. In addition, as in the case of the first embodiment, objects that overlap each other at the time of synthesis are synthesized based on the representative distance value. image can be obtained.
<第3実施形態>
次に、第3実施形態では、合成時のオブジェクトが特定のオブジェクト、例えば人物の顔のオブジェクトである場合の画像合成方法について説明する。
ここで、第1実施形態では、抽出されて合成されるオブジェクトとして人物オブジェクトを例に挙げたが、第3実施形態では特に人物の顔のオブジェクトが合成対象画像に含まれる場合について説明する。第3実施形態の場合、オブジェクト抽出部103は、人物の顔のオブジェクトが合成対象画像に含まれるか否かを判定する顔判定機能をも有している。第3実施形態の場合、オブジェクト抽出部103は、前述したようにオブジェクトの奥行距離を測ると同時に、顔の有無をも判定する。そして、制御部105は、オブジェクト抽出部103が判定した顔の有無情報と代表距離値とをオブジェクトに関連付けてメモリ106に保存しておき、合成処理の際に使用する。
<Third Embodiment>
Next, in the third embodiment, an image synthesizing method in which the object to be synthesized is a specific object, for example, a human face object will be described.
Here, in the first embodiment, a person object was taken as an example of an object to be extracted and synthesized, but in the third embodiment, a case in which a person's face object is included in an image to be synthesized will be described. In the case of the third embodiment, the
図6は、第3実施形態における処理のフローチャートである。
図6のフローチャートにおいて、図3のフローチャートと同じ処理ステップには同一の参照符号を付して、それらの説明は省略し、ここでは異なる処理ステップ(S601、S602、S603、S604)についてのみ説明する。
FIG. 6 is a flow chart of processing in the third embodiment.
In the flowchart of FIG. 6, the same processing steps as those of the flowchart of FIG. 3 are denoted by the same reference numerals, and descriptions thereof are omitted, and only different processing steps (S601, S602, S603, S604) are described here. .
図6のフローチャートの場合、S302の後、制御部105は、S601に処理を進める。
S601に進むと、制御部105は、S302で確定された全ての合成対象画像の代表距離値計算処理と顔認識処理が終わったか否かを判定する。そして、制御部105は、代表距離値計算処理と顔認識処理が行われていない未処理の合成対象画像がある場合には、その未処理の合成対象画像に対するS602の代表距離値計算処理と顔認識処理を行わせる。
In the case of the flowchart of FIG. 6, after S302, the
Upon proceeding to S601, the
S602に進むと、制御部105は、オブジェクト抽出部103及び距離算出部107を制御して、S302で確定された合成対象画像に対する代表距離値計算処理と顔認識処理を行わせる。S304の処理として、先ずオブジェクト抽出部103は、合成対象画像1枚について、その画像から人物のオブジェクトを抽出する。さらに、オブジェクト抽出部103は、その人物の顔のオブジェクトがあるか否か判定して、顔のオブジェクトがあると判定した場合には、メモリ106に画像と関連付けて顔の有無情報をも保存しておく。また、距離算出部107は、前述同様に、オブジェクト抽出部103により抽出されたオブジェクトを構成する各画素の奥行距離情報を基に代表距離値を計算する。そして、制御部105は、距離算出部107にて計算された代表距離値を、抽出されたオブジェクトに関連付けてメモリ106に保存させる。その後、制御部105は、S601に処理を戻し、全ての合成対象画像に対する代表距離値計算処理と顔認識処理が終わったか否かを再度判定する。このように、制御部105は、全ての合成対象画像の代表距離値計算処理と顔認識処理が終わるまで、S601の判定処理とS602の代表距離値計算処理及び顔認識処理を繰り返す。そして、制御部105は、S601において、全ての成対象画像に対する代表距離値計算処理と顔認識処理が終わったと判定した場合、S603に処理を進める。
After proceeding to S602, the
S603に進むと、制御部105は、メモリ106内に各オブジェクトと関連付けられて格納されている代表距離値と顔の有無情報とを基に、各オブジェクトの合成順番をソートする処理を行う。この場合、制御部105は、複数の合成対象画像から抽出された複数のオブジェクトの代表距離値をメモリ106から取得し、それら代表距離値の差分が一定範囲内となっている近い値であるかどうかを判定する。さらに、制御部105は、オブジェクトの代表距離値が近い場合において、何れかのオブジェクトに特定のオブジェクトが含まれているか否か判定する。この例の場合、制御部105は、顔の有無情報を用い、代表距離値が近いオブジェクトの中に顔オブジェクトを含むオブジェクトが存在するか否かを判定する。そして、制御部105は、代表距離値が近いオブジェクトの中に顔オブジェクトを含むオブジェクトが存在する場合、そのオブジェクトが合成時に手前側に合成(後から合成)されるように合成順番を決定する。この場合、制御部105は、代表距離値の差分が一定範囲内となっている各オブジェクトのうち、顔オブジェクトを含むオブジェクトが合成時に手前側に合成される合成順番になるように、当該顔オブジェクトを含むオブジェクトの代表距離値を変更する。このS603の後、制御部105は、S604に処理を進める。
Proceeding to S603, the
なお、制御部105は、顔オブジェクトを含んでいない方のオブジェクトが合成時において後ろ側に合成される合成順番になるように、当該顔オブジェクトを含んでいない方のオブジェクトの代表距離値を変更しても良い。
また、例えば共に顔を含むオブジェクト同士の代表距離値の差分が一定範囲内である場合には、それら顔を含む各オブジェクトでは代表距離値に応じた合成順番に決定される。このように共に顔を含むオブジェクト同士の代表距離値が近い場合には、さらに後述する第4実施形態のように顔の部位等の代表距離値を用いて合成を行うようにしても良い。
Note that the
Further, for example, when the difference in the representative distance value between objects that both include faces is within a certain range, the synthesis order is determined according to the representative distance value for each object that includes the face. In this way, when the representative distance values of objects including faces are close to each other, synthesis may be performed using the representative distance values of facial parts, etc., as in the fourth embodiment described later.
S604に進むと、制御部105は、合成部102に対して、S603で決定された代表距離値による合成順番、つまり代表距離値が小さいオブジェクトの順(カメラから遠い順)で背景画像に合成させる。すなわちこの場合、画像合成では、代表距離値の差分が一定範囲内となっていた各オブジェクトのうち、顔を含まない方のオブジェクトから背景画像に合成され、その後、顔を含むオブジェクトが合成される。そして、制御部105は、合成部102による合成処理がなされて得られた合成画像データをメモリ106に保存させる。
In step S604, the
第3実施形態における画像合成について図8を用いて具体的に説明する。
図8は画像E,画像F,画像Gの3枚が合成対象画像となっている例を挙げる。画像Eのオブジェクトは代表距離値が1.0mで、かつ顔認識の結果、顔のオブジェクトは存在しないと判定されたものであるとする。画像Fと画像Gはそれぞれオブジェクトの代表距離値が同じ0.8mであるが、画像Fには顔のオブジェクトが存在すると判定されたのに対し、画像Gには顔のオブジェクトが存在しないと判定されたものであるとする。
Image composition in the third embodiment will be specifically described with reference to FIG.
FIG. 8 shows an example in which three images, image E, image F, and image G, are images to be synthesized. It is assumed that the object of image E has a representative distance value of 1.0 m, and that it has been determined that there is no face object as a result of face recognition. Image F and image G have the same representative distance value of 0.8 m for each object, but image F is judged to have a face object, while image G is judged to have no face object. It is assumed that
この場合、合成順番は以下のように決定される。
代表距離値がカメラから遠い画像Eのオブジェクトは、背景画像に最初に合成される合成順番として決定される。画像Fと画像Gのオブジェクトは代表距離値が同じであるため、顔の有無が判断される。画像Fには顔のオブジェクトが含まれ、画像Gは顔のオブジェクトが含まれないため、画像Gのオブジェクトの合成順番が先に決定され、画像Fのオブジェクトの合成順番は画像Gのオブジェクトの後に決定される。このようにすることで、画像Eのオブジェクトが最も奥側に配置され、次に、画像Gのオブジェクトが配置され、画像Fの顔のオブジェクトが最前面に配置された合成画像が得られることになる。
In this case, the synthesis order is determined as follows.
Objects in image E whose representative distance value is far from the camera are determined as the composition order in which they are first composited with the background image. Since the objects in image F and image G have the same representative distance value, presence/absence of a face is determined. Since image F contains a face object and image G does not contain a face object, the composition order of image G objects is determined first, and the composition order of image F objects is determined after image G objects. It is determined. By doing so, a composite image can be obtained in which the object of image E is arranged on the farthest side, the object of image G is arranged next, and the face object of image F is arranged in the foreground. Become.
第3実施形態では、代表距離値を使用しながら合成を行うが、代表距離値が近い値になっているオブジェクト同士については顔のオブジェクトを含むか否かを判定し、顔のオブジェクトを含むオブジェクトについては手前側に合成される合成順番を決定する。これにより、第3実施形態においても違和感のない合成画像が得られる。 In the third embodiment, synthesis is performed while using representative distance values. Objects having close representative distance values are judged whether or not they contain a face object. Determines the order of compositing on the near side. As a result, a natural synthesized image can be obtained even in the third embodiment.
<第4実施形態>
第4実施形態では、第1実施形態で述べた代表距離値を算出する際の異なる算出方法について説明する。
第4実施形態における代表距離値の算出方法では、オブジェクトの重なりを比較する対象となる二つ以上のオブジェクトについてそれぞれ同じ部位の奥行距離情報を算出し、それを代表距離値とする。
<Fourth Embodiment>
In the fourth embodiment, a different calculation method for calculating the representative distance value described in the first embodiment will be described.
In the method of calculating the representative distance value in the fourth embodiment, the depth distance information of the same part is calculated for each of two or more objects whose overlaps are to be compared, and is used as the representative distance value.
第4実施形態の代表距離値算出方法について、図9(a)と図9(b)を用いながら説明する。図9(a)において、画像900は、三人の人物が被写体として撮影された画像である。画像900は、人物(A)、人物(B)、人物(C)の三人の顔画像901,902,903が写っている例に挙げている。顔画像901は人物(A)の顔の画像であり、帽子904を着用している。顔画像902は人物(B)の顔の画像であり、顔を隠すものは存在していないとする。顔画像903は人物(C)の顔の画像であり、顔の前に手905があるとする。
The representative distance value calculation method of the fourth embodiment will be described with reference to FIGS. 9(a) and 9(b). In FIG. 9A, an
図9(b)は図9(a)の例における距離マップ910を前述同様に示した図である。図9(b)に示すように、距離マップ910は、図9(a)の各被写体(人物)と帽子や手の奥行距離を含んだ距離マップとなっている。この図9(b)の距離マップ910において、斜線により表されたメッシュ部分911は顔画像901及び帽子904に対応しており、メッシュ部分912は顔画像902に、メッシュ部分913は顔画像903及び手905に対応している。メッシュ部分912では、顔画像902の中央に相当する部分917の奥行距離の値が大きくなっている。一方、メッシュ部分911の場合、顔画像901の中央に相当する部分916の奥行距離の値よりも、帽子904に対応した部分914の奥行距離の値の方が大きくなっている。また、メッシュ部分913の場合、顔画像903の中央に相当する部分919よりも、手905に対応した部分915の奥行距離の値の方が大きくなっている。
FIG. 9(b) is a diagram showing the
距離算出部107は、人物(A)の顔画像901及び帽子904、人物(B)の顔画像902、人物(C)の顔画像903及び手905を含む各オブジェクトの代表距離値を計算する。そして、距離算出部107は、それら各オブジェクトにそれぞれ対応したメッシュ部分911,912,913における各画素の奥行距離を合計して平均し、代表距離値を算出する。ただし、図9(a)の画像900の場合、代表距離値の計算結果は、帽子904や手905等の奥行距離の影響を受けることになる。
The
そこで、第4実施形態では帽子904や手905などの要因を除くようにして、顔の位置のみを比較する。ここで、単純に顔だけの奥行距離を比較するために、制御部105は、オブジェクト抽出部103に対し、各顔画像901,902,903のそれぞれから、例えば鼻の部位(パーツ)だけを抽出するよう指示する。顔の鼻等の部位を認識する技術は既存の技術であるため、その説明は省略する。そして、距離算出部107では、オブジェクト抽出部103により抽出された鼻の位置に該当する各画素の奥行距離の値を加算平均して代表距離値として算出する。図9(b)の例の場合、鼻の部分に相当する奥行距離の値は、前述した顔の中央に相当する部分916の距離値「9」、部分917の距離値「10」、部分919の距離値「8」となる。
Therefore, in the fourth embodiment, the
このように第4実施形態では、顔の一部の部位(パーツ)から代表距離値を計算することで、計算面積を減らすことに加え、帽子や手などの要素を省いて顔のオブジェクトの代表距離値を計算することができる。ここでは、顔のパーツとして鼻を挙げたが、これには限定されず、例えば目や口等のように特徴があり認識し易く、奥行距離の比較が容易な部位であれば良い。また、人体でなくても、自動車同士の比較では自動車のタイヤ位置のようにオブジェクト抽出部103が抽出可能なものであればどのようなものであっても良い。
Thus, in the fourth embodiment, by calculating the representative distance value from a part of the face (parts), in addition to reducing the calculation area, elements such as hats and hands are omitted to represent the face object. A distance value can be calculated. Here, the nose is used as a part of the face, but the present invention is not limited to this, and any part such as the eyes, mouth, etc. may be used as long as it has a feature, is easy to recognize, and is easy to compare depth distances. Moreover, even if it is not a human body, it may be anything that can be extracted by the
<第5実施形態>
第5実施形態では、第1実施形態で説明したオブジェクトの奥行距離情報を編集して、他のオブジェクトと合成する方法について説明する。
この第5実施形態における合成方法について図10を用いて説明する。
図10において、画像1000は人物(A)、画像1010は人物(B)が写った合成対象画像であり、それぞれにオブジェクト1001、1011が写っている。また、マップ1002は、画像1000の奥行距離情報Zのマップである。同様のマップ1012は、画像1010の奥行距離情報Zのマップである。マップ1002には、オブジェクト1001に対応したメッシュ部分1003が含まれ、マップ1012にはオブジェクト1011に対応したメッシュ部分1013が含まれている。
<Fifth Embodiment>
In the fifth embodiment, a method of editing the depth distance information of the object described in the first embodiment and synthesizing it with another object will be described.
A synthesizing method according to the fifth embodiment will be described with reference to FIG.
In FIG. 10, an
この図10の例において、奥行距離情報のマップ1002と1012のうち、オブジェクト1001のメッシュ部分1003と、オブジェクト1011のメッシュ部分1013とを比較すると、オブジェクト1011の方が手前にあることがわかる。ここで、合成部102がこれらのオブジェクトを合成すると、合成画像1020が得られる。この合成画像1020は、人物(B)のオブジェクト1011に対応したオブジェクト1021の方が手前になるように合成された画像となる。
In the example of FIG. 10, comparing the
次に、ユーザが、人物(A)のオブジェクト1001を、人物(B)のオブジェクト1011の前方に配置して画像合成指示を行ったとする。この場合、ユーザの指示を受けて、制御部105は、オブジェクト1001の奥行距離情報Zを一括で変更する。すなわち、制御部105は、オブジェクト1001の奥行距離情報のマップ1002のうち各奥行距離の値Z(a,b)が0でない部分、つまりオブジェクト1001に対応したメッシュ部分1003について距離値Xを一律に加算する。距離値Xは、例えばユーザにより指定された値でも良いし、予め決められた値でも良いし、ユーザにより指示されたオブジェクトとそれ以外のオブジェクトの奥行距離情報を基に制御部105が適切な値として決定した値でも良い。これにより、新しい奥行距離情報NewZ(a,b)が算出される。
Next, it is assumed that the user places the
このときの制御部105は、新しい奥行距離情報NewZ(a,b)を下記式のようにして算出する。
At this time, the
NewZ(a,b)=0 //Z(a,b)==0
=Z(a,b)+X //Z(a,b)!==0
NewZ(a,b)=0 //Z(a,b)==0
=Z(a,b)+X //Z(a,b)! == 0
第5実施形態の例において、マップ1004は、X=5とした場合に、制御部105で奥行距離情報Zが0でない場所に5が加算された例を示しており、メッシュ部分1005が加算後の奥行距離情報NewZの領域である。
In the example of the fifth embodiment, the
このような処理が行われることで、合成部102では、画像1022に示すような合成画像が生成される。この画像1022では、人物(A)のオブジェクトは画像としての見た目は変わらないものの、奥行方向では5の値に相当する距離分だけ手前の位置に再配置される。その結果としてメッシュ部分1005の値は14(9+5)となり、メッシュ部分1013の値は10となる。合成部102は、このマップ1004のメッシュ部分1003の奥行距離情報を基に、オブジェクト1001とオブジェクト1011を背景画像に合成して、画像1022を生成する。これらの結果として画像1022は、人物(A)のオブジェクトが人物(B)のオブジェクトの手前に配置された合成画像となる。
By performing such processing, the synthesizing
第5実施形態によれば、オブジェクトの奥行距離情報を編集して各オブジェクトを合成することにより、各オブジェクトの配置を違和感無く入れ替えた合成画像を得ることができる。 According to the fifth embodiment, by editing the depth distance information of the objects and synthesizing the respective objects, it is possible to obtain a synthetic image in which the positions of the respective objects are interchanged without causing a sense of incongruity.
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 All of the above-described embodiments merely show specific examples for carrying out the present invention, and the technical scope of the present invention should not be construed to be limited by these. That is, the present invention can be embodied in various forms without departing from its technical spirit or main features.
100:画像データ読み込み部、101:デコード部、102:合成部、103:オブジェクト抽出部、104:表示部、105:制御部、106:メモリ、107:距離算出部 100: image data reading unit, 101: decoding unit, 102: synthesis unit, 103: object extraction unit, 104: display unit, 105: control unit, 106: memory, 107: distance calculation unit
Claims (11)
前記画像に含まれる奥行距離の情報を基に、前記複数の画像から抽出されたオブジェクトごとに奥行距離を代表する代表距離値を決定する決定手段と、
前記抽出されたオブジェクトごとの前記代表距離値に基づいて、前記オブジェクトを合成して合成画像を生成する合成手段と
を有し、
前記決定手段は、前記オブジェクトが合成される際にオブジェクト同士が重なる場合には前記重なるオブジェクトについて前記代表距離値を決定し、前記オブジェクト同士が重ならないオブジェクトについては代表距離値として初期値を決定することを特徴とする画像処理装置。 an extraction means for extracting an object from a plurality of images;
Determination means for determining a representative distance value representing the depth distance for each object extracted from the plurality of images, based on the depth distance information included in the images;
synthesizing means for synthesizing the objects to generate a synthetic image based on the representative distance value for each of the extracted objects;
The determining means determines the representative distance value for the overlapping objects when the objects overlap when the objects are combined , and determines an initial value as the representative distance value for the objects that do not overlap . An image processing apparatus characterized by:
複数の画像からオブジェクトを抽出する抽出工程と、
前記画像に含まれる奥行距離の情報を基に、前記複数の画像から抽出されたオブジェクトごとに奥行距離を代表する代表距離値を決定する決定工程と、
前記抽出されたオブジェクトごとの前記代表距離値に基づいて、前記オブジェクトを合成して合成画像を生成する合成工程と
を有し、
前記決定工程では、前記オブジェクトが合成される際にオブジェクト同士が重なる場合には前記重なるオブジェクトについて前記代表距離値を決定し、前記オブジェクト同士が重ならないオブジェクトについては代表距離値として初期値を決定することを特徴とする画像処理方法。 An image processing method executed by an image processing device,
an extraction step of extracting an object from a plurality of images;
a determination step of determining a representative distance value that represents the depth distance for each object extracted from the plurality of images based on the depth distance information included in the images;
a synthesizing step of synthesizing the objects to generate a synthetic image based on the representative distance value for each of the extracted objects;
In the determining step, if the objects overlap when the objects are merged, the representative distance value is determined for the overlapping objects, and an initial value is determined as the representative distance value for the objects that do not overlap . An image processing method characterized by:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018001184A JP7191514B2 (en) | 2018-01-09 | 2018-01-09 | Image processing device, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018001184A JP7191514B2 (en) | 2018-01-09 | 2018-01-09 | Image processing device, image processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019121216A JP2019121216A (en) | 2019-07-22 |
JP7191514B2 true JP7191514B2 (en) | 2022-12-19 |
Family
ID=67306424
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018001184A Active JP7191514B2 (en) | 2018-01-09 | 2018-01-09 | Image processing device, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7191514B2 (en) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003219271A (en) | 2002-01-24 | 2003-07-31 | Nippon Hoso Kyokai <Nhk> | System for synthesizing multipoint virtual studio |
WO2004019621A1 (en) | 2002-08-20 | 2004-03-04 | Kazunari Era | Method and device for creating 3-dimensional view image |
JP2008217593A (en) | 2007-03-06 | 2008-09-18 | Nippon Hoso Kyokai <Nhk> | Subject area extraction device and subject area extraction program |
JP2010224607A (en) | 2009-03-19 | 2010-10-07 | Casio Computer Co Ltd | Image composition device and program |
JP2012105019A (en) | 2010-11-09 | 2012-05-31 | Toshiba Corp | Image processing device, method, and program thereof |
JP2013118468A (en) | 2011-12-02 | 2013-06-13 | Sony Corp | Image processing device and image processing method |
JP2013157671A (en) | 2012-01-26 | 2013-08-15 | Sony Corp | Image processing device, image processing method, program, terminal device, and image processing system |
JP5270052B1 (en) | 2012-07-20 | 2013-08-21 | 楽天株式会社 | Movie processing apparatus, movie processing method, and information recording medium |
US20160180514A1 (en) | 2014-12-17 | 2016-06-23 | Lite-On Electronics (Guangzhou) Limited | Image processing method and electronic device thereof |
-
2018
- 2018-01-09 JP JP2018001184A patent/JP7191514B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003219271A (en) | 2002-01-24 | 2003-07-31 | Nippon Hoso Kyokai <Nhk> | System for synthesizing multipoint virtual studio |
WO2004019621A1 (en) | 2002-08-20 | 2004-03-04 | Kazunari Era | Method and device for creating 3-dimensional view image |
JP2008217593A (en) | 2007-03-06 | 2008-09-18 | Nippon Hoso Kyokai <Nhk> | Subject area extraction device and subject area extraction program |
JP2010224607A (en) | 2009-03-19 | 2010-10-07 | Casio Computer Co Ltd | Image composition device and program |
JP2012105019A (en) | 2010-11-09 | 2012-05-31 | Toshiba Corp | Image processing device, method, and program thereof |
JP2013118468A (en) | 2011-12-02 | 2013-06-13 | Sony Corp | Image processing device and image processing method |
JP2013157671A (en) | 2012-01-26 | 2013-08-15 | Sony Corp | Image processing device, image processing method, program, terminal device, and image processing system |
JP5270052B1 (en) | 2012-07-20 | 2013-08-21 | 楽天株式会社 | Movie processing apparatus, movie processing method, and information recording medium |
US20160180514A1 (en) | 2014-12-17 | 2016-06-23 | Lite-On Electronics (Guangzhou) Limited | Image processing method and electronic device thereof |
Also Published As
Publication number | Publication date |
---|---|
JP2019121216A (en) | 2019-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4970302B2 (en) | Image processing apparatus, image processing method, and imaging apparatus | |
CN102170527B (en) | Image processing apparatus | |
JP5949331B2 (en) | Image generating apparatus, image generating method, and program | |
JP2002171398A (en) | Image processing method and electronic camera | |
WO2004015987A1 (en) | Image combination device, image combination method, image combination program, and recording medium containing the image combination program | |
KR20150119621A (en) | display apparatus and image composition method thereof | |
JP2010239440A (en) | Image compositing apparatus and program | |
CN112166455A (en) | Image processing method, image processing device, movable platform and machine-readable storage medium | |
KR101165017B1 (en) | 3d avatar creating system and method of controlling the same | |
JP2008131542A (en) | Color correction apparatus, and color correction program | |
JP6614644B2 (en) | Photo shooting game device, photo sticker creating device, photo shooting game device control method, and photo shooting game device control program | |
JP2013226286A (en) | Method for synthesizing hair style, device for synthesizing hair style, and program for synthesizing hair style | |
US8971636B2 (en) | Image creating device, image creating method and recording medium | |
JP2010092094A (en) | Image processing apparatus, image processing program, and digital camera | |
JP7191514B2 (en) | Image processing device, image processing method, and program | |
JP4596929B2 (en) | Background image generation apparatus and background image generation program | |
JP5857606B2 (en) | Depth production support apparatus, depth production support method, and program | |
JP2010097449A (en) | Image composition device, image composition method and image composition program | |
US10021310B2 (en) | Characteristic image display apparatus | |
WO2014132816A1 (en) | Image processing device, method, and program | |
JP6717486B1 (en) | Extended virtual space providing system | |
JP6332864B2 (en) | Image processing apparatus, image processing method, and program | |
JP2011172103A (en) | Image generating apparatus | |
JP2016129281A (en) | Image processor | |
JP2007166383A (en) | Digital camera, image composing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220607 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220720 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221207 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7191514 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |