JP2020513123A - イメージに動的エフェクトを適用する方法および装置 - Google Patents

イメージに動的エフェクトを適用する方法および装置 Download PDF

Info

Publication number
JP2020513123A
JP2020513123A JP2019551550A JP2019551550A JP2020513123A JP 2020513123 A JP2020513123 A JP 2020513123A JP 2019551550 A JP2019551550 A JP 2019551550A JP 2019551550 A JP2019551550 A JP 2019551550A JP 2020513123 A JP2020513123 A JP 2020513123A
Authority
JP
Japan
Prior art keywords
dynamic effect
information
target image
applying
effect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019551550A
Other languages
English (en)
Other versions
JP6859452B2 (ja
Inventor
チェー,サンホ
パク,ビョンソン
ジン,ジョン−ファン
イ,ウォンヒョ
シン,ヒョンベ
ジョン,ソンヨプ
キム,ソンウク
ハム,ノア
キム,ジミン
Original Assignee
スノー コーポレーション
スノー コーポレーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by スノー コーポレーション, スノー コーポレーション filed Critical スノー コーポレーション
Publication of JP2020513123A publication Critical patent/JP2020513123A/ja
Application granted granted Critical
Publication of JP6859452B2 publication Critical patent/JP6859452B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • G06T5/94
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

イメージに含まれるオブジェクトの形状に関する情報およびイメージに含まれるオブジェクトの間の相対的位置に関する情報を含む所定のパターン情報に基づいてターゲットイメージから奥行き情報を取得し、取得された奥行き情報に基づいてターゲットイメージに動的エフェクトを適用する、イメージ処理方法が提供される。

Description

本開示は、イメージに動的エフェクトを適用する方法および装置に関し、より詳細には、イメージの少なくとも1つの部分の奥行き情報を取得し、取得された奥行き情報に基づいてイメージにモーションエフェクトのような動的エフェクトを適用する方法および装置に関する。
イメージ(画像)は、2次元の事物を表現するものであるため、動画のような躍動感や臨場感を表現することができない。これに対し、動画の場合は、イメージに比べて容量が極めて大きい上に、制作に多くの時間がかかるという短所がある。
複数のイメージを撮影した後、これらの複数のイメージを合成することにより、動画のように認識することのできるコンテンツ(イメージ)を生成する方法も存在する。しかしながら、複数のイメージを撮影するのは極めて面倒である上に、複数のイメージを合成して生成したコンテンツの容量は、複数のイメージの容量を合わせたものであるため、単一イメージに比べて容量が大きくなり、効率的でない。
したがって、動画ではなく、イメージを基盤として生成されたコンテンツで躍動感や臨場感を表現することができるとともに、既存のイメージと比べて容量を著しく増加させないコンテンツを生成するためのイメージ処理方法および装置が求められている。
特許文献1は、2次元イメージデータに含まれる複数のオブジェクトから選択された第1オブジェクトを分離し、背景の第1位置および第2位置に第1オブジェクトの配置に関するデータを生成することにより、2次元イメージを3次元イメージで表示する方法を記載している。
上述した情報は、理解を助けるためのものに過ぎず、従来技術の一部を形成しない内容を含むこともあるし、従来技術が当業者に提示することができる内容を含まないこともある。
韓国登録特許第10−1513999号公報
一実施形態は、イメージに含まれるオブジェクトの形状に関する情報およびイメージに含まれるオブジェクトの間の相対的位置に関する情報を含む所定のパターン情報に基づいてターゲットイメージの奥行き情報を取得し、取得された奥行き情報に基づいてターゲットイメージに動的エフェクトを適用するイメージ処理方法を提供することを目的とする。
一側面において、イメージに含まれるオブジェクトの形状に関する第1情報および前記イメージに含まれる少なくとも2つのオブジェクトの間の相対的位置に関する第2情報を含む所定のパターン情報に基づいて、ターゲットイメージに含まれるオブジェクトの少なくとも第1部分および前記ターゲットイメージから前記ターゲットイメージに含まれるオブジェクトを除いた領域のうちの少なくとも第2部分のうちの少なくとも1つの奥行き情報を取得する段階、および前記の取得された奥行き情報に基づいて、前記第1部分および前記第2部分のうちの少なくとも1つに動的エフェクトを適用する段階を含む、イメージ処理方法を提供する。
前記奥行き情報を取得する段階は、前記ターゲットイメージの複数のポイントそれぞれの奥行き情報を取得してよい。
前記ポイントそれぞれは、前記第1部分または前記第2部分に対応してよい。
前記動的エフェクトを適用する段階は、前記複数のポイントから取得された奥行き情報が示す奥行き値に基づいて、前記ポイントのうちの少なくとも2つのポイントそれぞれに互いに異なる動的エフェクトを適用してよい。
前記動的エフェクトを適用する段階は、前記ポイントのうち、奥行き値が所定の値以上であるポイントに第1動的エフェクトを適用する段階、および前記ポイントのうち、奥行き値が前記所定の値未満であるポイントに第2動的エフェクトを適用する段階を含んでよい。
前記第1動的エフェクトおよび前記第2動的エフェクトは、適用されるポイントと連関するオブジェクトまたは前記連関するオブジェクトに含まれる要素にモーションエフェクトが発生されるようにしてよい。
前記第1動的エフェクトが適用されるときは、前記第2動的エフェクトが適用されるときよりも、前記連関するオブジェクトまたは前記連関するオブジェクトに含まれる要素に大きなモーションエフェクトを発生させてよい。
前記ターゲットイメージに含まれるオブジェクトは、背景、前記背景を構成する事物、または前記ターゲットイメージから前記背景を除いた事物であってよい。
前記奥行き情報は、前記ターゲットイメージに含まれるオブジェクトまたは前記含まれるオブジェクトに含まれる一要素を基準とした相対的な奥行き値を示してよい。
前記動的エフェクトは、適用される前記ターゲットイメージの部分に、モーションエフェクト、色変更エフェクト、および形状変更エフェクトのうちの少なくとも1つが発生されるようにしてよい。
前記モーションエフェクトは、適用される前記ターゲットイメージの部分に、振動エフェクト、回転エフェクト、または傾きエフェクトが発生されるようにしてよい。
前記第1情報は、前記ターゲットイメージに含まれる特定のオブジェクトの影を識別するための情報または前記特定のオブジェクトの輪郭を識別するための情報を含んでよい。
前記第2情報は、前記影の方向、大きさ、および形状のうちの少なくとも1つ、または、前記輪郭と他のオブジェクトの輪郭との関係に基づいて、前記ターゲットイメージに含まれる前記特定のオブジェクトと他のオブジェクトとの間の相対的位置を前記奥行き情報として決定するための情報を含んでよい。
前記動的エフェクトを適用する段階は、所定の動的エフェクトパターン情報に基づいて、前記第1部分および前記第2部分のうちの少なくとも1つに適用される動的エフェクトを決定する段階、および前記の決定された動的エフェクトを前記第1部分および前記第2部分のうちの少なくとも1つに適用する段階を含んでよい。
前記動的エフェクトを適用する段階は、前記第1情報および第2情報に基づいて識別された前記ターゲットイメージに含まれるオブジェクトおよび前記オブジェクトを除いた領域のうちの少なくとも1つに関する情報に基づいて、前記所定の動的エフェクトパターン情報を決定する段階をさらに含んでよい。
前記第1情報は、前記ターゲットイメージに含まれる特定のオブジェクトを識別し、前記特定のオブジェクトに含まれる少なくとも1つの要素の形状を識別するための情報を含んでよい。
前記特定のオブジェクトは、人間の顔であってよい。
前記特定のオブジェクトに含まれる少なくとも1つの要素は、前記顔に含まれる部位であり、目、鼻、口、または耳であってよい。
前記動的エフェクトを適用する段階は、前記顔に適用される動的エフェクトに対応する第1表情パターン情報を決定する段階、および前記の決定された第1表情パターン情報に基づいて、前記顔または前記顔に含まれる部位にモーションエフェクトを適用する段階を含んでよい。
前記動的エフェクトを適用する段階は、前記ターゲットイメージから前記顔を除いた部分または前記ターゲットイメージ全体に適用される動的エフェクトに対応する第2表情パターン情報を決定する段階、および前記の決定された第2表情パターン情報に基づいて、前記顔を除いた部分または前記ターゲットイメージ全体にモーションエフェクトを適用する段階を含んでよい。
他の一側面において、イメージに含まれるオブジェクトの形状に関する第1情報および前記イメージに含まれる少なくとも2つのオブジェクトの間の相対的位置に関する第2情報を含む所定のパターン情報に基づいて、ターゲットイメージに含まれるオブジェクトの少なくとも第1部分および前記ターゲットイメージから前記ターゲットイメージに含まれるオブジェクトを除いた領域のうちの少なくとも第2部分のうちの少なくとも1つの奥行き情報を取得する奥行き情報取得部、および前記の取得された奥行き情報に基づいて、前記第1部分および前記第2部分のうちの少なくとも1つに動的エフェクトを適用する動的エフェクト適用部を備える、イメージ処理装置を提供する。
前記イメージ処理装置は、前記パターン情報を記録している第1データベースをさらに備えてよい。
前記奥行き情報取得部は、前記第1データベースから前記パターン情報を取得してよい。
前記動的エフェクト適用部は、所定の動的エフェクトパターン情報に基づいて、前記第1部分および前記第2部分のうちの少なくとも1つに適用される動的エフェクトを決定し、前記の決定された動的エフェクトを、前記第1部分および前記第2部分のうちの少なくとも1つに適用してよい。
前記イメージ処理装置は、前記動的エフェクトパターン情報を記録している第2データベースをさらに備えてよい。
前記動的エフェクト適用部は、前記第2データベースから前記動的エフェクトパターン情報を取得してよい。
所定のパターン情報に基づいてターゲットイメージの奥行き情報を取得し、取得された奥行き情報に基づいてターゲットイメージに動的エフェクトを適用して所期のコンテンツを生成することにより、ユーザが動画と同じような動的なコンテンツとして認識できるコンテンツを生成することができる。
一実施形態における、ターゲットイメージの奥行き情報を取得し、取得された奥行き情報に基づいてターゲットイメージに動的エフェクトを適用する方法を示した図である。 一実施形態における、ターゲットイメージに動的エフェクトを適用する装置を示した図である。 一実施形態における、ターゲットイメージの奥行き情報を取得し、取得された奥行き情報に基づいてターゲットイメージに動的エフェクトを適用する方法を示したフローチャートである。 一実施形態における、動的エフェクトパターン情報を決定し、動的エフェクトパターン情報によって決定された動的エフェクトをターゲットイメージに適用する方法を示したフローチャートである。 一実施形態における、ターゲットイメージの顔/その他の表情パターン情報を決定し、決定された表情パターン情報によって決定されたモーションエフェクトをターゲットイメージの顔/その他の領域に適用する方法を示したフローチャートである。 一実施形態における、イメージに含まれるオブジェクトにおいて、オブジェクトの輪郭および/または影を使用して該当のオブジェクトの奥行き情報を取得する方法を示したフローチャートである。 一実施形態における、イメージに含まれる顔を識別し、顔に含まれる部位の奥行き情報を取得し、顔に動的エフェクトを適用する方法を示した図である。 一実施形態における、イメージに含まれるオブジェクトである背景に動的エフェクトを適用する方法を示した図である。
以下、本発明の実施形態について、添付の図面を参照しながら詳細に説明する。
以下の詳細な説明では、動的エフェクトの適用対象となる「ターゲットイメージ」において、動的エフェクトが適用されていない「ターゲットイメージ」と動的エフェクトが適用された「ターゲットイメージ」との両方に、便宜上、同じように参照番号100を付与した。
図1は、一実施形態における、ターゲットイメージの奥行き情報を取得し、取得された奥行き情報に基づいてターゲットイメージに動的エフェクトを適用する方法を示した図である。
図1は、ターゲットイメージ100において、イメージに含まれる少なくとも1つのオブジェクトおよび/または該当のオブジェクトに含まれる少なくとも1つの要素の奥行き情報を取得し、取得された奥行き情報に基づいてオブジェクトおよび/または要素に動的エフェクトを適用する方法を示している。
ターゲットイメージ100に含まれるオブジェクトとは、イメージに含まれる事物もしくは背景、または、事物もしくは背景に含まれる要素を意味してよい。すなわち、ターゲットイメージに含まれるオブジェクトは、背景、背景を構成する事物、またはターゲットイメージから背景を除いた事物であってよい。「事物」とは、物品はもちろん、人間の身体や身体に含まれる部位を含む個体すべてを包括したものであってよい。例えば、図に示すように、背景110、人間120、および直方体の物体140それぞれは、ターゲットイメージ100に含まれるオブジェクトであってよい。また、人間120に含まれる顔130も、ターゲットイメージ100に含まれるオブジェクトであってよい。ターゲットイメージ100は、例えば、ユーザ端末などによって撮影された写真であってよい。
オブジェクトやオブジェクトに含まれる要素の奥行き情報は、該当のオブジェクトやオブジェクトに含まれる要素の特定の基準位置に対する、z軸方向への相対的な奥行き値を含んでよい。例えば、図に示す例において、ターゲットイメージ100に含まれる人間120は、背景110と比べてzの奥行き値を有し、物体140は、背景110に対してzの奥行き値を有してよい。
図2〜8を参照しながら詳しく説明されるイメージ処理装置は、所定のパターン情報を使用し、背景110、人間120、顔130、および物体140のうちの少なくとも1つの奥行き情報を取得してよく、取得された奥行き情報に基づいて、背景110、人間120、顔130、および物体140のうちの少なくとも1つに動的エフェクトを適用してよい。例えば、イメージ処理装置は、ターゲットイメージ100に対して所定のパターン情報を使用し、背景110が最も後ろにあり、人間120および物体140がその前方にあることを判定してよい。これにより、イメージ処理装置は、背景110だけに動的エフェクトを適用したり、人間120および物体140と背景110とにそれぞれ異なる動的エフェクトを適用したりすることが可能となる。
ターゲットイメージ100の奥行き情報を取得するために使用されるパターン情報は、イメージに含まれるオブジェクトの形状に関する情報(オブジェクトに含まれる要素の形状に関する情報を含む)およびイメージに含まれる少なくとも2つのオブジェクトの間の相対的位置に関する情報(オブジェクトに含まれる要素の間の相対的位置に関する情報を含む)を含んでよい。パターン情報は、予め定義された情報としてデータベースに記録されてよい。
ターゲットイメージ100に適用される動的エフェクトは、適用されるターゲットイメージ100の部分に、モーションエフェクト、色変更エフェクト(陰影変更エフェクトを含む)、および形状変更エフェクトのうちの少なくとも1つが発生されるようにするものであってよい。
ターゲットイメージ100から取得された奥行き情報に基づいて動的エフェクトがターゲットイメージ100に適用されることにより、ターゲットイメージ100に立体感が付与されるようになり、ユーザは、ターゲットイメージ100を動画と同じような動的なコンテンツ(または、3次元として認識される動的なコンテンツ)として認識することが可能となる。
パターン情報に基づいてターゲットイメージ100の奥行き情報を取得する具体的な実施形態とターゲットイメージ100に動的エフェクトを適用する具体的な実施形態とについては、図2〜8を参照しながらさらに詳しく説明する。
図2は、一実施形態における、ターゲットイメージに動的エフェクトを適用する装置を示した図である。
図2を参照しながら、ターゲットイメージ100の奥行き情報を取得して動的エフェクトを適用するイメージ処理装置200(以下、電子装置200と称する)について説明する。
電子装置200は、ターゲットイメージ100の奥行き情報を取得して動的エフェクトを適用するための動作を実行する装置であって、PC(personal computer)、ノート型PC、ラップトップコンピュータ、タブレット、IoT(Internet Of Things)機器、またはウェアラブルコンピュータなどのようにユーザが使用する端末であってよい。
また、電子装置200は、ユーザが撮影したか、ユーザが所有しているか、またはユーザが要求したターゲットイメージ100の奥行き情報を取得して動的エフェクトを適用する装置であって、ユーザ端末から離れた遠隔地に存在するサーバまたはその他のコンピュータ装置であってよい。
装置200は、通信部210および制御部220を備えてよい。
通信部210は、電子装置200が他のサーバやユーザ端末と通信するための装置であってよい。すなわち、通信部210は、他のサーバやユーザ端末との間でデータおよび/または情報を送信/受信する、電子装置200のネットワークインタフェースカード、ネットワークインタフェースチップ、およびネットワーキングインタフェースポートなどのようなハードウェアモジュール、または、ネットワークデバイスドライバもしくはネットワーキングプログラムのようなソフトウェアモジュールであってよい。
制御部220は、電子装置200の構成要素を管理してよく、電子装置200が使用するプログラムまたはアプリケーションを実行してよい。例えば、制御部220は、ターゲットイメージ100の奥行き情報を取得して動的エフェクトを適用するために実行されるプログラムまたはアプリケーションを実行してよく、他のサーバおよびユーザ端末から受信したデータを処理するように構成されてよい。また、制御部220は、プログラムまたはアプリケーションの実行およびデータの処理などに必要な演算を処理してよい。制御部220は、電子装置200の少なくとも1つのプロセッサまたはプロセッサ内の少なくとも1つのコアであってよい。
制御部220は、ターゲットイメージ100の奥行き情報を取得する奥行き情報取得部222、およびターゲットイメージ100に動的エフェクトを適用する動的エフェクト適用部224を含んでよい。
奥行き情報取得部222は、所定のパターン情報に基づいて、ターゲットイメージ100に含まれるオブジェクトの少なくとも第1部分およびターゲットイメージ100からターゲットイメージ100に含まれるオブジェクトを除いた領域のうちの少なくとも第2部分のうちの少なくとも1つの奥行き情報を取得してよい。所定のパターン情報は、イメージに含まれるオブジェクトの形状に関する第1情報およびイメージに含まれる少なくとも2つのオブジェクトの間の相対的位置に関する第2情報を含んでよい。
所定のパターン情報は、電子装置200の記録部(図示せず)またはデータベースに予め記録されている情報、または、電子装置200の外部のサーバまたはデータベースから取得される情報であってよい。
例えば、電子装置200は、パターン情報を記録しているパターン情報データベース232を含んでよい。奥行き情報取得部222は、パターン情報データベース232からパターン情報を取得してよい。
動的エフェクト適用部224は、取得された奥行き情報に基づいて、第1部分および第2部分のうちの少なくとも1つに動的エフェクトを適用してよい。動的エフェクト適用部224は、所定の動的エフェクトパターン情報に基づいて、第1部分および第2部分のうちの少なくとも1つに適用される動的エフェクトを決定してよく、決定された動的エフェクトを、第1部分および第2部分のうちの少なくとも1つに適用してよい。
所定の動的エフェクトパターン情報は、電子装置200の記録部(図示せず)またはデータベースに予め記録されている情報、または、電子装置200の外部のサーバまたはデータベースから取得される情報であってよい。
例えば、電子装置200は、動的エフェクトパターン情報を記録している動的エフェクトパターン情報データベース234を含んでよい。動的エフェクト適用部224は、動的エフェクトパターン情報データベース234から動的エフェクトパターン情報を取得してよい。
パターン情報データベース232および動的エフェクトパターン情報データベース234は、それぞれ異なる装置(またはサーバ)に含まれてもよいし、1つのデータベース230によって構築されてもよい。
制御部220の構成222および224のさらに具体的な機能および動作については、図3〜8を参照しながらさらに詳しく説明する。上述した制御部220の構成222および224は、少なくとも1つのプロセッサ内で実現されてよいため、構成222および224の機能および動作は、少なくとも1つのプロセッサによって実行されてよい。
一方、図に示されてはいないが、電子装置200は、ユーザが入力したデータを出力したり、動的エフェクトが適用された(または適用されていない)ターゲットイメージ100を表示したりするための表示部をさらに備えてよい。例えば、表示部は、タッチスクリーンを含んでよく、この場合、表示部は、ユーザからの設定および要求の入力を受けるための入力部の機能を備えるように構成されてよい。
図1を参照しながら説明した技術的特徴についての説明は、図2にもそのまま適用可能であるため、重複する説明を省略する。
図3は、一実施形態における、ターゲットイメージの奥行き情報を取得し、取得された奥行き情報に基づいてターゲットイメージに動的エフェクトを適用する方法を示したフローチャートである。
図3を参照しながら、上述した電子装置200が実行するターゲットイメージ100の奥行き情報取得方法および動的エフェクト適用方法についてさらに詳しく説明する。
段階310において、奥行き情報取得部222は、所定のパターン情報に基づいて、ターゲットイメージ100の少なくとも一部の奥行き情報を取得してよい。すなわち、奥行き情報取得部222は、所定のパターン情報に基づいて、ターゲットイメージ100に含まれるオブジェクトの少なくとも第1部分およびターゲットイメージ100からターゲットイメージ100に含まれるオブジェクトを除いた領域のうちの少なくとも第2部分のうちの少なくとも1つの奥行き情報を取得してよい。
所定のパターン情報は、イメージに含まれるオブジェクトの形状に関する第1情報およびイメージに含まれる少なくとも2つのオブジェクトの間の相対的位置に関する第2情報を含んでよい。
第1情報は、ターゲットイメージ100に含まれるオブジェクトおよび/またはオブジェクトに含まれる要素を識別するために使用される情報を含んでよい。例えば、第1情報は、オブジェクトやオブジェクトに含まれる要素に該当する特定の事物(身体の部位を包括する)の形状に関する情報を含んでよい。第2情報は、ターゲットイメージ100に含まれるオブジェクトの間の相対的位置、オブジェクトに含まれる要素の間の相対的位置、およびオブジェクトに含まれる要素と他のオブジェクトとの間の相対的位置のうちの少なくとも1つを決定するために使用される情報を含んでよい。相対的位置とは、奥行き値の比較を基盤とした情報であって、特定のオブジェクト(または要素)が他のオブジェクト(または要素)よりも前にあるか後ろにあるか、実質的に並んでいるかなどを示す情報であってよい。例えば、第2情報は、特定の事物(身体の部位)との関係において、該当の事物(部位)との間の通常的な相対的位置に関する情報を含んでよい。
所定のパターン情報に基づいて取得される奥行き情報は、ターゲットイメージ100に含まれるオブジェクトまたはターゲットイメージ100含まれるオブジェクトに含まれる一要素を基準とした奥行き値を示してよい。奥行き値は、相対的な値であってよい。例えば、奥行き値は、オブジェクト(または要素)が他のオブジェクト(または要素)よりも前にあるか後ろにあるか、実質的に並んでいるかなどを比較できる程度の精密度を有する値であってよい。すなわち、奥行き情報は、ターゲットイメージ100に含まれるオブジェクト(または要素)の間の正確な奥行き値の差に関する情報を含まなくてよい。
例えば、奥行き情報取得部222は、所定のパターン情報の第1情報を使用してターゲットイメージ100に含まれる背景110(例えば、後面の壁、山、空、または海)と背景ではないオブジェクト(例えば、人間120および物体140)とを認識してよく、認識された背景110と人間120および物体140とに対して第2情報を使用することにより、背景110が人間120および物体140よりも後ろにあることを識別し、これを奥行き情報として取得してよい。
奥行き情報取得部222は、所定のパターン情報を使用することにより、ターゲットイメージ100の複数のポイントそれぞれの奥行き情報を取得してよい。ここで、それぞれのポイントは、上述した第1部分または第2部分に対応してよい。言い換えれば、奥行き情報取得部222は、ターゲットイメージ220の複数の部分から相対的なz軸の値情報を取得してよい。
段階320において、動的エフェクト適用部224は、段階310において取得された奥行き情報に基づいて、ターゲットイメージ100の少なくとも一部に動的エフェクトを適用してよい。すなわち、動的エフェクト適用部224は、取得された奥行き情報に基づいて、上述した第1部分および上述した第2部分のうちの少なくとも1つに動的エフェクトを適用してよい。
動的エフェクトは、適用されるターゲットイメージ100の部分に、例えば、モーションエフェクト、色変更エフェクト、および形状変更エフェクトのうちの少なくとも1つが発生されるようにするものであってよい。モーションエフェクトは、一例として、適用されるターゲットイメージ100の部分に、振動エフェクト、回転エフェクト、または傾きエフェクトが発生されるようにするものであってよい。
モーションエフェクトの適用は、例えば、ターゲットイメージ100の特定の部分を、x軸、y軸、およびz軸のうちの少なくとも1つの軸を基準として回転させる回転動作、および/または、特定の部分を、上、下、左、および右のうちのいずれか1つの方向にシフトさせるシフト動作を、ターゲットイメージ100の特定の部分に適用させるものであってよい。
ターゲットイメージ100の複数のポイントそれぞれの奥行き情報を取得する場合における、ターゲットイメージ100に動的エフェクトを適用する方法については、段階322および324において詳細に説明する。図に示すように、段階322および324は、段階320に含まれてよい。
段階322において、動的エフェクト適用部224は、段階310において取得された奥行き値に基づいて、ターゲットイメージ100の第1一部に第1動的エフェクトを適用してよい。例えば、動的エフェクト適用部224は、複数のポイントのうち、測定された奥行き値が所定の値以上であるポイントに第1動的エフェクトを適用してよい。所定の値とは、相対的位置に対応する相対的な値であり、基準となるオブジェクトまたはオブジェクトに含まれる要素の相対的位置に対応する値を示してよい。
段階324において、動的エフェクト適用部224は、段階310において取得された奥行き値に基づいて、ターゲットイメージ100の第1一部とは異なる一部(第2一部)に第2動的エフェクトを適用してよい。例えば、動的エフェクト適用部224は、複数のポイントのうち、測定された奥行き値が所定の値未満であるポイントに第2動的エフェクトを適用してよい。
すなわち、ターゲットイメージ100の複数のポイントから取得された奥行き情報が示す奥行き値に基づいて、ターゲットイメージ100の複数のポイントのうちの少なくとも2つのポイントそれぞれに互いに異なる動的エフェクトを適用してよい。
第1動的エフェクトおよび第2動的エフェクトは、ターゲットイメージ100の適用されるポイントと連関するオブジェクトまたは連関するオブジェクトに含まれる要素にモーションエフェクトが発生されるようにしてよい。第1動的エフェクトが適用されるときは、第2動的エフェクトが適用されるときよりも、連関するオブジェクトまたは連関するオブジェクトに含まれる要素に大きなモーションエフェクトが発生されるようになる。
例えば、動的エフェクト適用部224は、測定された奥行き値が所定の値以上であるポイントには、より大きな振動を発生させるモーションエフェクトを適用してよく、測定された奥行き値が所定の値未満であるポイントには、より小さな振動を発生させるモーションエフェクトを適用してよい。これにより、動的エフェクトが付加されたターゲットイメージ100においては、前に位置するオブジェクトの振動を小さくし、後ろに位置するオブジェクトの振動を大きくする、立体的エフェクトを示すことが可能となる。
また、第1動的エフェクトは、背景110に適用されるものであって、x軸、y軸、およびz軸のうちの少なくとも1つを基準とした背景110の回転または背景110のシフトであってよく、第2動的エフェクトは、背景110ではなく、事物120および140に適用されるものであって、フィルタエフェクトまたは強調エフェクト(内部および/または輪郭線の強調)であってもよい。
段階330において、動的エフェクト適用部224は、動的エフェクトが適用されたターゲットイメージ100を所期のコンテンツとして生成してよい。例えば、動的エフェクト適用部224は、動的エフェクトが適用されていないターゲットイメージ100と動的エフェクトが適用されたターゲットイメージ100(または、ターゲットイメージ100の動的エフェクトが適用された部分)とを合成することによって所期のコンテンツを生成してよい。
ターゲットイメージ100の奥行き情報取得方法および動的エフェクト適用方法に関するより具体的な実施形態については、図4〜8を参照しながらさらに詳しく説明する。
図1および図2を参照しながら説明した技術的特徴についての説明は、図3にもそのまま適用可能であるため、重複する説明を省略する。
図4は、一実施形態における、動的エフェクトパターン情報を決定し、動的エフェクトパターン情報によって決定された動的エフェクトをターゲットイメージに適用する方法を示したフローチャートである。
図3を参照しながら説明した段階310において、制御部220(または、奥行き情報取得部222もしくは動的エフェクト適用部224)は、パターン情報に基づいてターゲットイメージ100に含まれるオブジェクト(オブジェクトに含まれる要素を含む)および/または該当のオブジェクトを除いた領域に関する情報を取得してよい(段階410)。例えば、制御部220は、パターン情報に基づいてターゲットイメージ100に含まれるオブジェクトが何であるかを識別してよい。
以下で説明する段階420〜440により、識別されたオブジェクトやターゲットイメージ100から該当のオブジェクトを除いた領域に適した動的エフェクトが決定されて適用されてよい。
段階420において、動的エフェクト適用部224は、段階410において取得された情報に基づいて、ターゲットイメージ100に適用される動的エフェクトを決定するための所定の動的エフェクトパターン情報を決定してよい。すなわち、動的エフェクト適用部224は、上述した(奥行き情報を取得するための)パターン情報に含まれる第1情報および第2情報に基づいて識別されたターゲットイメージ100に含まれるオブジェクトおよび該当のオブジェクトを除いた領域のうちの少なくとも1つに関する情報に基づいて、所定の動的エフェクトパターン情報を決定してよい。所定の動的エフェクトパターン情報の決定は、ユーザによる入力または選択をさらに基盤としてよい。例えば、識別されたターゲットイメージ100のオブジェクトと関連し、該当のオブジェクトに適用可能な複数の動的エフェクトそれぞれ(またはいくつか)が動的エフェクトパターン情報に対応する場合、動的エフェクト適用部224は、複数の動的エフェクトに対応する動的エフェクトパターン情報を識別してよく、ユーザの選択にしたがい、ユーザが選択した動的エフェクトに対応する動的エフェクトパターン情報を決定してよい。
動的エフェクトパターン情報は、段階410において識別されたターゲットイメージ100に含まれるオブジェクトが何であるかにより、該当のオブジェクトへの適用に合った動的エフェクトに関する情報を含んでよい。例えば、段階410において識別されたターゲットイメージ100に含まれるオブジェクトが背景110(例えば、空、壁、山、または海)である場合、背景110への適用に合った動的エフェクトに関する情報を含む動的エフェクトパターン情報が決定されてよい。また、識別されたターゲットイメージ100に含まれるオブジェクトが顔130である場合、顔の複数の表情に対応する動的エフェクトを顔130に適用するための、複数の表情に対応する動的エフェクトパターン情報が決定されてよい。この場合、ユーザによって1つの表情に対応する動的エフェクトパターン情報が選択されてよい。
段階430において、動的エフェクト適用部224は、段階420において決定された所定の動的エフェクトパターン情報に基づいて、段階320を参照しながら説明した、ターゲットイメージ100の第1部分および第2部分のうちの少なくとも1つに適用される動的エフェクトを決定してよい。
段階440において、動的エフェクト適用部224は、段階430において決定された動的エフェクトを、ターゲットイメージ100の第1部分および第2部分のうちの少なくとも1つに適用してよい。例えば、動的エフェクトパターン情報が、背景に対しては左右振動の動的エフェクトを適用することを示し、背景ではない残りのオブジェクトに対しては上下振動のエフェクトを適用することを示す場合、動的エフェクト適用部224は、ターゲットイメージ100の背景110およびオブジェクト120〜140に、決定された動的エフェクトパターン情報が示す動的エフェクトを適用してよい。
一方、ターゲットイメージ100に含まれる顔130に、段階420〜440において説明した動的エフェクト適用方法を適用する実施形態については、図5を参照しながらさらに詳しく説明する。
図1〜3を参照しながら説明した技術的特徴についての説明は、図4にもそのまま適用可能であるため、重複する説明を省略する。
図5は、一実施形態における、ターゲットイメージの顔/その他の領域に対して表情パターン情報を決定し、決定された表情パターン情報によって決定されたモーションエフェクトをターゲットイメージの顔/その他の領域に適用する方法を示したフローチャートである。
以下で説明する段階420’〜440’それぞれは、図4を参照しながら説明した段階420〜440のそれぞれに対応してよい。段階420〜440において説明した動的エフェクトパターン情報は、以下で説明する表情パターン情報に対応してよい。
図3を参照しながら説明したように、奥行き情報を取得するためのパターン情報の第1情報は、ターゲットイメージ100に含まれる特定のオブジェクトを識別し、特定のオブジェクトに含まれる少なくとも1つの要素の形状を識別するための情報を含んでよい。また、パターン情報の第2情報は、特定のオブジェクトに含まれる少なくとも2つの要素の間の相対的位置を決定するための情報を含んでよい。
図5では、特定のオブジェクトが人間の顔であり、特定のオブジェクトに含まれる少なくとも1つの要素が、顔に含まれる部位として、目、鼻、口、または耳を示す場合の例について説明する。
上述した段階410において、パターン情報に基づいて、ターゲットイメージ100に含まれる顔130および顔の部位が識別された。
段階420’において、動的エフェクト適用部224は、ターゲットイメージ100の顔130/その他の領域に適用される第1/第2表情パターン情報を決定してよい。動的エフェクト適用部224は、顔130に適用される動的エフェクトに対応する第1表情パターン情報を決定してよい。その他の領域は、ターゲットイメージ100から顔130を除いた部分またはターゲットイメージ130の全体領域を示してよい。動的エフェクト適用部224は、その他の領域に適用される動的エフェクトに対応する第2表情パターン情報を決定してよい。
段階430’において、動的エフェクト適用部224は、決定された第1/第2表情パターン情報に基づいて、該当の領域に適用されるモーションエフェクトを決定してよい。
段階440’において、動的エフェクト決定部224は、段階430’において決定されたモーションエフェクトを、該当のターゲットイメージ100の領域に適用してよい。
すなわち、動的エフェクト適用部224は、決定された第1表情パターン情報に基づいて顔130または顔130に含まれる部位の部位に適用されるモーションエフェクトを決定して適用してよく、決定された第2表情パターン情報に基づいてその他の領域に適用されるモーションエフェクトを決定して適用してよい。
第1表情パターン情報は、段階410において識別された顔130に適用可能な、事前に定義された表情に関する情報であってよい。例えば、第1表情パターン情報は、例えば、笑った表情パターン、怒った表情パターン、茫然とする表情パターン、悲しい表情パターン、または泣いた表情パターンであってよい。動的エフェクト決定部224は、このような表情パターンをユーザに提示してよく、ユーザの選択によって選択された表情パターンを、顔130に適用されるモーションエフェクトに対応する第1表情パターン情報として決定してよい。
動的エフェクト決定部224は、決定された第1表情パターン情報に基づいて顔130の目、鼻、口、および耳のうちの少なくとも1つの大きさ、形状、および色を変更することにより、顔130にモーションエフェクトを適用してよい。
第2表情パターン情報は、段階410において識別された顔130を除いた部分またはターゲットイメージ100の全体(すなわち、上述したその他の領域)に適用可能な、予め定義された動的エフェクトに関する情報であってよい。例えば、第2表情パターン情報は、例えば、笑った表情パターン、怒った表情パターン、茫然とする表情パターン、悲しい表情パターン、または泣いた表情パターンであってよい。動的エフェクト決定部224は、このような表情パターンをユーザに提示してよく、ユーザの選択によって選択された表情パターンを、その他の領域に適用されるモーションエフェクトに対応する第2表情パターン情報として決定してよい。また、ユーザによる第1表情パターンは選択によって決定され、第2表情パターン情報は自動で決定されてもよい。
第2表情パターン情報によるモーションエフェクトの適用は、例えば、所定の時間中に、ターゲットイメージ100の基準位置に対してその他の領域を回転またはシフトさせるものであってよい。一例として、笑った表情パターンは、その他の領域に上下(y軸)または左右(x軸)方向への傾きエフェクトまたは回転エフェクトを発生させることを示してよく、怒った表情パターンは、ターゲットイメージ100の全体に上下または左右方向への振動エフェクトを発生させることを示してよい。茫然とする表情パターンは、その他の領域に、上、下、左、右方向に交互に傾きエフェクトまたは回転エフェクトを発生させることを示してよい。
図1〜4を参照しながら説明した技術的特徴についての説明は、図5にもそのまま適用可能であるため、重複する説明を省略する。
図6は、一実施形態における、イメージに含まれるオブジェクトにおいて、オブジェクトの輪郭および/または影を使用して該当のオブジェクトの奥行き情報を取得する方法を示したフローチャートである。
図6を参照しながら、図3を参照しながら説明した、段階310のパターン情報に基づいてターゲットイメージ100の奥行き情報を取得する方法についてさらに詳しく説明する。
奥行き情報を取得するために使用されるパターン情報が含む、上述した第1情報は、ターゲットイメージ100に含まれる特定のオブジェクトの影を識別するための情報または特定のオブジェクトの輪郭を識別するための情報を含んでよい。また、パターン情報が含む、上述した第2情報は、影の方向、形状、および大きさのうちの少なくとも1つ、または、特定のオブジェクトの輪郭と他のオブジェクトの輪郭との関係に基づいて、ターゲットイメージ100に含まれる特定のオブジェクトと他のオブジェクトとの間の相対的位置を奥行き情報として決定するための情報を含んでよい。
1−1.先ず、パターン情報の第1情報を使用してターゲットイメージ100に含まれる特定のオブジェクトの影を識別し、パターン情報の第2情報を使用して特定のオブジェクトと他のオブジェクトとの相対的位置を決定することによって特定のオブジェクトの奥行き情報を取得する方法について説明する。
奥行き情報取得部222は、パターン情報の第1情報を使用し、第1物体140の第1影610−1と第2物体150の第2影610−2とを識別してよい。奥行き情報取得部222は、パターン情報の第2情報を使用し、識別された第1影610−1および第2影610−2の形状および/または大きさを比較することにより、第1物体140と第2物体150との間の相対的位置を決定してよい。例えば、1)奥行き情報取得部222は、第1影610−1および第2影610−2のうち、大きい影に対応する物体をより前にある物体として識別してよい。また、2)奥行き情報取得部222は、第1影610−1および第2影610−2の形状を比較し、影の一部が後側壁面110−4と重なる形状を有する影に対応する物体を、より後ろにある物体として識別してよい。また、奥行き情報取得部222は、1)および2)を組み合わせて物体間の相対的位置を決定してもよい。図に示す例では、第1物体140が第2物体150よりも前にあると決定された(すなわち、後側壁面110−4を基準とした奥行き値z’の値がz’’よりも大きいと判定される)。
1−2.次に、パターン情報の第1情報を使用してターゲットイメージ100に含まれる特定のオブジェクトの影を識別し、パターン情報の第2情報を使用して特定のオブジェクトと他のオブジェクトとの相対的位置を決定することによって特定のオブジェクトの奥行き情報を取得する他の方法について説明する。
奥行き情報取得部222は、識別された第1影610−1とターゲットイメージ100の基準線(例えば、水平線)とがなす角度(k2)および第2影610−2とターゲットイメージ100の基準線とがなす角度(k1)を決定してよく、k1およびk2の大きさを比較してよい。奥行き情報取得部222は、(パターン情報に含まれる第2情報を使用して)大きい角度に該当する影に対応するオブジェクト(図に示す例では物体150)が、より後ろにある物体であると決定してよい。すなわち、図に示す例では、壁面110−4を基準とした奥行き値z’の値がz’’’よりも大きいと判定されてよい。
1−1および1−2の方法において、奥行き情報取得部222は、物体の奥行き情報を取得するのに先立ち、光源600の方向(光源600が位置する方向)または位置を先に決定してよい。光源の位置は、識別された第1影610−1および第2影610−2の方向によって決定されてよい。例えば、奥行き情報取得部222は、影610−1または610−2とターゲットイメージ100の基準線(例えば、水平線)とがなす角度(k1またはk2)に基づいて、角度(k1またはk2)を形成する基準線ではなく、直線が延びる方向を光源600が位置する方向として決定してよい。また、奥行き情報取得部222は、角度(k1)を形成する基準線ではなく、直線と角度(k2)を形成する基準線でもなく、直線が交わる位置を光源600の位置として決定してよい。光源600は、ターゲットイメージ100内に含まれてもよいし、含まれなくてもよい。
決定された光源600の方向または位置により、奥行き情報取得部222は、物体140および150の奥行きを異なる方式で判断してよい。例えば、光源600が、図に示す場合とは異なり、光源が後側壁面110−4の右側下端に位置すると決定された場合には、奥行き情報取得部222は、1−1の方法により、影が大きい物体を後ろに位置するものと決定してよい。また、奥行き情報取得部222は、1−2の方法により、基準線と影とがなす角度が大きい物体を前に位置するものと決定してよい。
すなわち、奥行き情報取得部222は、決定された光源600の位置または方向による影の形状、大きさ、および方向の変化を総合的に考慮することで、ターゲットイメージ100に含まれるオブジェクトの奥行き情報を取得してよい。
奥行き情報取得部222が影の形状および大きさを識別する方法については、イメージで影を認識することができるすべての技術が適用可能であるため、詳しい説明を省略する。例えば、奥行き情報取得部222は、ターゲットイメージ100で一定の方向に延びている黒色の領域を識別することにより、ターゲットイメージ100に含まれるオブジェクトの影を識別してよい。
2.次に、パターン情報の第1情報を使用してターゲットイメージ100に含まれる特定のオブジェクトの輪郭と他のオブジェクトの輪郭とを識別し、パターン情報の第2情報を使用して特定のオブジェクトと他のオブジェクトとの間の相対的位置を決定することによって特定のオブジェクトの奥行き情報を取得する方法について説明する。
奥行き情報取得部222は、パターン情報の第1情報を使用し、第1物体140の輪郭620および第3物体160の輪郭を識別してよい。オブジェクトの輪郭とは、オブジェクトのエッジおよび周囲を含む外側境界部を意味してよい。
例えば、奥行き情報取得部222は、第1物体140の輪郭620および第3物体160の輪郭を把握することにより、第1物体140および第3物体160の形状を識別してよい。奥行き情報取得部222は、パターン情報の第2情報を使用し、球形状であると把握された第3物体160の輪郭の少なくとも一部が第1物体140によって隠れていることを識別してよく、第3物体160を第1物体140の後ろに位置すると決定してよい(すなわち、後側壁面110−4を基準とした奥行き値z’の値がz’’’よりも大きいと判定される)。
奥行き情報取得部222がオブジェクトの輪郭を識別する方法については、イメージ内のオブジェクトを識別することができるすべての技術が適用可能であるため、詳しい説明を省略する。
奥行き情報取得部222は、上述した1−1または1−2、および2を組み合わせて物体140〜160の間の相対的位置を決定してもよい。
一方、奥行き情報取得部222は、背景110を構成する要素(天井110−1、左側壁110−2、右側壁110−3、後側壁110−4、および床110−5)を識別してよく、このうち後側壁110−4を、ターゲットイメージ100に含まれるオブジェクトのうちの最も後ろにあるものと決定してよい。
動的エフェクト適用部224は、上述した方法によって取得されたターゲットイメージ100の奥行き情報に基づいてターゲットイメージ100に動的エフェクトを適用してよい。
図1〜5を参照しながら説明した技術的特徴についての説明は、図6にもそのまま適用可能であるため、重複する説明を省略する。
図7は、一実施形態における、イメージに含まれる顔を識別し、顔に含まれる部位の奥行き情報を取得し、顔に動的エフェクトを適用する方法を示した図である。
図7を参照しながら、図5において説明した顔への動的エフェクト適用方法についてさらに詳しく説明する。
奥行き情報取得部222は、パターン情報を使用し、身体120および顔130が背景110よりも前に位置することを示す奥行き情報(z**に対応)を取得してよい。また、奥行き情報取得部222は、パターン情報を使用し、顔130に含まれる要素130−1〜130−4を識別してよく、特定の要素130−1を基準とした他の要素の奥行き情報(z*に対応)を取得してよい。
例えば、図に示すように、奥行き情報取得部222は、パターン情報の第1情報および第2情報を使用して目130−2、鼻130−1、口130−3、および耳130−4を識別してよく、顔130が正面を向いていることを識別してよい。このとき、鼻130−1が最も前に位置するようになることを把握してよい。奥行き情報取得部222は、鼻130−1を基準に、残りの要素130−2〜130−4が後ろにあると決定してよい。
動的エフェクト適用部224は、上述した方法によって取得された顔130の要素130−1〜130−4に基づいて、顔に適用されなければならない動的エフェクトに対応する動的エフェクトパターン情報を決定してよい。動的エフェクト適用部224は、顔に適用されなければならない動的エフェクトに対応する動的エフェクトパターン情報として、複数の表情(表情パターン情報)をユーザに提示してよく、ユーザの選択によって選択された表情パターン情報に該当する動的エフェクトを、顔130を含むターゲットイメージ100に適用してよい。
例えば、怒った表情の表情パターン情報がユーザによって選択されると、動的エフェクト適用部224は、目130−2の形状を鋭く変更したり、色を赤色系統に変更したりしてよく、顔130を除いたターゲットイメージ100の部分またはターゲットイメージ100の全体部分に振動エフェクトを適用してよい。
上述したような動的エフェクトの適用により、ユーザは、ターゲットイメージ100を動画と同じような動的なコンテンツとして認識することが可能となる。
図1〜6を参照しながら説明した技術的特徴についての説明は、図7にもそのまま適用可能であるため、重複する説明を省略する。
図8は、一実施形態における、イメージに含まれるオブジェクトとしての背景に動的エフェクトを適用する方法を示した図である。
図8を参照しながら、ターゲットイメージ100に動的エフェクトを適用する方法の例について説明する。
動的エフェクト適用部224は、図に示すような動的エフェクトが適用されたターゲットイメージ810−1〜810−4を合成することにより、ユーザに動画と同じように認識されることのできる所期のコンテンツを生成してよい。
すなわち、動的エフェクト適用部224は、図に示した第1〜4ターゲットイメージ810−1〜810−4のように、背景に該当する部分に背景を変更する動的エフェクト(傾き、回転、またはシフト)を適用し、第1〜4ターゲットイメージ810−1〜810−4を合成することにより、適用された動的エフェクトが繰り返し再生されるように構成される所期のコンテンツを生成してよい。例えば、第1〜4ターゲットイメージ810−1〜810−4は、それぞれのフレームとして処理されてよい。
このような例では、背景に該当する部分だけに動的エフェクトが適用される場合について説明したが、上述したように、背景ではない部分にも同じように動的エフェクトを適用することが可能である。
上述の実施形態によれば、所定のパターン情報に基づいてターゲットイメージの奥行き情報を取得し、取得された奥行き情報に基づいてターゲットイメージに動的エフェクトを適用して所期のコンテンツを生成することにより、ユーザが動画と同じような動的なコンテンツとして認識できるコンテンツを生成することができる。
また、いくつかの実施形態によれば、ターゲットイメージから取得された複数の奥行き情報に基づいて、取得された奥行き情報に基づいて異なる動的エフェクトをターゲットイメージに適用することにより、既存のイメージと比べて臨場感および躍動感が向上した、動的なコンテンツを生成することができる。
また、いくつかの実施形態によれば、所定のパターン情報に基づいてターゲットイメージに含まれる特定のオブジェクトと他のオブジェクトとの間の相対的位置を奥行き情報として取得し、所定の動的エフェクトパターン情報に基づいてターゲットイメージに適用される動的エフェクトを決定することにより、臨場感および躍動感が向上した、動的なコンテンツを簡単に生成することができる。
上述した装置は、ハードウェア構成要素、ソフトウェア構成要素、および/またはハードウェア構成要素とソフトウェア構成要素との組み合わせによって実現されてよい。例えば、実施形態において説明された装置および構成要素は、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令を実行して応答することができる様々な装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを利用して実現されてよい。処理装置は、オペレーティングシステム(OS)およびOS上で実行される1つ以上のソフトウェアアプリケーションを実行してよい。また、処理装置は、ソフトウェアの実行に応答し、データにアクセスし、データを記録、操作、処理、および生成してもよい。理解の便宜のために、1つの処理装置が使用されるとして説明される場合もあるが、当業者は、処理装置が複数個の処理要素および/または複数種類の処理要素を含んでもよいことが理解できるであろう。例えば、処理装置は、複数個のプロセッサまたは1つのプロセッサおよび1つのコントローラを含んでよい。また、並列プロセッサのような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、またはこれらのうちの1つ以上の組み合わせを含んでもよく、思うままに動作するように処理装置を構成したり、独立的または集合的に処理装置に命令したりしてよい。ソフトウェアおよび/またはデータは、処理装置に基づいて解釈されたり、処理装置に命令またはデータを提供したりするために、いかなる種類の機械、コンポーネント、物理装置、仮想装置、コンピュータ記録媒体または装置に具現化されてよい。ソフトウェアは、ネットワークによって接続されたコンピュータシステム上に分散され、分散された状態で記録されても実行されてもよい。ソフトウェアおよびデータは、1つ以上のコンピュータ読み取り可能な記録媒体に記録されてよい。
実施形態に係る方法は、多様なコンピュータ手段によって実行可能なプログラム命令の形態で実現されてコンピュータ読み取り可能な媒体に記録されてよい。ここで、媒体は、コンピュータ実行可能なプログラムを継続して記録するものであっても、実行またはダウンロードのために一時的に記録するものであってもよい。また、媒体は、単一または複数のハードウェアが結合した形態の多様な記録手段または格納手段であってよく、あるコンピュータシステムに直接接続する媒体に限定されることはなく、ネットワーク上に分散して存在するものであってもよい。媒体の例は、ハードディスク、フロッピー(登録商標)ディスク、および磁気テープのような磁気媒体、CD−ROMおよびDVDのような光媒体、フロプティカルディスク(floptical disk)のような光磁気媒体、およびROM、RAM、フラッシュメモリなどを含み、プログラム命令が記録されるように構成されたものであってよい。また、媒体の他の例として、アプリケーションを配布するアプリケーションストアやその他の多様なソフトウェアを供給または配布するサイト、サーバなどで管理する記録媒体または格納媒体が挙げられる。
以上のように、実施形態を、限定された実施形態および図面に基づいて説明したが、当業者であれば、上述した記載から多様な修正および変形が可能であろう。例えば、説明された技術が、説明された方法とは異なる順序で実行されたり、かつ/あるいは、説明されたシステム、構造、装置、回路などの構成要素が、説明された方法とは異なる形態で結合されたりまたは組み合わされたり、他の構成要素または均等物によって対置されたり置換されたとしても、適切な結果を達成することができる。
したがって、異なる実施形態であっても、特許請求の範囲と均等なものであれば、添付される特許請求の範囲に属する。

Claims (20)

  1. イメージに含まれるオブジェクトの形状に関する第1情報および前記イメージに含まれる少なくとも2つのオブジェクトの間の相対的位置に関する第2情報を含む所定のパターン情報に基づいて、ターゲットイメージに含まれるオブジェクトの少なくとも第1部分および前記ターゲットイメージから前記ターゲットイメージに含まれるオブジェクトを除いた領域のうちの少なくとも第2部分のうちの少なくとも1つの奥行き情報を取得する段階、および
    前記の取得された奥行き情報に基づいて、前記第1部分および前記第2部分のうちの少なくとも1つに動的エフェクトを適用する段階
    を含む、イメージ処理方法。
  2. 前記奥行き情報を取得する段階は、
    前記ターゲットイメージの複数のポイントそれぞれの奥行き情報を取得し、前記ポイントそれぞれは、前記第1部分または前記第2部分に対応し、
    前記動的エフェクトを適用する段階は、
    前記複数のポイントから取得された奥行き情報が示す奥行き値に基づいて、前記ポイントのうちの少なくとも2つのポイントそれぞれに互いに異なる動的エフェクトを適用する、
    請求項1に記載のイメージ処理方法。
  3. 前記動的エフェクトを適用する段階は、
    前記ポイントのうち、奥行き値が所定の値以上であるポイントに第1動的エフェクトを適用する段階、および
    前記ポイントのうち、奥行き値が前記所定の値未満であるポイントに第2動的エフェクトを適用する段階
    を含む、
    請求項2に記載のイメージ処理方法。
  4. 前記第1動的エフェクトおよび前記第2動的エフェクトは、適用されるポイントと連関するオブジェクトまたは前記連関するオブジェクトに含まれる要素にモーションエフェクトが発生されるようにし、
    前記第1動的エフェクトが適用されるときは、前記第2動的エフェクトが適用されるときよりも、前記連関するオブジェクトまたは前記連関するオブジェクトに含まれる要素に大きなモーションエフェクトを発生させる、
    請求項3に記載のイメージ処理方法。
  5. 前記ターゲットイメージに含まれるオブジェクトは、背景、前記背景を構成する事物、または前記ターゲットイメージから前記背景を除いた事物である、
    請求項1に記載のイメージ処理方法。
  6. 前記奥行き情報は、前記ターゲットイメージに含まれるオブジェクトまたは前記含まれるオブジェクトに含まれる一要素を基準とした相対的な奥行き値を示す、
    請求項1に記載のイメージ処理方法。
  7. 前記動的エフェクトは、適用される前記ターゲットイメージの部分に、モーションエフェクト、色変更エフェクト、および形状変更エフェクトのうちの少なくとも1つが発生されるようにする、
    請求項1に記載のイメージ処理方法。
  8. 前記モーションエフェクトは、適用される前記ターゲットイメージの部分に、振動エフェクト、回転エフェクト、または傾きエフェクトが発生されるようにする、
    請求項7に記載のイメージ処理方法。
  9. 前記第1情報は、前記ターゲットイメージに含まれる特定のオブジェクトの影を識別するための情報または前記特定のオブジェクトの輪郭を識別するための情報を含み、
    前記第2情報は、前記影の方向、形状、および大きさのうちの少なくとも1つ、または、前記輪郭と他のオブジェクトの輪郭との関係に基づいて、前記ターゲットイメージに含まれる前記特定のオブジェクトと他のオブジェクトとの間の相対的位置を前記奥行き情報として決定するための情報を含む、
    請求項1に記載のイメージ処理方法。
  10. 前記動的エフェクトを適用する段階は、
    所定の動的エフェクトパターン情報に基づいて、前記第1部分および前記第2部分のうちの少なくとも1つに適用される動的エフェクトを決定する段階、および
    前記の決定された動的エフェクトを、前記第1部分および前記第2部分のうちの少なくとも1つに適用する段階
    を含む、請求項1に記載のイメージ処理方法。
  11. 前記動的エフェクトを適用する段階は、
    前記第1情報および第2情報に基づいて識別された前記ターゲットイメージに含まれるオブジェクトおよび前記オブジェクトを除いた領域のうちの少なくとも1つに関する情報に基づいて、前記所定の動的エフェクトパターン情報を決定する段階
    をさらに含む、請求項10に記載のイメージ処理方法。
  12. 前記第1情報は、前記ターゲットイメージに含まれる特定のオブジェクトを識別し、前記特定のオブジェクトに含まれる少なくとも1つの要素の形状を識別するための情報を含む、
    請求項1に記載のイメージ処理方法。
  13. 前記特定のオブジェクトは人間の顔であり、
    前記特定のオブジェクトに含まれる少なくとも1つの要素は、前記顔に含まれる部位であり、目、鼻、口、または耳である、
    請求項12に記載のイメージ処理方法。
  14. 前記動的エフェクトを適用する段階は、
    前記顔に適用される動的エフェクトに対応する第1表情パターン情報を決定する段階、および
    前記の決定された第1表情パターン情報に基づいて、前記顔または前記顔に含まれる部位にモーションエフェクトを適用する段階
    を含む、請求項13に記載のイメージ処理方法。
  15. 前記動的エフェクトを適用する段階は、
    前記ターゲットイメージから前記顔を除いた部分または前記ターゲットイメージ全体に適用される動的エフェクトに対応する第2表情パターン情報を決定する段階、および
    前記の決定された第2表情パターン情報に基づいて、前記顔を除いた部分または前記ターゲットイメージ全体にモーションエフェクトを適用する段階
    を含む、請求項13に記載のイメージ処理方法。
  16. 請求項1〜15のうちのいずれか一項に記載のイメージ処理方法をコンピュータに実行させるプログラム。
  17. イメージに含まれるオブジェクトの形状に関する第1情報および前記イメージに含まれる少なくとも2つのオブジェクトの間の相対的位置に関する第2情報を含む所定のパターン情報に基づいて、ターゲットイメージに含まれるオブジェクトの少なくとも第1部分および前記ターゲットイメージから前記ターゲットイメージに含まれるオブジェクトを除いた領域のうちの少なくとも第2部分のうちの少なくとも1つの奥行き情報を取得する奥行き情報取得部、および
    前記の取得された奥行き情報に基づいて、前記第1部分および前記第2部分のうちの少なくとも1つに動的エフェクトを適用する動的エフェクト適用部
    を備える、イメージ処理装置。
  18. 前記パターン情報を記録している第1データベース
    をさらに備え、
    前記奥行き情報取得部は、前記第1データベースから前記パターン情報を取得する、
    請求項17に記載のイメージ処理装置。
  19. 前記動的エフェクト適用部は、所定の動的エフェクトパターン情報に基づいて、前記第1部分および前記第2部分のうちの少なくとも1つに適用される動的エフェクトを決定し、前記の決定された動的エフェクトを、前記第1部分および前記第2部分のうちの少なくとも1つに適用する、
    請求項17に記載のイメージ処理装置。
  20. 前記動的エフェクトパターン情報を記録している第2データベース
    をさらに備え、
    前記動的エフェクト適用部は、前記第2データベースから前記動的エフェクトパターン情報を取得する、
    請求項19に記載のイメージ処理装置。
JP2019551550A 2017-03-30 2017-03-30 イメージに動的エフェクトを適用する方法および装置 Active JP6859452B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2017/003466 WO2018182066A1 (ko) 2017-03-30 2017-03-30 이미지에 동적 효과를 적용하는 방법 및 장치

Publications (2)

Publication Number Publication Date
JP2020513123A true JP2020513123A (ja) 2020-04-30
JP6859452B2 JP6859452B2 (ja) 2021-04-14

Family

ID=63678264

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019551550A Active JP6859452B2 (ja) 2017-03-30 2017-03-30 イメージに動的エフェクトを適用する方法および装置

Country Status (5)

Country Link
US (1) US11176678B2 (ja)
JP (1) JP6859452B2 (ja)
KR (1) KR102228919B1 (ja)
CN (1) CN110520902B (ja)
WO (1) WO2018182066A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111882567A (zh) * 2020-08-03 2020-11-03 深圳传音控股股份有限公司 Ar效果的处理方法、电子设备及可读存储介质
CN112184722B (zh) * 2020-09-15 2024-05-03 上海传英信息技术有限公司 图像处理方法、终端及计算机存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007043460A1 (ja) * 2005-10-12 2007-04-19 Matsushita Electric Industrial Co., Ltd. 視覚処理装置、表示装置、視覚処理方法、プログラムおよび集積回路
JP2013055489A (ja) * 2011-09-02 2013-03-21 Nikon Corp 画像処理装置およびプログラム
JP2013118468A (ja) * 2011-12-02 2013-06-13 Sony Corp 画像処理装置および画像処理方法
JP2014016670A (ja) * 2012-07-05 2014-01-30 Nikon Corp 画像処理装置及び画像処理プログラム
WO2014155877A1 (ja) * 2013-03-26 2014-10-02 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
US20150117777A1 (en) * 2013-10-28 2015-04-30 Cyberlink Corp. Systems and Methods for Automatically Applying Effects Based on Media Content Characteristics
JP2015103214A (ja) * 2013-11-28 2015-06-04 株式会社Jvcケンウッド デプス推定装置、デプス推定方法、デプス推定プログラム、及び画像処理装置
JP2017026914A (ja) * 2015-07-24 2017-02-02 キヤノン株式会社 撮像装置およびその制御方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9064344B2 (en) 2009-03-01 2015-06-23 Facecake Technologies, Inc. Image transformation systems and methods
CN101189868A (zh) * 2005-04-27 2008-05-28 富士胶片株式会社 图像捕捉装置、图像捕捉方法和程序
KR101075720B1 (ko) * 2005-07-08 2011-10-21 삼성전자주식회사 휴대단말기의 이미지편집 방법
US8493379B2 (en) * 2005-12-19 2013-07-23 Koninklijke Philips N.V. Method of identifying pattern in a series of data
DE102006003126A1 (de) * 2006-01-23 2007-08-02 Siemens Ag Verfahren und Vorrichtung zum Visualisieren von 3D-Objekten
KR101547151B1 (ko) * 2008-12-26 2015-08-25 삼성전자주식회사 영상 처리 방법 및 장치
US9260449B2 (en) * 2009-05-21 2016-02-16 Zhejiang Medicine Co., Ltd., Xinchang Pharmaceutical Factory Method for preparing D-biotin
US8390680B2 (en) * 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
KR20120090565A (ko) * 2011-02-08 2012-08-17 삼성전자주식회사 영상 데이터의 실감 효과 처리장치 및 방법
US8922553B1 (en) * 2011-04-19 2014-12-30 Disney Enterprises, Inc. Interactive region-based linear 3D face models
KR20130098770A (ko) * 2012-02-28 2013-09-05 한국전자통신연구원 입체감 확장형 가상 스포츠 체험 시스템
US9741145B2 (en) * 2012-06-29 2017-08-22 Disney Enterprises, Inc. Augmented reality simulation continuum
KR101513999B1 (ko) 2013-03-04 2015-04-21 김봉식 3차원 이미지 생성 장치
TWI492150B (zh) * 2013-09-10 2015-07-11 Utechzone Co Ltd 播放方法及電子裝置
US10019823B2 (en) 2013-10-24 2018-07-10 Adobe Systems Incorporated Combined composition and change-based models for image cropping
CN103729881A (zh) * 2013-12-28 2014-04-16 北京工业大学 一种面向中医舌诊的舌体动态三维重建系统
JP6525617B2 (ja) 2015-02-03 2019-06-05 キヤノン株式会社 画像処理装置およびその制御方法
CN104766537A (zh) * 2015-04-15 2015-07-08 四川云盾光电科技有限公司 一种基于微纳结构的激光散射图像显示方法
KR102365730B1 (ko) * 2015-06-15 2022-02-22 한국전자통신연구원 인터랙티브 콘텐츠 제어 장치 및 방법
CN105095917B (zh) * 2015-08-31 2019-08-06 小米科技有限责任公司 图像处理方法、装置及终端
CN105446596A (zh) * 2015-11-26 2016-03-30 四川长虹电器股份有限公司 基于深度的交互式3d界面显示系统与方法
CN106331492B (zh) * 2016-08-29 2019-04-16 Oppo广东移动通信有限公司 一种图像处理方法及终端

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007043460A1 (ja) * 2005-10-12 2007-04-19 Matsushita Electric Industrial Co., Ltd. 視覚処理装置、表示装置、視覚処理方法、プログラムおよび集積回路
JP2013055489A (ja) * 2011-09-02 2013-03-21 Nikon Corp 画像処理装置およびプログラム
JP2013118468A (ja) * 2011-12-02 2013-06-13 Sony Corp 画像処理装置および画像処理方法
JP2014016670A (ja) * 2012-07-05 2014-01-30 Nikon Corp 画像処理装置及び画像処理プログラム
WO2014155877A1 (ja) * 2013-03-26 2014-10-02 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
US20150117777A1 (en) * 2013-10-28 2015-04-30 Cyberlink Corp. Systems and Methods for Automatically Applying Effects Based on Media Content Characteristics
JP2015103214A (ja) * 2013-11-28 2015-06-04 株式会社Jvcケンウッド デプス推定装置、デプス推定方法、デプス推定プログラム、及び画像処理装置
JP2017026914A (ja) * 2015-07-24 2017-02-02 キヤノン株式会社 撮像装置およびその制御方法

Also Published As

Publication number Publication date
KR20190122859A (ko) 2019-10-30
CN110520902A (zh) 2019-11-29
US20200058128A1 (en) 2020-02-20
US11176678B2 (en) 2021-11-16
JP6859452B2 (ja) 2021-04-14
WO2018182066A1 (ko) 2018-10-04
WO2018182066A8 (ko) 2019-08-22
CN110520902B (zh) 2023-04-28
KR102228919B1 (ko) 2021-03-18

Similar Documents

Publication Publication Date Title
US11100664B2 (en) Depth-aware photo editing
EP2600309B1 (en) Foreground subject detection
JP6643357B2 (ja) 全球状取込方法
US9646410B2 (en) Mixed three dimensional scene reconstruction from plural surface models
CN106547092B (zh) 用于补偿头戴式显示器的移动的方法和设备
CN106780293B (zh) 头部特写肖像的样式传递
US9070194B2 (en) Planar surface detection
US10482656B2 (en) 3D face modeling methods and apparatuses
CN104380338B (zh) 信息处理器以及信息处理方法
EP3285484B1 (en) Image processing apparatus, image generation method, and program
US10825217B2 (en) Image bounding shape using 3D environment representation
WO2019237745A1 (zh) 人脸图像处理方法、装置、电子设备及计算机可读存储介质
US10957063B2 (en) Dynamically modifying virtual and augmented reality content to reduce depth conflict between user interface elements and video content
JP2020008972A (ja) 情報処理装置、情報処理方法及びプログラム
KR101652594B1 (ko) 증강 현실 컨텐츠 제공 장치 및 방법
US11636656B1 (en) Depth rate up-conversion
US20220277512A1 (en) Generation apparatus, generation method, system, and storage medium
US11176678B2 (en) Method and apparatus for applying dynamic effect to image
US11567633B2 (en) Intention image analysis for determining user focus
US20240119668A1 (en) Image processing apparatus, method for controlling the same, and storage medium
CN114332448A (zh) 基于稀疏点云的平面拓展方法及其系统和电子设备
KR20200046538A (ko) 3차원 컬러 블록 생성 방법 및 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210325

R150 Certificate of patent or registration of utility model

Ref document number: 6859452

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250