JP7465487B2 - エモーティコン生成装置 - Google Patents

エモーティコン生成装置 Download PDF

Info

Publication number
JP7465487B2
JP7465487B2 JP2022547260A JP2022547260A JP7465487B2 JP 7465487 B2 JP7465487 B2 JP 7465487B2 JP 2022547260 A JP2022547260 A JP 2022547260A JP 2022547260 A JP2022547260 A JP 2022547260A JP 7465487 B2 JP7465487 B2 JP 7465487B2
Authority
JP
Japan
Prior art keywords
image
user
background
emoticon
user terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022547260A
Other languages
English (en)
Other versions
JP2023538981A (ja
Inventor
ユヨプ イム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Danal Entertainment Co Ltd
Original Assignee
Danal Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020210098517A external-priority patent/KR20230016930A/ko
Application filed by Danal Entertainment Co Ltd filed Critical Danal Entertainment Co Ltd
Publication of JP2023538981A publication Critical patent/JP2023538981A/ja
Application granted granted Critical
Publication of JP7465487B2 publication Critical patent/JP7465487B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明はエモーティコン生成装置に関し、より具体的には、本発明は使用者オーダーメード型エモーティコンを生成するエモーティコン生成装置に関する。
スマートフォンの普及につれて使用者のエモーティコンの使用が増加し、これに伴い、エモーティコンが多様化し市場規模が巨大になりつつある。具体的には、エモーティコンは、従来は多様な表情を有するキャラクタなどで静的なイメージの形態で製作されていたのに反し、最近では芸能人などの実写動画などの形態で製作されている。ところで、このようなエモーティコンはエモーティコン製作会社などで審査などを通過してこそ製作されるのが実状であり、認知度が低かったり、審査過程で介入される主観的な見解あるいは不公正な審査などによって、より多様なエモーティコンの製作ができない限界がある。また、使用者は芸能人ではなく本人がエモーティコンに製作されることを所望する場合もあり得るが、このような各個人の好むエモーティコンがすべて製作され難い問題がある。
本発明は、使用者オーダーメード型エモーティコンを提供するエモーティコン生成装置を提供することを目的とする。
本発明は、自身が直接撮影した使用者あるいは客体が登場しながらも、完成度の高い使用者オーダーメード型エモーティコンを提供するエモーティコン生成装置を提供することを目的とする。
本発明は、より便利で、速かに使用者オーダーメード型エモーティコンを提供するエモーティコン生成装置を提供することを目的とする。
本発明の一実施例に係るエモーティコン生成装置は、使用者端末から使用者映像を受信する使用者映像受信部、前記受信された使用者映像を分析する映像分析部、前記使用者映像を分析した結果に基づいて背景映像を決定する背景決定部、および前記使用者映像から抽出された使用者または客体のうち少なくとも一つを前記背景映像に合成した合成エモーティコンを生成するエモーティコン生成部を含み、前記背景決定部は前記使用者映像を分析した結果に基づいて推薦された少なくとも一つの背景映像のうち、前記使用者端末を通じて選択された背景映像を前記合成エモーティコンに合成される背景映像として決定することができる。
背景決定部は前記使用者映像を分析した結果に基づいて少なくとも一つの背景映像を推薦し、推薦した背景映像に対する情報(例えば、サムネイル)を前記使用者端末に伝送し、前記使用者端末から前記選択された背景映像に対する情報を受信することができる。
エモーティコン生成装置は複数の背景映像と複数の背景映像それぞれに対するインデックスがマッピングされた背景データベースをさらに含むことができる。
背景決定部は前記使用者映像を分析しながら抽出されたカテゴリーを獲得し、前記背景データベースで前記抽出されたカテゴリーと一致するインデックスとマッピングされた背景映像を推薦背景映像として獲得することができる。
映像分析部は前記使用者映像から使用者または客体を認識し、認識された使用者または客体を分析して前記使用者映像に対するカテゴリーを抽出することができる。
映像分析部は前記使用者映像から予め設定された間隔でサンプルイメージを抽出し、抽出されたサンプルイメージから使用者または客体を認識することができる。
映像分析部は前記サンプルイメージを抽出すれば、抽出されたサンプルイメージそれぞれに対して予め設定された使用不可条件に該当するかどうかを判断し、前記使用不可条件に該当するサンプルイメージが存在すれば、前記使用不可条件に該当するサンプルイメージの代わりに使われるサンプルイメージを再抽出することができる。
映像分析部は前記サンプルイメージを抽出した間隔を変更することによって、前記サンプルイメージを再抽出することができる。
映像分析部は使用者が目をとじたイメージ、解像度が予め設定された基準解像度以下であるイメージまたは明るさが予め設定された基準明るさ以下であるイメージを前記使用不可条件に該当するものと判断することができる。
エモーティコン生成部は、背景映像それぞれに設定された合成ガイドラインにしたがって前記使用者または客体の大きさもしくは位置を決定することができる。
エモーティコン生成部は、前記使用者端末を通じて前記背景映像が選択された後、入力された前記合成ガイドラインの修正情報により前記使用者または客体が合成される大きさもしくは位置を調節することができる。
本発明の一実施例によると、エモーティコン生成装置は使用者端末から使用者映像を受信すれば、使用者映像を分析して使用者映像の中の使用者または客体が登場し、それに適切な背景映像が合成されたエモーティコンを生成して使用者端末に提供するため、使用者が使用者映像を撮影さえすればそれによる完成度の高い合成エモーティコンを提供可能な利点がある。
また、エモーティコン生成装置は合成エモーティコンを使用する際に、使用者に背景映像の選択機会を提供し、その過程で送受信されるデータの大きさを節約可能であるため、使用者満足度が高いエモーティコンをより速かに生成可能な利点がある。
また、エモーティコン生成装置は使用者映像そのものではなくサンプルイメージを抽出してエモーティコンを生成するため、背景映像の決定に所要する時間を最小化できる利点がある。
本発明の一実施例に係るエモーティコン生成装置システムが図示された図面である。 本発明の一実施例に係るエモーティコン生成装置の制御ブロック図である。 本発明の一実施例に係るエモーティコン生成装置の動作方法が図示されたフローチャートである。 図3の段階S20を具体化したフローチャートである。 本発明の一実施例に係る映像分析部が使用者映像を分析する方法の様子が図示された例示図である。 図4の段階S210を具体化したフローチャートである。 図3の段階S30が具体化されたフローチャートである。 本発明の一実施例に係る背景データベースに背景映像が保存される方式の一例が図示された図面である。 本発明の一実施例に係るエモーティコン生成部が生成した合成エモーティコンの例示図である。 本発明の一実施例に係るエモーティコン生成部が生成した合成エモーティコンの例示図である。 本発明の一実施例に係るエモーティコン生成部が生成した合成エモーティコンの例示図である。 本発明の一実施例に係るエモーティコン生成装置で生成されたエモーティコンが使用者端末で使われる一例が図示された図面である。
以下では、添付した図面を参照して本発明を説明することにする。しかし、本発明は多様な異なる形態で具現され得、したがってここで説明する実施例に限定されるものではない。そして、図面で本発明を明確に説明するために説明にかかわらない部分は省略し、明細書全体を通じて類似する部分に対しては類似する図面符号を付した。
明細書全体において、或る部分が何らかの構成要素を「含む」とする時、これは特に反対の記載がない限り他の構成要素を除くものではなく他の構成要素をさらに具備できることを意味する。
本明細書で使った用語は単に特定の実施例を説明するために使われたものであり、本発明を限定しようとする意図ではない。単数の表現は文脈上明白に異なるように意味しない限り、複数の表現を含む。本明細書で、「含む」または「有する」等の用語は、明細書上に記載された特徴、数字、段階、動作、構成要素、部品またはこれらを組み合わせたものが存在することを指定しようとするものであって、一つまたはそれ以上の他の特徴や数字、段階、動作、構成要素、部品またはこれらを組み合わせたものなどの存在または付加の可能性を予め排除しないものと理解されるべきである。
以下、本発明の理解を助けるために好ましい実施例を提示するが、これは本発明の一例に過ぎないものであって、本発明の範疇および技術思想範囲内で多様な変更および修正が可能であることは当業者に自明であり、このような変更および修正も添付された特許請求の範囲に属することは言うまでもない。
以下、本発明の実施例を示す添付図面を参照して本発明をさらに詳細に説明する。
図1は、本発明の一実施例に係るエモーティコン生成装置システムが図示された図面である。
本発明の一実施例に係るエモーティコン生成装置システムは、エモーティコン生成装置100および使用者端末1を含むことができる。
エモーティコン生成装置100は使用者オーダーメード型エモーティコンを生成することができる。エモーティコン生成装置100は使用者オーダーメード型エモーティコンを生成して使用者端末1に伝送でき、使用者端末1はエモーティコン生成装置100から使用者オーダーメード型エモーティコンを受信することができる。
使用者端末1は、エモーティコン生成装置100から受信された使用者オーダーメード型エモーティコンを保存および表示することができる。使用者はエモーティコン生成装置100と通信する使用者端末1を利用して使用者オーダーメード型エモーティコンを容易に生成および使うことができる。
以下、エモーティコン生成装置100が使用者オーダーメード型エモーティコンを生成する方法を詳しく説明する。ここで、使用者オーダーメード型エモーティコンは、使用者映像から認識された使用者または客体と使用者が選択した背景映像との合成を通じて生成されたエモーティコンを意味し得る。
図2は、本発明の一実施例に係るエモーティコン生成装置の制御ブロック図である。
本発明の一実施例に係るエモーティコン生成装置100は、使用者映像受信部110、使用者映像保存部115、映像分析部120、背景決定部130、背景データベース140、エモーティコン生成部150およびエモーティコン伝送部160のうち少なくとも一部または全部を含むことができる。
使用者映像受信部110は使用者端末1から使用者映像を受信することができる。
使用者映像は、使用者端末1から伝送される静止イメージまたは動画を意味し得る。
使用者映像保存部115は使用者映像受信部110を通じて受信された使用者映像を保存することができる。
映像分析部120は使用者映像受信部110を通じて受信された使用者映像を分析することができる。
背景決定部130は映像分析部120で使用者映像を分析した結果に基づいて背景映像を決定することができる。
ここで、背景映像は、合成エモーティコンに使われる背景であって、静止イメージまたは動画を含むことができる。
背景決定部130は使用者映像を分析した結果に基づいて推薦された少なくとも一つの背景映像のうち、使用者端末1を通じて選択された背景映像を合成エモーティコンに合成される背景映像として決定することができる。
具体的には、背景決定部130は使用者映像を分析した結果に基づいて少なくとも一つの背景映像を推薦し、推薦した背景映像を使用者端末1に伝送することができる。この時、背景決定部130は背景映像自体を使用者端末1に伝送するか、背景映像に対する情報を使用者端末1に伝送することができる。
背景映像に対する情報はサムネイルイメージ、背景映像を説明するテキストなどであり得るが、これは例示的なものに過ぎないため、これに制限されない。このように、背景決定部130が背景映像に対する情報を使用者端末1に伝送する場合、背景映像自体を伝送する場合よりも伝送データの大きさを減らすことができるため伝送速度を改善でき、これに伴い、合成エモーティコン生成速度を向上させ得る利点がある。
使用者端末1はエモーティコン生成装置100から受信した推薦背景映像あるいは推薦背景映像に対する情報を表示することによって、使用者からいずれか一つの背景映像の選択を受けることができる。使用者端末1は選択された背景映像あるいは選択された背景映像に対する情報をエモーティコン生成装置100に伝送することができる。
背景決定部130は使用者端末1に推薦した背景映像を伝送した場合、使用者端末1から推薦した背景映像のうち選択された背景映像を受信することができる。同様に、背景決定部130は使用者端末1に推薦した背景映像に対する情報を伝送した場合、使用者端末1から選択された背景映像に対する情報を受信することができる。
背景データベース140は合成エモーティコン生成に使われる背景映像を保存していてもよい。
一実施例によると、背景データベース140は複数の背景映像を複数の背景映像それぞれに対するインデックスとマッピングさせて保存することができる。これについては図8でさらに詳しく説明する。
一方、背景データベース140は複数の背景映像それぞれに対する合成ガイドラインを保存することができる。合成ガイドラインは背景映像それぞれに対して合成される使用者または客体の大きさまたは位置情報を意味し得る。
エモーティコン生成部150は使用者映像から抽出された使用者または客体のうち少なくとも一つを背景映像に合成した合成エモーティコンを生成することができる。
エモーティコン生成部150は背景映像それぞれに設定された合成ガイドラインにしたがって使用者/客体の大きさまたは位置を決定することができる。
一方、前述した合成ガイドラインは使用者端末1を通じて修正されてもよい。この場合、エモーティコン生成部150は使用者端末1を通じて背景映像の選択を受けた後、入力された合成ガイドラインの修正情報により使用者または客体が合成される大きさもしくは位置を調節することができる。
エモーティコン伝送部160は生成された合成エモーティコンを使用者端末1に伝送することができる。
図3は、本発明の一実施例に係るエモーティコン生成装置の動作方法が図示されたフローチャートである。
使用者映像受信部110は使用者端末1から使用者映像を受信することができる(S10)。
映像分析部120は使用者端末1から受信した使用者映像を分析することができる(S20)。
次に、図4を参照して映像分析部120が使用者映像を分析する方法をより詳細に説明する。図4は、図3の段階S20を具体化したフローチャートである。
映像分析部120は使用者映像から使用者または客体を認識することができる(S210)。
図5は、本発明の一実施例に係る映像分析部が使用者映像を分析する方法の様子が図示された例示図である。
一実施例によると、映像分析部120はVision APIを利用して使用者映像を分析することができる。まず、映像分析部120は使用者映像から客体を検出することができる。
より詳細には、映像分析部120はLabel Detectionを通じて使用者映像の中にある事物(例えば、家具、動物、食べ物など)を認識したり、Logo Detectionを通じて使用者映像の中で会社ロゴなどのようなロゴを認識したり、Landmark Detectionを通じて使用者映像の中で建築物(例えば、ナムサンタワー、キョンボックンなど)あるいは自然経過などのようなランドマークを認識することができる。また、映像分析部120はFace Detectionを通じて使用者映像の中で人の顔を探し、目、鼻、口の位置などをリターンして表情および感情状態(例えば、うれしい状態、悲しい状態など)を分析することができる。また、映像分析部120はSafe Search Detectionを通じて使用者映像の危険度(あるいは健全性)を検出でき、これを通じて使用者映像が成人コンテンツ、医学コンテンツ、暴力コンテンツなどに属する程度を検出することができる。
一方、映像分析部120は使用者または客体を使用者映像の全体から認識してもよいが、使用者映像からサンプルイメージを抽出した後にサンプルイメージから使用者または客体を認識してもよい。
図6は、図4の段階S210を具体化したフローチャートである。
映像分析部120は使用者映像から予め設定された間隔でサンプルイメージを抽出することができる(S211)。
予め設定された間隔は、時間単位あるいはフレーム単位であり得る。
一例として、予め設定された間隔は1秒であり得、この場合、映像分析部120は使用者映像が5秒の映像であれば1秒間隔で使用者映像をキャプチャーしてサンプルイメージを抽出することができる。
他の例として、予め設定された間隔は24フレームであり得、この場合、映像分析部120は使用者映像が一秒あたり24フレームのイメージが表示される5秒映像である場合、24フレーム間隔で使用者映像をキャプチャーしてサンプルイメージを抽出することができる。
映像分析部120は抽出されたサンプルイメージそれぞれに対して予め設定された使用不可条件に該当するかどうかを判断することができる(S213)。
具体的な例として、映像分析部120は使用者が目をとじたイメージ、解像度が予め設定された基準解像度以下であるイメージまたは明るさが予め設定された基準明るさ以下であるイメージを使用不可条件に該当するものと判断することができる。
映像分析部120はサンプルイメージのうち使用不可条件に該当するイメージが存在するかを判断することができる(S215)。
映像分析部120はサンプルイメージのうち使用不可条件に該当するイメージが存在すれば、使用不可条件に該当するサンプルイメージの代わりに使われるサンプルイメージを再抽出することができる(S217)。
一実施例によると、映像分析部120はサンプルイメージを抽出した間隔を変更することによってサンプルイメージを再抽出することができる。一例として、映像分析部120は段階S211では24フレーム間隔でサンプルイメージを抽出したとすれば、段階S217では25フレーム間隔でサンプルイメージを再抽出することができる。
しかし、前述したサンプルイメージ抽出間隔を変更する方法は例示的なものに過ぎないため、本発明はこれに制限されない。
このように、映像分析部120は予め設定された使用不可条件に該当するイメージはエモーティコン生成に使われないように予めフィルタリングすることによって、より完成度の高いエモーティコンを生成できる利点がある。
映像分析部120はサンプルイメージを再抽出すれば、段階S213に復帰して再抽出されたサンプルイメージそれぞれに対して予め設定された使用不可条件に該当するかどうかを判断することができる。
映像分析部120は(再)抽出されたサンプルイメージに使用不可条件に該当するイメージが存在しなければ、(再)抽出されたサンプルイメージから使用者または客体を認識することができる(S219)。
このように、使用者映像全体ではなく使用者映像で抽出された一部サンプルイメージに対して使用者または客体を認識する場合、映像分析の対象が縮小され、これに伴い、背景決定に要する時間を最小化できる利点がある。
一方、図6で段階S213~S215は実施例によっては省略されてもよい。
再び、図4を説明する。
映像分析部120は認識された使用者または客体を分析してカテゴリーを抽出することができる(S220)。
映像分析部120は検出された客体それぞれをラベリングした後、ラベリングされた客体それぞれで特徴を抽出することができる。例えば、映像分析部120は使用者映像で、顔、手、腕、目などを感知してラベリングした後、喜び、悲しみ、怒り、驚き、自信感などのような特徴を抽出することができる。
図5の例示において、映像分析部120は顔イメージの属性として自信感、喜びを抽出し、ポーズの属性としてファイティングを抽出することができる。すなわち、映像分析部120は図5の例示イメージに対応するカテゴリーで自信感、喜び、ファイティングを抽出することができる。
カテゴリーは、使用者映像の分析の結果、分類された使用者映像の特徴の部類を意味し得る。
一方、前述した方法は説明の便宜のための例示に過ぎず、映像分析部120はVision API以外の他の方法を利用して使用者映像を分析してもよい。
再び、図3を説明する。
背景決定部130は使用者映像を分析した結果に基づいて背景映像を決定することができる(S30)。
図7は、図3の段階S30が具体化されたフローチャートである。すなわち、図7は本発明の一実施例に係る背景決定部130が背景映像を決定する方法が図示されたフローチャートである。
まず、背景データベース140には複数の背景映像が保存されており、複数の背景映像それぞれに対するインデックスがマッピングされていてもよい。
図8は、本発明の一実施例に係る背景データベースに背景映像が保存される方式の一例が図示された図面である。
図8の例示に図示された通り、背景データベース140は複数の背景映像を含み、複数の背景映像それぞれには少なくとも一つのインデックスがマッピングされている。
再び、図7を説明する。
背景決定部130は、使用者映像の分析の結果、抽出されたカテゴリーと一致するインデックスを有する背景映像を推薦背景映像として背景データベース140から獲得することができる(S310)。
一例として、背景決定部130は使用者映像の分析の結果、抽出されたカテゴリーが「ファイティング」である場合、1番の背景映像を推薦背景映像として獲得することができる。他の例として、背景決定部130は使用者映像の分析の結果、抽出されたカテゴリーが「喜び」である場合、1番の背景映像と2番の背景映像を推薦背景映像として獲得することができる。さらに他の例として、背景決定部130は使用者映像の分析の結果、抽出されたカテゴリーが「驚き」である場合、3番の背景映像を推薦背景映像として獲得することができる。
再び、図7を説明する。
背景決定部130は推薦背景映像に対する情報を使用者端末1に伝送することができる(S320)。
使用者端末1は推薦背景映像に対する情報を受信すれば、推薦背景映像に対する情報を表示して使用者から推薦背景映像のうち少なくとも一つの選択を受けることができる。使用者端末1は推薦背景映像のうち選択された背景映像に対する情報をエモーティコン生成装置100に伝送することができる。
背景決定部130は使用者端末1から選択された背景映像に対する情報を受信することができる(S330)。
背景決定部130は選択された背景映像を合成される背景映像として決定することができる(S340)。
再び、図3を説明する。
エモーティコン生成部150は、使用者映像から抽出された使用者または客体と背景映像を合成した合成エモーティコンを生成することができる(S40)。
本発明の一実施例によると、エモーティコン生成部150は使用者端末1を通じて選択された背景映像に使用者映像から抽出された使用者または客体を合成することによって合成エモーティコンを生成することができ、このとき使用者または客体は背景映像に設定された合成ガイドラインにしたがって大きさまたは位置が調節され得る。このような合成ガイドラインは、使用者端末1がエモーティコン生成のための使用者映像撮影時に使用者端末1に表示されてもよい。また、このような合成ガイドラインは使用者端末1を通じて推薦背景映像のうちいずれか一つが選択される時にも表示され、この場合には使用者から合成ガイドラインの修正情報の入力を受けてもよく、合成ガイドラインの修正情報が入力された場合には使用者または客体が合成される位置もしくは大きさが修正されてもよい。
これに伴い、エモーティコン生成装置100はより多様に使用者オーダーメード型エモーティコンを生成可能な利点がある。
次に、図9は本発明の一実施例に係るエモーティコン生成部が生成した合成エモーティコンの例示図である。
図9に図示された通り、エモーティコン生成部150は使用者映像から抽出された使用者または客体1011、1021、1031を背景映像1012、1022、1032と合成して合成エモーティコンを生成することができる。
再び、図3を説明する。
エモーティコン伝送部160は生成された合成エモーティコンを使用者端末1に伝送することができる(S50)。
図10は、本発明の一実施例に係るエモーティコン生成装置で生成されたエモーティコンが使用者端末で使われる一例が図示された図面である。
図10に図示された例示のように、使用者は使用者端末100を通じてメッセンジャー上でエモーティコン生成装置100で生成された合成エモーティコンを送受信することができる。また、図10にはメッセンジャーでエモーティコンが使われる例示のみが図示されているが、エモーティコン生成装置100で生成されたエモーティコンはSNSなどの多様なアプリケーション内で使われ得る。
前述した本発明は、プログラムが記録された媒体のコンピュータ読み取り可能なコードで具現することが可能である。コンピュータ読み取り可能媒体は、コンピュータシステムによって読み取り可能データが保存されるすべての種類の記録装置を含む。コンピュータ読み取り可能媒体の例としては、HDD(Hard Disk Drive)、SSD(Solid State Disk)、SDD(Silicon Disk Drive)、ROM、RAM、CD-ROM、磁気テープ、フロッピーディスク、光データ保存装置などがある。また、前記コンピュータはエモーティコン生成装置100の構成要素を含んでもよい。したがって、前記の詳細な説明はすべての面で制限的に解釈されてはならず、例示的なものと考慮されるべきである。本発明の範囲は添付された請求項の合理的解釈によって決定されるべきであり、本発明の等価的範囲内でのすべての変更は本発明の範囲に含まれる。

Claims (4)

  1. 使用者端末から使用者映像を受信する使用者映像受信部と、
    前記受信された使用者映像を分析し、前記使用者映像から使用者または客体を認識する映像分析部と、
    前記使用者映像を分析した結果に基づいて背景映像を決定する背景決定部と、
    前記使用者映像から抽出された使用者または客体のうち少なくとも一つを前記背景映像に合成した合成エモーティコンを生成するエモーティコン生成部と、
    前記使用者端末上にインストールされたSNSアプリケーションを介してメッセンジャー上の前記使用者と会話をしている他の使用者用の他の使用者端末に生成した前記合成エモーティコンが伝送されるように、生成した前記合成エモーティコンを前記他の使用者端末に伝送するエモーティコン伝送部と、
    を含み、
    前記映像分析部は
    前記使用者映像から予め設定された間隔で前記使用者映像の一部の映像であるサンプルイメージを抽出し、前記抽出されたサンプルイメージから使用者または客体を認識し、前記認識された使用者または客体を分析して前記使用者映像に対するカテゴリーを抽出し、
    前記映像分析部は
    前記サンプルイメージを抽出するとき、抽出されたサンプルイメージそれぞれに対して予め設定された使用不可条件に該当するかどうかを判断し、
    前記抽出されたサンプルイメージが前記使用不可条件に該当する場合、前記サンプルイメージを抽出する間隔を変更することによって、前記使用不可条件に該当する前記抽出されたサンプルイメージの代わりに前記使用者または前記客体を認識するのに使われる新たなサンプルイメージを再抽出し、
    前記使用不可条件に該当する前記サンプルイメージは、使用者が目をとじたイメージ、解像度が予め設定された基準解像度以下であるイメージまたは明るさが予め設定された基準明るさ以下であるイメージであり、
    前記背景決定部は
    前記使用者映像を分析した結果に基づいて推薦された少なくとも一つの背景映像のうち、前記使用者端末を通じて選択された背景映像を前記合成エモーティコンに合成される背景映像として決定
    前記エモーティコン生成部は
    背景映像それぞれに設定された合成ガイドラインにしたがって前記使用者または客体の大きさもしくは位置を決定し、前記使用者端末を通じて前記背景映像が選択された後、入力された前記合成ガイドラインの修正情報により前記使用者または客体が合成される大きさもしくは位置を調節する、エモーティコン生成装置。
  2. 前記背景決定部は
    前記使用者映像を分析した結果に基づいて少なくとも一つの背景映像を推薦し、推薦した背景映像に対する情報を前記使用者端末に伝送し、前記使用者端末から前記選択された背景映像に対する情報を受信する、請求項1に記載のエモーティコン生成装置。
  3. 複数の背景映像と複数の背景映像それぞれに対するインデックスがマッピングされた背景データベースをさらに含む、請求項1に記載のエモーティコン生成装置。
  4. 前記背景決定部は
    前記使用者映像を分析しながら抽出されたカテゴリーを獲得し、
    前記背景データベースで前記抽出されたカテゴリーと一致するインデックスとマッピングされた背景映像を推薦背景映像として獲得する、請求項3に記載のエモーティコン生成装置。
JP2022547260A 2021-07-27 2021-12-31 エモーティコン生成装置 Active JP7465487B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2021-0098517 2021-07-27
KR1020210098517A KR20230016930A (ko) 2021-07-27 2021-07-27 이모티콘 생성 장치
PCT/KR2021/020383 WO2023008668A1 (ko) 2021-07-27 2021-12-31 이모티콘 생성 장치

Publications (2)

Publication Number Publication Date
JP2023538981A JP2023538981A (ja) 2023-09-13
JP7465487B2 true JP7465487B2 (ja) 2024-04-11

Family

ID=85038140

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022547260A Active JP7465487B2 (ja) 2021-07-27 2021-12-31 エモーティコン生成装置

Country Status (3)

Country Link
US (1) US20230031999A1 (ja)
JP (1) JP7465487B2 (ja)
CN (1) CN116113990A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230367451A1 (en) * 2022-05-10 2023-11-16 Apple Inc. User interface suggestions for electronic devices

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005136841A (ja) 2003-10-31 2005-05-26 Casio Comput Co Ltd 画像出力装置、画像出力方法、画像出力処理プログラム、および画像配信サーバ、画像配信処理プログラム
KR101571687B1 (ko) 2014-05-26 2015-11-25 이정빈 동영상 이펙트 적용 장치 및 방법
KR101720250B1 (ko) 2013-07-30 2017-03-27 주식회사 케이티 이미지를 추천하는 장치 및 방법
US20180182141A1 (en) 2016-12-22 2018-06-28 Facebook, Inc. Dynamic mask application
JP2019009754A (ja) 2017-06-21 2019-01-17 メディアフロント カンパニー リミテッド リアルタイム増強合成技術を用いた映像生成サーバ、映像生成システム及び方法
US20200174656A1 (en) 2018-12-04 2020-06-04 Samsung Electronics Co., Ltd. Electronic device for generating augmented reality emoji and method thereof

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005136841A (ja) 2003-10-31 2005-05-26 Casio Comput Co Ltd 画像出力装置、画像出力方法、画像出力処理プログラム、および画像配信サーバ、画像配信処理プログラム
KR101720250B1 (ko) 2013-07-30 2017-03-27 주식회사 케이티 이미지를 추천하는 장치 및 방법
KR101571687B1 (ko) 2014-05-26 2015-11-25 이정빈 동영상 이펙트 적용 장치 및 방법
US20180182141A1 (en) 2016-12-22 2018-06-28 Facebook, Inc. Dynamic mask application
JP2019009754A (ja) 2017-06-21 2019-01-17 メディアフロント カンパニー リミテッド リアルタイム増強合成技術を用いた映像生成サーバ、映像生成システム及び方法
US20200174656A1 (en) 2018-12-04 2020-06-04 Samsung Electronics Co., Ltd. Electronic device for generating augmented reality emoji and method thereof

Also Published As

Publication number Publication date
JP2023538981A (ja) 2023-09-13
US20230031999A1 (en) 2023-02-02
CN116113990A (zh) 2023-05-12

Similar Documents

Publication Publication Date Title
Doughty et al. Who's better? who's best? pairwise deep ranking for skill determination
JP6946869B2 (ja) 複数のメディアセグメントを備えるメディアファイルのサマリを生成する方法、プログラム、およびメディア分析デバイス
CN101783886B (zh) 信息处理设备、信息处理方法和程序
JP5106271B2 (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
CN113259780B (zh) 全息多维音视频播放进度条生成、显示和控制播放方法
US9013591B2 (en) Method and system of determing user engagement and sentiment with learned models and user-facing camera images
JP6529314B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US20220383389A1 (en) System and method for generating a product recommendation in a virtual try-on session
US20170330265A1 (en) Method and Apparatus for Presenting Object Based on Biometric Feature
US10755087B2 (en) Automated image capture based on emotion detection
EP3285222A1 (en) Facilitating television based interaction with social networking tools
JPWO2015045233A1 (ja) 情報処理システム
JP7465487B2 (ja) エモーティコン生成装置
CN106851395B (zh) 视频播放方法和播放器
McDuff et al. Large-scale affective content analysis: Combining media content features and facial reactions
US10402068B1 (en) Film strip interface for interactive content
KR20160021016A (ko) 영상 콘텐츠 제공 방법 및 영상 콘텐츠 제공 장치
JP2016062372A (ja) 情報処理装置及び情報処理プログラム
JP7206741B2 (ja) 健康状態判定システム、健康状態判定装置、サーバ、健康状態判定方法、及びプログラム
JP4995770B2 (ja) 画像辞書生成装置,画像辞書生成方法,および画像辞書生成プログラム
US20150281784A1 (en) E-reading system with interest-based recommendations and methods for use therewith
US10417356B1 (en) Physics modeling for interactive content
WO2022033228A1 (zh) 一种数据处理方法及装置
US11995738B2 (en) Method for generating a multimedia element when reading a medium, terminal, and system
KR20230016930A (ko) 이모티콘 생성 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240321

R150 Certificate of patent or registration of utility model

Ref document number: 7465487

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150