JP6727413B2 - メッセージ共有方法及びコンピュータプログラム - Google Patents

メッセージ共有方法及びコンピュータプログラム Download PDF

Info

Publication number
JP6727413B2
JP6727413B2 JP2019510910A JP2019510910A JP6727413B2 JP 6727413 B2 JP6727413 B2 JP 6727413B2 JP 2019510910 A JP2019510910 A JP 2019510910A JP 2019510910 A JP2019510910 A JP 2019510910A JP 6727413 B2 JP6727413 B2 JP 6727413B2
Authority
JP
Japan
Prior art keywords
image data
text
user
sharing
message
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019510910A
Other languages
English (en)
Other versions
JP2019526861A (ja
Inventor
ジョン,サンチョル
ジョン,チャンヨン
キム,ヨンフン
Original Assignee
スノー コーポレーション
スノー コーポレーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by スノー コーポレーション, スノー コーポレーション filed Critical スノー コーポレーション
Publication of JP2019526861A publication Critical patent/JP2019526861A/ja
Application granted granted Critical
Publication of JP6727413B2 publication Critical patent/JP6727413B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • G06F40/109Font handling; Temporal or kinetic typography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • H04L51/046Interoperability with other network applications or services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/21Monitoring or handling of messages
    • H04L51/222Monitoring or handling of messages using geographical location information, e.g. messages transmitted or received in proximity of a certain spot or area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)
  • Image Analysis (AREA)

Description

本発明は、チャットルームを介して、各ユーザの状態を反映させた画像データを共有するメッセージ共有方法及び該方法を実行させるためのコンピュータプログラムに関する。
チャットシステムは、各自の端末を利用し、映像及びメッセージを交換して対話するシステムである。従来、複数のユーザは、各ユーザ端末を介して入力されたテキストまたは画像データをチャットルームに提供して共有することができた。
本発明は、ユーザによって入力されたテキスト、カメラによって撮影された画像データなどを考慮し、ユーザの感情、位置または周辺状況と係わる客体を抽出し、客体が適切に結合された画像データを生成するメッセージ共有方法及びコンピュータプログラムを提供することを目的とする。
また、本発明は、チャットルームを介して、生成された画像データ及びテキストを共有するように制御するメッセージ共有方法及びコンピュータプログラムを提供することを目的とする。
本発明の実施形態に係るコンピュータプログラムは、コンピュータに、本発明の実施形態に係るメッセージ共有方法のうちのいずれか1つを実行させるために、媒体に記録されてもよい。
それ以外にも、本発明を具現化するための他の方法、他のシステム、及び方法を実行するためのコンピュータプログラムを記録したコンピュータ読み取り可能な記録媒体がさらに提供される。
前述のもの以外の他の側面、特徴、利点は、図面、特許請求の範囲、及び発明の詳細な説明から明確になるであろう。
本発明の実施形態に係るメッセージ共有方法及びコンピュータプログラムは、ユーザによって入力されたテキスト、カメラによって撮影された画像データなどを考慮し、ユーザの感情、位置または周辺状況と係わる客体を抽出し、客体が適切に結合された画像データを生成することができる。
また、本発明の実施形態に係るメッセージ共有方法及びコンピュータプログラムは、チャットルームを介して、複合メッセージを共有するように制御することができる。
本発明の実施形態に係るユーザ端末の構成を示すブロック図である。 本発明の実施形態に係るチャットシステムの構成を示す図である。 ユーザ端末に提供されるチャットルームのユーザインターフェースについて説明するための図である。 メッセージ共有方法によって変換された画像データ、及び生成された複合メッセージの例示について説明するための図である。 メッセージ共有方法によって変換された画像データ、及び生成された複合メッセージの例示について説明するための図である。 メッセージ共有方法によって変換された画像データ、及び生成された複合メッセージの例示について説明するための図である。 メッセージ共有方法によって変換された画像データ、及び生成された複合メッセージの例示について説明するための図である。 メッセージ共有方法によって変換された画像データ、及び生成された複合メッセージの例示について説明するための図である。 本発明の実施形態に係るメッセージ共有方法のフローチャートである。 本発明の実施形態に係るメッセージ共有方法のフローチャートである。
本発明は、多様な変更を加えることができ、さまざまな実施形態を有することができるが、特定の実施形態を図に例示し、詳細に説明する。本発明の効果、特徴、及びそれらを達成する方法は、図と共に詳細に説明する実施形態を参照すると、明確になるであろう。しかしながら、本発明は、以下で開示される実施形態に限定されるものではなく、多様な形態によって具現化され得る。
以下、添付された図面を参照し、本発明の実施形態について詳細に説明するが、図面を参照して説明するとき、同一のまたは対応する構成要素には、同一の符号が付され、それに係わる重複説明は、省略される。
以下の実施形態において、第1、第2のような用語は、限定的な意味ではなく、1つの構成要素を他の構成要素と区別する目的で使用されている。
以下の実施形態において、単数の表現は、文脈上明確に異なって意味しない限り、複数の表現を含む。
以下の実施形態において、「含む」または「有する」というような用語は、明細書に記載された特徴または構成要素が存在するということを意味するものであり、1以上の他の特徴または構成要素が付加される可能性を排除するものではない。
ある実施形態が異なって具現化可能な場合、特定の工程順序は、説明される順序と異なるように実行されることもある。例えば、連続して説明される2つの工程が実質的に同時に実行されることもあるし、説明される順序とは反対の順序で進められることもある。
以下の実施形態において、「回路」は、例えば、プログラム可能な回路によって実行される命令を保存するハードワイヤード回路、プログラム可能な回路、状態マシン回路、及び/または、ファームウェアを単独でまたは任意の組み合わせで含むものであってよい。アプリケーションは、ホストプロセッサ、または他のプログラム可能な回路のようなプログラム可能な回路において実行されるコードまたは命令として具現化されることもある。本願の任意の実施形態で使用されるようなモジュールは、回路として具現化されることもある。該回路は、集積回路チップのような集積回路として具現化されることもある。
以下の実施形態において、ある部分がある構成要素を「含む」とするとき、それは、特別に反対となる記載がない限り、他の構成要素を排除するものではなく、他の構成要素をさらに含んでもよいということを意味する。また、明細書に記載されている「・・・部」、「・・・器」、「・・・モジュール」というような用語は、少なくとも1つの機能や動作を処理する単位を意味し、それは、ハードウェア、ソフトウェア、またはハードウェアとソフトウェアとの組み合わせによって具現化され得る。
図1は、本発明の実施形態に係るユーザ端末100を示す図である。
図1を参照すると、本発明の実施形態に係るユーザ端末100は、カメラ110、入力部120、出力部130、センサ部140、プロセッサ150、及び記録媒体160を含んでよい。
カメラ110は、画像通話モードまたは撮影モードで、イメージセンサを介して、静止画または動画などの画像フレームを得ることができる。イメージセンサを介してキャプチャされたイメージは、プロセッサ150、または別のイメージ処理部(図示せず)を介しても処理される。カメラ110で処理された画像フレームは、記録媒体160に記録されたり、外部に伝送されたりする。カメラ110は、端末の構成態様に応じて、2台以上が具備されてもよい。
カメラ110は、外部の音響信号が入力され、電気的なオーディオデータに処理するマイクロフォンをさらに含んでもよい。マイクロフォンは、外部の音響信号が入力される過程で生じるノイズを除去するための多様なノイズ除去アルゴリズムを利用することができる。
入力部120は、ユーザが、ユーザ端末100を制御するためのデータを入力する手段を意味する。例えば、ユーザ入力部150の例として、キーパッド、ドームスイッチ、タッチパッド(接触式静電容量方式、圧力式抵抗膜方式、赤外線感知方式、表面超音波伝導方式、積分式張力測定方式、ピエゾ効果方式など)、ジョグホイール、ジョグスイッチなどがあるが、それらに限定されるものではない。
出力部130は、ユーザ端末100で処理されたり生成されたりする情報を出力する。例えば、出力部130は、ゲームアプリケーションの実行時に提供されるユーザインターフェースを出力することができる。出力部130とタッチパッドとがレイヤ構造をなし、タッチスクリーンとして構成される場合、出力部130は、出力装置以外に、入力装置としても使用される。出力部130は、液晶ディスプレイ、薄膜トランジスタ液晶ディスプレイ、有機発光ダイオード、フレキシブルディスプレイ、三次元(3D)ディスプレイ、及び電気泳動ディスプレイのうちの少なくとも1つを含んでよい。デバイス100の具現化形態に応じて、デバイス100は、ディスプレイ部131を2個以上含んでもよい。この場合、2個以上のディスプレイ部131は、ヒンジを利用し、対向するように配置されてもよい。
センサ部140は、衛星通信を利用し、ユーザ端末100の地理的位置を算出するGPS(global position system)センサを含んでよい。
プロセッサ150は、一般的に、ユーザ端末100の全般的な動作を制御する。例えば、プロセッサ150は、記録媒体160に記録された命令を介して、カメラ110、入力部120、出力部130、センサ部140などを全般的に制御することができる。プロセッサ150は、プロセッサのように、データを処理することができる全種の装置を含んでよい。ここで、「プロセッサ」は、例えば、プログラムに含まれるコードまたは命令によって表現された機能を実行するために、物理的に構造化された回路を有する、ハードウェアに内蔵されたデータ処理装置を意味する。ハードウェアに内蔵されたデータ処理装置の例として、マイクロプロセッサ、中央処理装置(CPU:central processing unit)、プロセッサコア、マルチプロセッサ、ASIC(application-specific integrated circuit)、FPGA(field programmable gate array)のような処理装置を網羅することができるが、本発明の範囲は、それらに限定されるものではない。
記録媒体160は、オペレーティングシステム、アプリケーション、プログラム、ライブラリ及びドライバのような、ユーザ端末100の動作中に使用される多様なデータ及びソフトウェアを記録することができる。記録媒体160は、フラッシュメモリタイプ、ハードディスクタイプ、マルチメディアカードマイクロタイプ、カードタイプのメモリ(例えば、SDメモリまたはXDメモリなど)、RAM(random access memory)、SRAM(static random access memory)、ROM(read-only memory)、EEPROM(electrically erasable programmable read-only memory)、PROM(programmable read-only memory)、磁気メモリ、磁気ディスク、及び光ディスクのうちの少なくとも1つのタイプの記録媒体を含んでよい。また、ユーザ端末100は、インターネット上において、記録媒体160の記録機能を実行するウェブストレージまたはクラウドサーバを運用させることもできる。
記録媒体160に記録されたプログラムは、その機能により、例えば、UI(user interface)モジュール、タッチスクリーンモジュール、お知らせモジュールなどといった複数のモジュールに分類されることもある。
次に、記録媒体160に記録される構成要素について詳細に説明する。
映像受信部161は、カメラ110を介して生成された画像データを受信する。映像受信部161は、入力部120を介して伝送が入力された時点を基準に、事前に設定された時間の間、画像データを撮影する。
テキスト受信部162は、入力部120を介して入力されたテキストを受信する。
客体抽出部163は、画像データ及びテキストを分析し、テキストを分析した結果、画像データを分析した結果、及びセンサ部140から取得されたセンシング値のうちの少なくとも1つを利用し、ユーザと係わる客体を抽出することができる。ここで、客体は、視覚的データまたは聴覚的データのような感覚的データを指し、アニメーションエフェクトのように、基本的なイメージを変形するエフェクトをさらに含んでもよい。客体抽出部163は、テキストを分析した結果を利用し、ユーザと係わる第1客体を抽出することができる。より具体的には、ユーザによって入力されたテキストを、自然言語処理する方法を利用して分析し、分析した結果を利用し、ユーザと係わる客体を抽出することができる。さらに具体的には、客体抽出部163は、ユーザによって入力されたテキストを形態素単位に分離し、テキストにおいて、ユーザ感情を示す形容詞を抽出し、抽出された形容詞を基に、ユーザが有している感情と係わる客体を抽出することができる。例えば、ユーザによって入力されたテキストが、「悲しい」という形容詞を含む場合、客体抽出部163は、ユーザの悲しい感情と対応するイメージを、客体として抽出することができる。また、客体抽出部163は、形態素単位に分離し、テキストにおいて、ユーザの現在行為と対応する動詞を抽出し、抽出された動詞を基に、ユーザの現在行為と係わる客体を抽出することができる。例えば、ユーザによって入力されたテキストが、「映画を見る」という動詞を含む場合、客体抽出部163は、劇場イメージを、ユーザの行為と係わる客体として抽出することができる。客体抽出部163は、ユーザによって入力されたテキストを形態素単位に分離し、テキストにおいて、ユーザが位置する位置を示す副詞を抽出し、副詞を基に、ユーザが位置する位置と係わる客体を抽出することができる。
客体抽出部163は、カメラを介して撮影された画像データを分析し、画像データを分析した結果を利用し、ユーザと係わる客体を抽出することができる。より具体的には、客体抽出部163は、現在、カメラを介して撮影された画像データに存在するユーザと対応する領域を分析領域と決定し、分析領域に含まれるエッジまたは特徴点などを抽出し、エッジまたは特徴点などを基に、分析領域に含まれる人の顔表情を決定し、顔表情と対応する客体を抽出することができる。例えば、カメラを介して撮影された画像データが、怒った表情の人を含む場合、客体抽出部163は、画像データから、「怒る」と対応するイメージを、客体として抽出することができる。
客体抽出部163は、現在、カメラを介して撮影された画像データに存在するユーザと対応する領域を分析領域と決定し、分析領域に含まれるエッジまたは特徴点などを抽出し、エッジまたは特徴点などを基に、分析領域に含まれる人の口の様子を分析することにより、画像データから追加テキストを抽出することもできる。客体抽出部163は、追加テキストと対応するイメージを第2客体として生成することができる。
他の実施形態において、客体抽出部163は、顔認識アルゴリズムを利用し、画像データに含まれる人の顔と対応する顔領域を抽出し、顔領域と対応させ、ユーザと係わる第1客体または第2客体を位置させることができる。
客体抽出部163は、センサ部によって取得されたユーザの位置を考慮し、ユーザと係わる客体を抽出することもできる。例えば、センサ部によって取得されたユーザの位置が「パリ」である場合、客体抽出部163は、「パリ」と対応する代表建築物であるエッフェル塔などを、ユーザと係わる客体として抽出することができる。このとき、客体抽出部163は、ユーザの位置と対応する代表建築物、位置自体、位置周辺の背景などを、ユーザと係わる客体として抽出することができる。
客体抽出部163は、ユーザ端末にインストールされた他のアプリケーション(検索、ポータル、天気予報など)を介して取得されたまたはセンサ部を介して取得された天気情報を考慮し、ユーザと係わる客体を抽出することができる。例えば、現在の天気が「曇り」である場合、客体抽出部163は、「曇り」と対応する雲、灰色空のようなイメージを、客体として抽出することができる。
他の実施形態において、客体抽出部163は、日付及び時間の情報を利用し、現在時点の季節を決定し、季節によるイメージを、客体として抽出することができる。ここで、日付及び時間の情報は、基地局を介して取得されることもあるし、インターネット網を介して取得されることもあるし、あるいはユーザによって入力された情報を基に測定されることもある。客体抽出部163は、春と対応し、若葉が芽生えるイメージを、客体として抽出することができ、夏と対応し、海水浴場、ビキニなどのイメージを、客体として抽出することができ、秋と対応し、紅葉イメージを、客体として抽出することができ、冬と対応し、降雪や雪だるまのようなイメージを、客体として抽出することができる。
他の実施形態において、客体抽出部163は、日付及び時間の情報を利用し、現在時点のシーズンを決定し、シーズンによるイメージを、客体として抽出することができる。現在時点がクリスマスシーズンである場合、客体抽出部163は、シーズンであるクリスマスと対応するツリー、サンタクロースなどのイメージを、客体として抽出することができる。現在時点が中伏である場合、客体抽出部163は、シーズンである「中伏」と対応する「参鶏湯」、「エアコン」、「水遊び」、「浜辺」のようなイメージを、客体として抽出することができる。
客体抽出部163を介して抽出された客体は、二次元のデータであることもあるし、経時的に変更される三次元のデータであることもある。ここで、他の実施形態において、客体抽出部163は、抽出された客体にアニメーションエフェクトを追加することができるということは言うまでもない。客体抽出部163は、扇風機について、扇風機羽根が回るアニメーションエフェクトを追加することができる。客体抽出部163は、悲しい人を表現するために、涙が流れるエフェクトを追加することもできるし、雨降る天気を表現するために、雨が降るアニメーションエフェクトを追加することもできる。客体抽出部163は、爆竹を表現するために、爆竹がだんだんと大きくなるエフェクトを追加することができる。
コンテンツ生成部164は、抽出された客体をさらに含むように、画像データを編集することができる。より具体的には、コンテンツ生成部164は、抽出された客体が適切に表現されるように、各客体の表示位置を決定することができる。コンテンツ生成部164は、人の顔に適切に表示されなければならない、恥イメージ、怒りイメージなどと係わり、画像データにある人の顔を考慮し、抽出された客体の位置を決定することができる。また、コンテンツ生成部164は、抽出された客体を画像データの背景に表示するように、画像データを編集することができる。例えば、コンテンツ生成部164は、画像データから取得されたテキストを画像データに含めることができ、テキストが人の口から出てくるように表現されるように、画像データを変更することができる。コンテンツ生成部164は、抽出された「怒り」イメージを、人の頭上側に存在させることができる。コンテンツ生成部164は、抽出された「涙」イメージについて、人の目から流れるように、画像データを変更することができる。
また、コンテンツ生成部164は、画像データをサムネイルに変換することができる。このとき、コンテンツ生成部164は、画像データを、ユーザのプロフィール(profile)形式によるサムネイルに変換することができる。コンテンツ生成部164は、プロフィール形式に合わせ、画像データのサイズ(解像度)を変換することもできるし、あるいは画像データの一部を削除することもできる。追加的に、コンテンツ生成部164は、プロフィール形式に合わせ、画像データの解像度を低くし、画像データの容量を減らすこともできる。ここで、プロフィールは、チャットルームで提供されるメッセージと共に表示されるユーザ関連情報を指す。
コンテンツ生成部164は、変換された画像データ及びテキストを結合した複合メッセージを生成することができる。このとき、テキストについても、コンテンツ生成部164は、画像データ及びテキストを分析し、画像データを分析した結果、テキストを分析した結果、及びセンシング値のうちの少なくとも1つを考慮し、テキストをイメージに変換することができる。コンテンツ生成部164は、テキストのフォント種類、フォントサイズ、及びフォント色のうちの少なくとも1つを変更することもできるし、テキストをイメージのように表現することもできる。すなわち、コンテンツ生成部164は、変換された画像データ及びイメージに変換されたテキストを結合した複合メッセージを生成することができる。コンテンツ生成部164は、ユーザによって入力されたテキストを提供するだけでなく、ユーザの感情、位置、または現在の天気、季節、シーズンなどを反映させた客体を含む、現在撮影された画像データを結合した複合メッセージを生成することができる。それを介して、本発明の実施形態に係るユーザ端末100は、ユーザの感情、位置、天気などの情報を視覚化させた複合メッセージを提供することができ、テキストの認知なしでも、ユーザと係わる付随的な情報を取得することができる。他の実施形態において、コンテンツ生成部164は、テキスト提供においても、テキストを表現するフォントの種類、サイズ、色などを変更することができる。コンテンツ生成部164は、1つのテキストについても、互いに異なるフォントの種類、サイズ、色などにより、テキストに含まれる形態素を区分して表示することができる。また、コンテンツ生成部164は、テキストを表示する方式も、二次元で表現することもでき、画像データに含まれる人の口からテキストが提供されるアニメーションエフェクトを含んで提供することができる。例えば、テキストが提供されるアニメーションエフェクトは、左または右から飛んでくるエフェクト、上または下から飛んでくるエフェクトなどであってよい。
コンテンツ提供部165は、チャットルームを介して、他のユーザと共有されるように、変換された画像データ及びテキストを提供することができる。コンテンツ提供部165は、生成された複合メッセージが、チャットルームを介して、他のユーザと共有されるように、生成された複合メッセージを提供する。コンテンツ提供部165は、複数のユーザ間において、メッセージを交換することができるチャットルームを介して、複合メッセージを提供する。複合メッセージのサイズは、入力された画像データ、テキスト、または抽出された客体に応じて異なり得る。他の実施形態において、コンテンツ提供部165は、複合メッセージに含まれるアニメーションエフェクトを初めに提供した後、事前に設定された基本時間、例えば、15分間だけ、提供し、15分が経過すると、複合メッセージに含まれるアニメーションエフェクトなしに、複合メッセージを二次元的に提供することができる。
他の実施形態において、生成された複合メッセージは、各ユーザのプロフィール写真に設定されてもよく、より具体的には、当該チャットルームでのみ一時的に、プロフィールとして機能することができる。
本発明の実施形態に係るユーザ端末100は、入力されたテキストまたは画像データから客体を抽出することにより、ユーザが伝達しようとする感情、気持ち、状態などをさらに視覚的に表現することができる。また、本発明の実施形態に係るユーザ端末100は、チャットルームを介して、共有する画像データに追加しようとする客体が、ユーザから選択されることも可能にする。本発明の実施形態に係るユーザ端末100は、一般的なチャットシステムと異なり、チャットルームを介して、テキスト以外のデータを共有することができ、特に、入力された複数のデータタイプに該当するデータを、1つのコンテンツに変換して提供することができる。例えば、ユーザ端末100は、ユーザによって入力された「愛してる」と対応し、「愛してる」という感情をさらに極大化させることができる客体を、事前に保存された複数のアイコンのうちから選択することができる。ユーザ端末100は、抽出された客体を反映させ、チャットルームで共有されたメッセージを時系列的に配列させ、1つのデータに生成することにより、各メッセージが入力された時点から時間が長く経った後でも、画像データに追加された客体または複合メッセージを介して、当該メッセージが入力された時点で、他の状態(位置、時間、天気、感情など)を伝達することができる。すなわち、ユーザ端末100は、客体または複合メッセージを介して、各ユーザが位置していた位置、各メッセージが入力された時点の天気、各メッセージが入力された時点の時間などをさらに伝達することができる。
図2は、本発明の実施形態に係るチャットシステムの構成を示す図である。
ユーザは、ユーザ端末100、101、102を介して、チャットサーバ200に接続することができる。ユーザ端末100は、チャットサーバ200が提供するチャットアプリケーションをダウンロードすることができる。また、ユーザ端末100は、インストールされた1以上の他のアプリケーションの利用情報を、チャットサーバ200に送信することもできる。
複数のユーザ端末100は、有線/無線通信環境で、ウェブサービスを利用することができる通信端末を意味する。ここで、ユーザ端末100は、ユーザのパソコン101であってもよいし、ユーザの携帯端末102であってもよい。図2において、携帯端末102がスマートフォンのように図示されているが、本発明の思想は、それに限定されるものではなく、前述のように、ウェブブラウジングが可能なアプリケーションをインストールした端末であれば、どのようなものでも適用可能である。
それについてさらに詳細に説明すると、ユーザ端末100は、コンピュータ(例えば、デスクトップ、ラップトップ、タブレットなど)、メディアコンピューティングプラットフォーム(例えば、ケーブル、衛星セットトップボックス、デジタルビデオレコーダ)、ハンドヘルドコンピュータデバイス(例えば、PDA(personal digital assistant)、電子メールクライアントなど)、携帯電話の任意の形態、もしくは他種のコンピュータ、またはコミュニケーションプラットフォームの任意の形態を含んでよいが、本発明は、それらに限定されるものではない。
チャットサーバ200は、一般的なチャットサービスを提供することができる。チャットサーバ200は、ユーザからの受信された要求に応じて、チャットルームを新設または除去することもできる。チャットサーバ200は、第1ユーザ端末によって生成された複合メッセージを受信し、チャットルームに含まれる他のユーザ端末に複合メッセージを提供することができる。
通信網300は、複数のユーザ端末100とチャットサーバ200とを接続する役割を担う。すなわち、通信網300は、ユーザ端末100がチャットサーバ200に接続した後、データを送受信することができるように、接続経路を提供する通信網を意味する。通信網300は、例えば、LAN(local area network)、WAN(wide area network)、MAN(metropolitan area network )、ISDN(integrated service digital network)のような有線ネットワークや、無線LAN、CDMA(code division multiple access)、ブルートゥース(登録商標)、衛星通信などの無線ネットワークを網羅することができるが、本発明の範囲は、それらに限定されるものではない。
図3は、ユーザ端末に提供されるチャットルームのユーザインターフェースについて説明するための図である。
ユーザ端末に提供されるチャットルームのユーザインターフェースは、チャットルームを介して交換されたメッセージを提供する第1領域A1と、ユーザ端末を介して取得されたテキスト及び画像データを事前に提供する第2領域A2と、を含んでよい。
第1領域A1は、経時的に配列されることが一般的であり、新たなメッセージが入力されると、新たなメッセージが下端に追加され、それにより、最も上端に位置していたメッセージは、表示領域から外れる。第1領域A1には、メッセージと共に、メッセージを入力したユーザのプロフィール情報が提供される。特に、本発明の実施形態に係るユーザ端末100は、第2領域A2の一部に、カメラを介して撮影された画像データS1を、ユーザのプロフィール情報代わりに表示することができる。また、本発明の実施形態に係るユーザ端末100は、第2領域A2の残りの領域に、ユーザによって入力されたテキストS2を表示することができる。ユーザによって入力されたテキスト及び画像データに係わる伝送のための入力が受信されると、第1領域A1の最下側領域S3において、テキスト、及び抽出された客体を含む画像データが別個の領域にも提供される。他の実施形態において、第1領域A1の最下側領域S3に、ユーザによって入力されたテキスト、及び抽出された客体を含む画像データを結合した複合メッセージが提供される。メッセージが表示される領域S3において、画像データ及びテキストを表示する領域の区分なしに、1つの領域に、画像データ、テキスト、画像データと、テキストを介して抽出された客体とを結合した1つのメッセージが提供されもする。メッセージが表示される領域S3において、画像データ及びテキストが別個の領域に提供される。
それを介して、本発明の実施形態に係るメッセージ共有方法は、チャットルームに提供される領域が、全体的に、ユーザによって入力されたデータによっても表現されるようにする。また、本発明の実施形態により、対話者であるユーザを撮影した画像データを共に提供することにより、各メッセージの発信者がさらに容易に認知される。
図4ないし図8は、メッセージ共有方法によって変換された画像データ、及び生成された複合メッセージの例示について説明するための図である。
図4ないし図8に図示されているように、入力されたテキストは、画像データに含まれる人と連結された吹き出し(speech bubble)にも含められる。
図4は、ユーザ端末の位置情報を基に客体を抽出し、客体を含む画像データまたは複合メッセージを生成した例に係わるものであり、ユーザ端末の位置が「パリ」である場合、ユーザの位置である「パリ」がさらに容易に認知されるように、「パリ」の代表イメージであるエッフェル塔を背景に含むように、図4(b)のように、画像データを変換することができる。図4(c)のように、ユーザ端末の位置が「パリ」である場合、ユーザの位置である「パリ」がさらに容易に認知されるように、「パリ」の代表イメージであるエッフェル塔を背景として含む複合メッセージを生成することができる。特に、抽出されたユーザの位置が、普段あまり訪問していない場所であるか、あるいは当該チャットルームに含まれる他のユーザの位置と異なる国である場合、ユーザ端末の位置情報を基に、客体を抽出することができる。抽出された客体は、現在時点で撮影された画像データと共に表現される。また、複合メッセージは、テキストをイメージに変換し、共に提供することができる。図4(c)に図示されているように、複合メッセージは、吹き出しによって表現されたテキストをさらに含むことになる。
図5は、ユーザ端末によって決定された天気情報を基に客体を抽出し、客体を含む画像データまたは複合メッセージを生成した例に係わるものであり、ユーザ端末の位置、及び現在時間を基に検索された天気情報が「雨」である場合、取得された天気をさらに容易に認知させるために、「雨降る背景」を含む図4(b)のように、画像データを生成することができる。ユーザ端末の位置、及び現在時間を基に検索された天気情報が「雨」である場合、取得された天気をさらに容易に認知させるために、「雨降る背景」を含む図4(c)のように、複合メッセージを生成することができる。
図6は、ユーザによって入力されたテキストから抽出されたユーザの感情と係わる客体を含む複合メッセージを生成した例に係わるものであり、ユーザによって入力された「おなかすいた」を反映させ、画像データまたは複合メッセージを生成することができる。具体的には、図6(b)のように、入力されたテキストである「おなかすいた」によって、撮影された画像データに含まれる人、顔形状は、「おなかすいた」すなわち空腹を示すイメージ、イモティコンを追加で含んでもよい。
図7は、ユーザによって入力されたテキスト及び画像データから抽出されたユーザの感情と係わる客体を含む画像データまたは複合メッセージを生成した例に係わるものである。すなわち、ユーザ端末100は、ユーザによって入力されたテキストである「やりすぎじゃない」を分析し、テキストの文脈を介して、ユーザの感情を「怒り」と決定することができる。決定されたユーザの感情により、画像データまたは複合メッセージは、画像データの人形状上に、「怒り」と対応するイメージを含めることができる。また、複合メッセージは、入力されたテキストの表示方法も変更することができ、すなわち、テキストの字をさらに大きく太く変更することができ、吹き出しの形態も、ユーザの感情により、図7(c)に図示されているように変更することができる。吹き出しの形態は、ユーザの「怒り」と対応し、張り裂けるような形態を有することができる。まとめると、本発明の実施形態に係るメッセージ共有方法は、テキストまたは画像データを介して取得されたユーザの感情と係わり、感情を表現するイメージの追加、感情と対応するフォントの変更、付随的なアニメーションエフェクトの反映などが可能である。
図8は、時間情報を介して取得されたシーズン情報、及びユーザによって入力されたテキストを考慮して抽出された客体を含む画像データまたは複合メッセージを生成した例に係わるものである。図8に図示されているように、時間情報と対応するシーズンがクリスマスである場合、画像データまたは複合メッセージは、シーズンと係わるツリーイメージをさらに含んでよく、撮影された画像データに追加して、ユーザの衣装をクリスマスに合わせ、入力されたテキストを考慮し、タキシードをオーバーラップさせることができる。すなわち、入力されたテキストがデート申請者である場合、ユーザの衣装を、それに合うタキシードに変更することができる。
図9は、本発明の実施形態に係るメッセージ共有方法のフローチャートである。
図9を参照すると、本発明の実施形態に係るメッセージ共有方法は、画像データ受信段階(S110)、テキスト受信段階(S120)、センシング値受信段階(S130)、客体抽出段階(S140)、及び画像データ編集段階(S150)を含んでよい。
S110において、ユーザ端末100は、カメラを介して撮影された画像データを受信する。ユーザによる入力により、事前に設定された時間の間、例えば、2秒間、画像データを撮影することになる。S120において、ユーザ端末100は、入力部を介して入力されたテキストを受信する。S130において、ユーザ端末100は、センサ部を介してユーザの位置、周辺の天気、時間などのセンシング値を受信することができる。
S140において、ユーザ端末100は、テキスト及び画像データを分析し、テキストを分析した結果、画像データを分析した結果、及びセンサ部から取得されたセンシング値のうちの少なくとも1つを利用し、ユーザと係わる第1客体を抽出することができる。S140の動作は、客体抽出部163の動作と同一であるので、詳細な説明を省略する。
S150において、ユーザ端末100は、抽出された客体をさらに含むように、画像データを編集することができる。ユーザ端末100は、抽出された客体が適切に表現されるように、各客体の表示位置を決定することができる。ユーザ端末100は、人の顔によって適切に表示されなければならない、恥イメージ、怒りイメージなどと係わり、画像データにある人の顔を考慮し、抽出された客体の位置を決定することができる。また、ユーザ端末100は、抽出された客体を画像データの背景に表示するように、画像データを編集することができる。ユーザ端末100は、第1客体が、決定された位置に表現されるように、画像データを編集することになる。また、ユーザ端末100は、編集された画像データをサムネイルに変換することができる。サムネイルは、各ユーザのプロフィールに設定される。サムネイルへの変換は、編集された画像データのサイズを変更すること、画像データの一部を除去すること、または画像データの容量を小さくすることを指す。
図10を参照すると、本発明の実施形態に係るメッセージ共有方法は、画像データ受信段階(S210)、テキスト受信段階(S220)、センシング値受信段階(S230)、客体抽出段階(S240)、画像データ編集段階(S250)、及び複合メッセージ生成段階(S260)を含んでよい。
S210において、ユーザ端末100は、カメラを介して撮影された画像データを受信する。ユーザによる入力により、事前に設定された時間の間、例えば、2秒間、画像データを撮影することになる。S220において、ユーザ端末100は、入力部を介して入力されたテキストを受信する。S230において、ユーザ端末100は、センサ部を介してユーザの位置、周辺の天気、時間などのセンシング値を受信することができる。
S240において、ユーザ端末100は、テキスト及び画像データを分析し、テキストを分析した結果、画像データを分析した結果、及びセンサ部から取得されたセンシング値のうちの少なくとも1つを利用し、ユーザと係わる第1客体を抽出することができる。S240の動作は、客体抽出部163の動作と同一であるので、詳細な説明を省略する。
S250において、ユーザ端末100は、抽出された客体をさらに含むように、画像データを編集することができる。ユーザ端末100は、抽出された客体が適切に表現されるように、各客体の表示位置を決定することができる。ユーザ端末100は、人の顔によって適切に表示されなければならない、恥イメージ、怒りイメージなどと係わり、画像データにある人の顔を考慮し、抽出された客体の位置を決定することができる。また、ユーザ端末100は、抽出された客体を画像データの背景に表示するように、画像データを編集することができる。ユーザ端末100は、第1客体が、決定された位置に表現されるように、画像データを編集することになる。また、ユーザ端末100は、編集された画像データをサムネイルに変換することができる。
S260において、ユーザ端末100は、変換された画像データ及びテキストを1つの複合メッセージに生成することができる。ユーザ端末100は、テキストをイメージに変換することができ、そのような場合、複合メッセージは、変換された画像データ及びイメージに変換されたテキストを含んでよい。
以上で説明された本発明の実施形態は、コンピュータ上で多様な構成要素を介して実行されるコンピュータプログラムの形態によって具現化されてよく、そのようなコンピュータプログラムは、コンピュータ読み取り可能な媒体に記録されてよい。ここで、このような媒体は、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体;CD−ROM(compact disc read only memory)及びDVD(digital versatile disc)のような光記録媒体;フロプティカルディスク(floptical disk)のような光磁気媒体;及びROM、RAM、フラッシュメモリのような、プログラム命令を記録して実行するように特別に構成されたハードウェア装置を含んでよい。さらに、上記媒体以外に、ネットワーク上で伝送可能な形態によって具現化される無形の媒体も可能であり、そのような媒体は、例えば、ソフトウェア形態またはアプリケーション形態で具現化され、ネットワークを介して伝送及び流通が可能な形態の媒体であってよい。
なお、コンピュータプログラムは、本発明のために特別に設計されて構成されたものであってもよいし、コンピュータソフトウェア分野の当業者に知られている使用可能なものであってもよい。コンピュータプログラムの例には、コンパイラによって作成されるような機械語コードだけではなく、インタープリタなどを使用し、コンピュータによって実行される高級言語コードも含まれる。
本発明で説明する特定の実行は、一実施形態であり、いかなる方法によっても、本発明の範囲を限定するものではない。明細書の簡潔さのために、従来の電子的な構成、制御システム、ソフトウェア、システムの他の機能的な側面の記載は、省略される。また、図に図示された構成要素間の線の接続/連結または接続/連結部材は、機能的な接続/連結、及び/または物理的または回路的な接続/連結を例示的に示したものであり、実際の装置においては、代替可能であったり、追加されたりする多様な機能的な接続/連結、物理的または回路的な接続/連結としても示される。また、「必須な」、「重要に」というような具体的な言及がなければ、本発明の適用のために、必ずしも必要な構成要素ではない。
本願の明細書(特に、特許請求の範囲)において、「前記」という用語、及びそれと類似した指示用語の使用は、単数及び複数のいずれにも該当する。また、本発明において、範囲を記載した場合、範囲に属する個別的な値を適用した発明を含むものであり(それに反する記載がなければ)、発明の詳細な説明において、範囲を構成する各個別的な値を記載した通りである。最後に、本発明に係る方法を構成する段階については、明確に順序を記載するか、あるいは反対となる記載がなければ、段階は、適する順序で実行される。段階の記載順序により、本発明が限定されるものではない。本明細書において、例または例示を示す全ての用語(例えば、など)の使用は、単に本発明について詳細に説明するためのものであり、特許請求の範囲によって限定されない以上、例または例示を示す用語により、本発明の範囲が限定されるものではない。また、当業者は、多様な修正、組み合わせ及び変更が付加された特許請求の範囲、またはその均等物の範囲内において、設計条件及びファクタによっても構成されるということが分かるであろう。

Claims (20)

  1. 撮像部、入力部、及びセンサ部を含むコンピュータに、
    前記撮像部を介して撮影された画像データを受信する段階と、
    前記入力部を介してユーザによって入力されたテキストを受信する段階と、
    前記テキスト及び前記画像データを分析し、前記テキストを分析した結果、前記画像データを分析した結果、及び前記センサ部から取得されたセンシング値のうちの少なくとも1つを利用し、前記ユーザと係わる第1客体を抽出する段階と、
    前記の抽出された第1客体を含むように、前記画像データを編集し、前記の編集された画像データをサムネイル形式に変換する段階と、
    チャットルームを介して、前記の変換された画像データ及び前記テキストを他のユーザと共有する段階であって、前記第1客体を考慮して前記テキストの表示方法を変更し、変更された前記テキストを前記他のユーザと共有する段階と、
    を含むメッセージ共有方法を実行させるコンピュータプログラム。
  2. 前記ユーザと係わる前記第1客体を抽出することは、
    前記テキストを形態素単位に分離し、前記テキストにおいて、前記ユーザの感情を示す形容詞を抽出し、前記形容詞を基に、前記ユーザが有している感情と係わる前記第1客体を抽出すること
    を含む、請求項1に記載のコンピュータプログラム。
  3. 前記ユーザと係わる前記第1客体を抽出することは、
    前記画像データを分析し、人の形状と対応する領域を抽出し、前記領域に含まれるエッジを介して、前記ユーザの感情を決定し、前記ユーザの感情と係わる前記第1客体を抽出すること
    を含む、請求項1に記載のコンピュータプログラム。
  4. 前記ユーザと係わる前記第1客体を抽出することは、
    前記センサ部を介して取得された位置または時間を考慮し、ユーザ端末の位置または時間と対応する前記第1客体を抽出すること
    を含む、請求項1に記載のコンピュータプログラム。
  5. 前記画像データを変換することは、
    顔認識アルゴリズムを利用し、前記画像データに含まれる人の顔を中心に、前記の抽出された第1客体を追加し、前記人の顔を中心に、前記画像データのサイズを調整すること
    を含む、請求項1に記載のコンピュータプログラム。
  6. 前記他のユーザと共有することは、
    前記第1客体を考慮し、前記テキストのフォントの種類、サイズ、及び色のうちの少なくとも1つを変更し、前記チャットルームを介して、変更された前記テキストを前記他のユーザと共有すること
    を含む、請求項1に記載のコンピュータプログラム。
  7. 前記他のユーザと共有することは、
    前記の変換された画像データ及び前記テキストを結合した複合メッセージを生成し、前記チャットルームを介して、前記複合メッセージを前記他のユーザと共有すること
    を含む、請求項1に記載のコンピュータプログラム。
  8. 前記他のユーザと共有することは、
    前記テキスト及び前記画像データを分析し、前記テキストを分析した結果、前記画像データを分析した結果、及び前記センサ部から取得されたセンシング値のうちの少なくとも1つを利用し、前記テキストをイメージに変換し、前記の変換されたテキスト及び前記の変換された画像データを結合した複合メッセージを生成し、前記チャットルームを介して、該複合メッセージを前記他のユーザと共有すること
    を含む、請求項7に記載のコンピュータプログラム。
  9. 前記他のユーザと共有することは、
    前記画像データに含まれる人の口の様子を分析して取得されたテキストを、第2客体として抽出し、前記画像データが前記第2客体を含むように、前記画像データを変更し、前記チャットルームを介して、前記の変更された画像データ及び前記テキストを前記他のユーザと共有すること
    を含む、請求項1に記載のコンピュータプログラム。
  10. 前記の変換された画像データは、各ユーザのプロフィール情報に設定される、請求項1に記載のコンピュータプログラム。
  11. 撮像部、入力部、及びセンサ部を含むコンピュータのメッセージ共有方法において、
    前記撮像部を介して撮影された画像データを受信する段階と、
    前記入力部を介してユーザによって入力されたテキストを受信する段階と、
    前記テキスト及び前記画像データを分析し、前記テキストを分析した結果、前記画像データを分析した結果、及び前記センサ部から取得されたセンシング値のうちの少なくとも1つを利用し、前記ユーザと係わる第1客体を抽出する段階と、
    前記の抽出された第1客体を含むように、前記画像データを編集し、前記の編集された画像データをサムネイルに変換する段階と、
    チャットルームを介して、前記の変換された画像データ及び前記テキストを他のユーザと共有する段階であって、前記第1客体を考慮して前記テキストの表示方法を変更し、変更された前記テキストを前記他のユーザと共有する段階と、
    を含むメッセージ共有方法。
  12. 前記ユーザと係わる前記第1客体を抽出することは、
    前記テキストを形態素単位に分離し、前記テキストにおいて、前記ユーザの感情を示す形容詞を抽出し、前記形容詞を基に、前記ユーザが有している感情と係わる前記第1客体を抽出すること
    を含む、請求項11に記載のメッセージ共有方法。
  13. 前記ユーザと係わる前記第1客体を抽出することは、
    前記画像データを分析し、人の形状と対応する領域を抽出し、前記領域に含まれるエッジを介して、前記ユーザの感情を決定し、前記ユーザの感情と係わる前記第1客体を抽出すること
    を含む、請求項11に記載のメッセージ共有方法。
  14. 前記ユーザと係わる前記第1客体を抽出することは、
    前記センサ部を介して取得された位置または時間を考慮し、ユーザ端末の位置または時間と対応する前記第1客体を抽出すること
    を含む、請求項11に記載のメッセージ共有方法。
  15. 前記画像データを変換することは、
    顔認識アルゴリズムを利用し、前記画像データに含まれる人の顔を中心に、前記の抽出された第1客体を追加し、前記人の顔を中心に、前記画像データのサイズを調整すること
    を含む、請求項11に記載のメッセージ共有方法。
  16. 前記他のユーザと共有することは、
    前記第1客体を考慮し、前記テキストのフォントの種類、サイズ、及び色のうちの少なくとも1つを変更し、前記チャットルームを介して、変更された前記テキストを前記他のユーザと共有すること
    を含む、請求項11に記載のメッセージ共有方法。
  17. 前記他のユーザと共有することは、
    前記の変換された画像データ及び前記テキストを結合した複合メッセージを生成し、前記チャットルームを介して、前記複合メッセージを前記他のユーザと共有すること
    を含む、請求項11に記載のメッセージ共有方法。
  18. 前記他のユーザと共有することは、
    前記テキスト及び前記画像データを分析し、前記テキストを分析した結果、前記画像データを分析した結果、及び前記センサ部から取得されたセンシング値のうちの少なくとも1つを利用し、前記テキストをイメージに変換し、前記の変換されたテキスト及び前記の変換された画像データを結合した複合メッセージを生成し、前記チャットルームを介して、該複合メッセージを前記他のユーザと共有すること
    を含む、請求項17に記載のメッセージ共有方法。
  19. 前記他のユーザと共有することは、
    前記画像データに含まれる人の口の様子を分析して取得されたテキストを、第2客体として抽出し、前記画像データが前記第2客体を含むように、前記画像データを変更し、前記チャットルームを介して、前記の変更された画像データ及び前記テキストを前記他のユーザと共有すること
    を含む、請求項11に記載のメッセージ共有方法。
  20. 前記の変換された画像データは、各ユーザのプロフィール情報に設定される、請求項11に記載のメッセージ共有方法。
JP2019510910A 2016-08-22 2016-08-22 メッセージ共有方法及びコンピュータプログラム Active JP6727413B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2016/009218 WO2018038277A1 (ko) 2016-08-22 2016-08-22 대화방을 통해 각 사용자의 상태를 반영한 화상 데이터를 공유하는 메시지 공유 방법메시지 공유 방법 및 상기 방법을 실행시키기 위한 컴퓨터 프로그램

Publications (2)

Publication Number Publication Date
JP2019526861A JP2019526861A (ja) 2019-09-19
JP6727413B2 true JP6727413B2 (ja) 2020-07-22

Family

ID=61244989

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019510910A Active JP6727413B2 (ja) 2016-08-22 2016-08-22 メッセージ共有方法及びコンピュータプログラム

Country Status (5)

Country Link
US (1) US11025571B2 (ja)
JP (1) JP6727413B2 (ja)
KR (1) KR102165271B1 (ja)
CN (2) CN115766636A (ja)
WO (1) WO2018038277A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10271079B1 (en) 2015-10-20 2019-04-23 Halogen Networks, LLC Live video streaming system and method
US10203855B2 (en) * 2016-12-09 2019-02-12 Snap Inc. Customized user-controlled media overlays
KR102616403B1 (ko) * 2016-12-27 2023-12-21 삼성전자주식회사 전자 장치 및 그의 메시지 전달 방법
KR102448382B1 (ko) * 2018-01-22 2022-09-28 삼성전자주식회사 텍스트와 연관된 이미지를 제공하는 전자 장치 및 그 동작 방법
JP7013929B2 (ja) * 2018-02-23 2022-02-01 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
US10616666B1 (en) * 2018-02-27 2020-04-07 Halogen Networks, LLC Interactive sentiment-detecting video streaming system and method
US10929155B2 (en) 2018-05-11 2021-02-23 Slack Technologies, Inc. System, method, and apparatus for building and rendering a message user interface in a group-based communication system
US10891969B2 (en) * 2018-10-19 2021-01-12 Microsoft Technology Licensing, Llc Transforming audio content into images
KR102116309B1 (ko) * 2018-12-17 2020-05-28 주식회사 인공지능연구원 가상 캐릭터와 텍스트의 동기화 애니메이션 출력 시스템
KR20200134544A (ko) * 2019-05-22 2020-12-02 라인플러스 주식회사 대화방의 컨텐츠 저작권을 보호하는 방법, 시스템, 및 비-일시적인 컴퓨터 판독가능한 기록 매체
KR20210041757A (ko) 2019-10-08 2021-04-16 삼성전자주식회사 전자 장치 및 그 제어 방법
US11695718B2 (en) 2019-12-31 2023-07-04 Snap Inc. Post-capture processing in a messaging system
US11750546B2 (en) 2019-12-31 2023-09-05 Snap Inc. Providing post-capture media overlays for post-capture processing in a messaging system
US11237702B2 (en) 2019-12-31 2022-02-01 Snap Inc. Carousel interface for post-capture processing in a messaging system
US11164353B2 (en) 2019-12-31 2021-11-02 Snap Inc. Layering of post-capture processing in a messaging system
CN111464827A (zh) * 2020-04-20 2020-07-28 玉环智寻信息技术有限公司 一种数据处理方法、装置、计算设备及存储介质
KR20210130583A (ko) * 2020-04-22 2021-11-01 라인플러스 주식회사 인스턴트 메시징 애플리케이션을 통해 콘텐츠를 공유하는 방법 및 시스템
KR20210144443A (ko) * 2020-05-22 2021-11-30 삼성전자주식회사 인공지능 가상 비서 서비스에서의 텍스트 출력 방법 및 이를 지원하는 전자 장치
KR102619836B1 (ko) * 2021-01-04 2023-12-29 주식회사 카카오 말풍선 배치 기법

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001245269A (ja) * 2000-02-25 2001-09-07 Sony Corp コミュニケーション・データ作成装置及び作成方法、コミュニケーション・データ再生装置及び再生方法、並びに、プログラム記憶媒体
US7574016B2 (en) * 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
EP1667031A3 (en) * 2004-12-02 2009-01-14 NEC Corporation HTML-e-mail creation system
JP4218637B2 (ja) * 2004-12-28 2009-02-04 沖電気工業株式会社 情報端末装置
JP2006330958A (ja) 2005-05-25 2006-12-07 Oki Electric Ind Co Ltd 画像合成装置、ならびにその装置を用いた通信端末および画像コミュニケーションシステム、ならびにそのシステムにおけるチャットサーバ
US20070160004A1 (en) 2006-01-10 2007-07-12 Ketul Sakhpara Local Radio Group
JP4775066B2 (ja) * 2006-03-28 2011-09-21 カシオ計算機株式会社 画像加工装置
JP4559459B2 (ja) * 2006-09-12 2010-10-06 三星電子株式会社 モバイルアドホックネットワークで通信するように動作可能なモバイル装置、及びその装置間のデータ交換セッションを確立する方法、及びコンピュータ読取り可能な媒体
US8416981B2 (en) * 2007-07-29 2013-04-09 Google Inc. System and method for displaying contextual supplemental content based on image content
KR100868638B1 (ko) * 2007-08-07 2008-11-12 에스케이 텔레콤주식회사 영상 통화 말풍선 제공 시스템 및 방법
JP2009135720A (ja) * 2007-11-30 2009-06-18 Sanyo Electric Co Ltd 画像合成装置
US20090142001A1 (en) 2007-11-30 2009-06-04 Sanyo Electric Co., Ltd. Image composing apparatus
KR100992174B1 (ko) * 2008-06-13 2010-11-04 (주)티아이스퀘어 음성/문자 인식을 이용한 멀티미디어 콘텐츠 합성 메시지전송 방법 및 장치
KR101678434B1 (ko) * 2010-04-02 2016-12-06 엘지전자 주식회사 이동단말기 및 그 제어방법
JP5353835B2 (ja) * 2010-06-28 2013-11-27 ブラザー工業株式会社 情報処理プログラムおよび情報処理装置
US20130120429A1 (en) * 2011-11-16 2013-05-16 Nickolas S. Sukup Method of representing emotion in a text message
KR101390228B1 (ko) * 2012-10-22 2014-05-07 (주)카카오 채팅 영역에 이미지를 표시하는 디바이스 및 방법, 그리고 채팅 데이터를 관리하는 서버
KR20140094878A (ko) * 2013-01-23 2014-07-31 삼성전자주식회사 사용자 단말 및 사용자 단말에서 사용자 인식을 이용한 영상 처리 방법
KR102071250B1 (ko) * 2013-05-09 2020-01-30 에스케이텔레콤 주식회사 위치 정보를 고려한 사진 데이터 표시 방법 및 이를 위한 장치
KR102130796B1 (ko) * 2013-05-20 2020-07-03 엘지전자 주식회사 이동 단말기 및 이의 제어방법
JP2015028686A (ja) * 2013-07-30 2015-02-12 カシオ計算機株式会社 ソーシャルタイムラインを作成する方法、ソーシャル・ネットワーク・サービスシステム、サーバー、端末並びにプログラム
CN103533241B (zh) * 2013-10-14 2017-05-10 厦门美图网科技有限公司 一种智能滤镜的拍照方法
KR102306538B1 (ko) * 2015-01-20 2021-09-29 삼성전자주식회사 콘텐트 편집 장치 및 방법
JP6152151B2 (ja) * 2015-09-18 2017-06-21 ヤフー株式会社 情報提供装置、情報提供方法及び情報提供プログラム
CN105228013B (zh) * 2015-09-28 2018-09-07 百度在线网络技术(北京)有限公司 弹幕信息处理方法、装置及弹幕视频播放器

Also Published As

Publication number Publication date
JP2019526861A (ja) 2019-09-19
US11025571B2 (en) 2021-06-01
US20190190865A1 (en) 2019-06-20
WO2018038277A1 (ko) 2018-03-01
CN109716712A (zh) 2019-05-03
KR102165271B1 (ko) 2020-10-13
CN115766636A (zh) 2023-03-07
KR20190026927A (ko) 2019-03-13

Similar Documents

Publication Publication Date Title
JP6727413B2 (ja) メッセージ共有方法及びコンピュータプログラム
US10986312B2 (en) Information processing apparatus, information processing method, program, and server
EP2980758B1 (en) Method and device for providing image
US8768693B2 (en) Automatic tag extraction from audio annotated photos
KR101992424B1 (ko) 증강현실용 인공지능 캐릭터의 제작 장치 및 이를 이용한 서비스 시스템
EP3522036B1 (en) Electronic device that provides a user based dictionary using semantic word embedding of user-specific words that are not learned in a neural network-based language model and a control method therefor
CN112740709A (zh) 用于视频分析的门控模型
US11949848B2 (en) Techniques to capture and edit dynamic depth images
CN110521213B (zh) 故事影像制作方法及系统
US10282862B2 (en) Digital image generation and capture hint data
KR102454421B1 (ko) 개인화된 자동 비디오 자르기
US20150031342A1 (en) System and method for adaptive selection of context-based communication responses
US10748000B2 (en) Method, electronic device, and recording medium for notifying of surrounding situation information
KR20230025917A (ko) 여행과 연관된 증강 현실 기반 음성 번역
CN110674485A (zh) 针对数据捕获的动态控制
KR20230028553A (ko) 여행과 연관된 증강 현실 기반 번역들
KR20160016574A (ko) 영상 제공 방법 및 이를 위한 장치
CN108255917B (zh) 图像管理方法、设备及电子设备
JP2020095615A (ja) 生成装置、生成方法および生成プログラム
US10576016B2 (en) Methods and systems for managing photographic capture
CN115836319A (zh) 图像处理方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200508

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200630

R150 Certificate of patent or registration of utility model

Ref document number: 6727413

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250