JP2022552026A - 対話型エモーティコン生成装置および方法 - Google Patents

対話型エモーティコン生成装置および方法 Download PDF

Info

Publication number
JP2022552026A
JP2022552026A JP2021506761A JP2021506761A JP2022552026A JP 2022552026 A JP2022552026 A JP 2022552026A JP 2021506761 A JP2021506761 A JP 2021506761A JP 2021506761 A JP2021506761 A JP 2021506761A JP 2022552026 A JP2022552026 A JP 2022552026A
Authority
JP
Japan
Prior art keywords
emoticon
interactive
input
user text
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021506761A
Other languages
English (en)
Inventor
ソンチャン バク
ヤンウ イ
ヒョンミン シン
ギルサン ユ
ジュヨン ジョン
ユンドン バク
ウォン ソ
ドフン ギム
ジンウ ギム
ミョンユン ソン
ビョンジュ ギム
ドンウク ミン
ミンゼ ギム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bemily inc
Original Assignee
Bemily inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bemily inc filed Critical Bemily inc
Publication of JP2022552026A publication Critical patent/JP2022552026A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • G06F40/109Font handling; Temporal or kinetic typography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/253Grammatical analysis; Style critique
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72436User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for text messaging, e.g. short messaging services [SMS] or e-mails

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)
  • Document Processing Apparatus (AREA)

Abstract

本発明の実施例に係る対話型エモーティコン生成方法は、基本エモーティコンの選択を受ける段階、使用者テキストの入力を受ける段階、前記選択された基本エモーティコンおよび前記入力された使用者テキストに基づいて伝送される対話型エモーティコンのプレビューを表示する段階、前記選択された基本エモーティコンおよび前記入力された使用者テキストによる対話型エモーティコンを合成する段階を含み、前記対話型エモーティコンのプレビューを表示する段階は、入力された使用者テキストの字数に応じてフォントサイズの変更または改行を遂行する段階を含むことができる。【選択図】 図3

Description

本発明は対話型エモーティコン生成装置および方法に関する。より詳細には、モバイル、PCなどに設置されたメッセンジャー上で対話型エモーティコンを伝送、受信する装置および方法に関する。
最近スマートフォンの普及率は全世界的に非常に高い趨勢であり、知合い間のコミュニケーションにおいてSMSよりモバイルメッセンジャーを好んでこれを中心にSNS、モバイルプラットフォームサービスなどが活発に行われている。特に、モバイルメッセンジャーを利用したチャット(対話)で使われるエモーティコンはテキストだけでは伝達し難い感情の表現に効果的に活用され、エモーティコンのキャラクタを活用したIPコンテンツ事業などは付加価値が非常に高い分野である。
一方、エモーティコンは固有のキャラクタ、表情、動作、自国文字を含むなどで、技術的な試みよりは現地化に焦点が合わせられて創作者の領域でサービスされているため、他方でエモーティコンの構成要素のうち自国文字によってエモーティコンのコンテンツがグローバルサービスの拡張に障害要素と指摘されている。
一方、従来技術である特許文献1では加工のエモーティコンを生成する方法を開示しているが、使用者がテキストのフォントの種類、フォントサイズなどをいちいち選択しなければならない不便な点がある。
韓国登録特許第10-2112584号公報
本発明は、言語の種類にかかわらず、多様な国で広く使用できる対話型エモーティコンを生成する装置および方法を提供しようとする。
本発明は、使用者によるテキストの入力だけで合成される対話型エモーティコンを自動で決定する対話型エモーティコンを生成する装置および方法を提供しようとする。
本発明は、対話型エモーティコンを他の装置と送/受信するのに要される時間を最小化する対話型エモーティコンを生成する装置および方法を提供しようとする。
本発明の実施例に係る対話型エモーティコン生成方法は、基本エモーティコンの選択を受ける段階、使用者テキストの入力を受ける段階、前記選択された基本エモーティコンおよび前記入力された使用者テキストに基づいて伝送される対話型エモーティコンのプレビューを表示する段階、前記選択された基本エモーティコンおよび前記入力された使用者テキストによる対話型エモーティコンを合成する段階を含み、前記対話型エモーティコンのプレビューを表示する段階は入力された使用者テキストの字数に応じてフォントサイズの変更または改行を遂行する段階を含むことができる。
フォントサイズの変更または改行を遂行する段階は、前記字数が第1個以上であれば前記フォントサイズを第1サイズに変更し、前記字数が第1個より多い第2個以上であれば前記フォントサイズを第1サイズより小さい第2サイズに変更する段階を含むことができる。
対話型エモーティコンのプレビューを表示する段階は、前記字数に応じて前記選択された基本エモーティコンのサイズを調節する段階を含むことができる。
対話型エモーティコンのプレビューを表示する段階は、前記入力された使用者テキストを前記選択された基本エモーティコンの周辺に配置された吹き出し上に表示する段階を含むことができる。
対話型エモーティコン生成方法は吹き出しスタイルの選択を受ける段階をさらに含み、前記対話型エモーティコンを生成する段階は、前記選択された吹き出しスタイルに応じて前記入力された使用者テキストが表示される吹き出しを変更することができる。
使用者テキストの入力を受ける段階は、入力部を通じて入力される使用者テキストをテキスト入力ウィンドウに表示する段階を含み、前記伝送される対話型エモーティコンのプレビューは前記テキスト入力ウィンドウに表示された使用者テキストを含むことができる。
本発明の一実施例に係る対話型エモーティコン生成装置は、基本エモーティコンの選択を受け、使用者テキストの入力を受ける入力部、前記入力された使用者テキストに基づいて伝送される対話型エモーティコンのプレビューを表示する表示部、前記選択された基本エモーティコンおよび前記入力された使用者テキストによる対話型エモーティコンを生成する制御部;を含み、前記制御部は前記入力された使用者テキストの字数に応じてフォントサイズの変更または改行を遂行できる。
制御部は前記字数が第1個以上であれば前記フォントサイズを第1サイズに変更し、前記字数が第1個より多い第2個以上であれば前記フォントサイズを第1サイズより小さい第2サイズに変更することができる。
制御部は前記字数に応じて前記選択された基本エモーティコンのサイズを調節することができる。
制御部は前記入力された使用者テキストを前記選択された基本エモーティコンの周辺に配置された吹き出し上に表示するように前記表示部を制御することができる。
入力部は吹き出しスタイルの選択をさらに受け、前記制御部は前記選択された吹き出しスタイルに応じて前記入力された使用者テキストが表示される吹き出しを変更することができる。
制御部は前記入力部を通じて入力される使用者テキストをテキスト入力ウィンドウ上に表示されるように前記表示部を制御し、前記伝送される対話型エモーティコンのプレビューは前記テキスト入力ウィンドウに表示された使用者テキストを含むことができる。
対話型エモーティコン生成装置は、基本エモーティコンの種類および前記使用者テキストの字数それぞれにより生成される対話型エモーティコンの情報を保存している保存部をさらに含み、前記制御部は前記生成された対話型エモーティコンを伝送時、前記選択された基本エモーティコンの種類および前記使用者テキストを伝送することができる。
制御部は対話型エモーティコンを受信時、受信された基本エモーティコンの種類および受信された使用者テキストに基づいて対話型エモーティコンを生成および表示することができる。
本発明によると、言語の種類などにかかわらず、多様な国、人々が使用できる対話型エモーティコンの送受信が可能であるため、対話型エモーティコンの普遍化が可能な利点がある。
本発明によると、使用者へのテキストの入力だけで合成される対話型エモーティコンが自動で決定されるため、使用者がフォントの種類、フォントサイズまたはエモーティコンのサイズなどをいちいち選択しなくてもよい便利さを提供可能な利点がある。
本発明によると、他の装置に対話型エモーティコンを伝送する時、イメージ形式で伝送されるのではなくテキスト形式で伝送されるため、対話型エモーティコンの送/受信に要される時間を最小化し、データの節約が可能な利点がある。
図1は、本発明の一実施例に係る対話型エモーティコン生成装置が図示された図面である。 図2は、本発明の一実施例に係る対話型エモーティコン生成装置100、200の構成図である。 図3は、本発明の一実施例に係る対話型エモーティコン生成装置の動作方法が図示されたフローチャートである。 図4は、本発明の一実施例に係る基本エモーティコンを選択する入力を受信する方法を説明するための例示図である。 図5は、本発明の一実施例に係るテキストの入力を受信する方法を説明するための例示図である。 図6は、本発明の一実施例に係る対話型エモーティコン生成装置が使用者テキストに基づいてフォントサイズの変更または改行を自動で遂行する方法が図示された例示図である。 図7は、本発明の一実施例に係る対話型エモーティコン生成装置が吹き出しスタイルを選択する方法が図示された例示図である。 図8は、本発明の一実施例に係る対話型エモーティコン生成装置に係る対話型エモーティコンを合成する方法が図示された例示図である。 図9は、本発明の実施例に係る対話型エモーティコン生成装置が言語にかかわらず、対話型エモーティコンを合成した様子が図示された例示図である。
本発明の利点および特徴、そして、それらを達成する方法は添付される図面と共に詳細に後述されている実施例を参照すると明確になるであろう。しかし、本発明は以下で開示される実施例に限定されるものではなく多様な形態で具現され得、ただし本実施例は本発明の開示を完全なものとし、本発明が属する技術分野で通常の知識を有する者に発明の範疇を完全に知らせるために提供されるものであり、本発明の範疇は請求項によって定義されるのみである。
本発明の実施例の説明において公知の機能または構成に対する具体的な説明は、本発明の実施例の説明において実際に必要な場合以外には省略されるであろう。そして、後述される用語は本発明の実施例での機能を考慮して定義された用語であって、これは使用者、運用者の意図または慣例などにより変わり得る。したがって、その定義は本発明の全般にわたった内容に基づいて下されるべきである。
図面に表示され、以下に説明される機能ブロックは可能な具現例に過ぎないものである。他の具現においては詳細な説明の思想および範囲を逸脱しない範囲で他の機能ブロックが使われ得る。また、本発明の一つ以上の機能ブロックが個別のブロックで表示されるが、本発明の機能ブロックのうち一つ以上は同一機能を実行する多様なハードウェアおよびソフトウェア構成の組み合わせであり得る。
また、ある構成要素を含むという表現は開放型の表現であって、該当構成要素が存在することを単に指称するだけであり、追加的な構成要素を排除するものと理解されてはならない。
さらに、ある構成要素が他の構成要素に連結されているとか接続されていると言及される時には、その他の構成要素に直接的に連結または接続されていてもよいが、中間に他の構成要素が存在してもよいと理解されるべきである。
また「第1、第2」等のような表現は、複数の構成を区分するための用途にのみ使われた表現であって、構成間の順序やその他の特徴を限定しない。
以下では図面を参照して本発明の実施例について説明する。
図1は、本発明の一実施例に係る対話型エモーティコン生成装置が図示された図面である。
図1には第1および第2対話型エモーティコン生成装置100、200のみが図示されているが、これは説明のために例示したものに過ぎず、対話型エモーティコンを送/受信する対話型エモーティコン生成装置の個数は多様であり得る。
図1を参照すると、第1対話型エモーティコン生成装置100および第2対話型エモーティコン生成装置200は、ネットワークを通じて動作可能なように連結されて情報を送受信することができる。例えば、ネットワークはLAN(local area network)、WAN(wide area network)、仮想ネットワーク、遠隔通信などの有/無線通信網ネットワークを含むことができる。
第1対話型エモーティコン生成装置100は第2対話型エモーティコン生成装置200に対話型エモーティコンを伝送し、第2対話型エモーティコン生成装置200は第1対話型エモーティコン生成装置100から対話型エモーティコンを受信することができる。その反対に、第2対話型エモーティコン生成装置200は第1対話型エモーティコン生成装置100から対話型エモーティコンを伝送し、第1対話型エモーティコン生成装置100は第2対話型エモーティコン生成装置200に対話型エモーティコンを受信することができる。
第1対話型エモーティコン生成装置100および第2対話型エモーティコン生成装置200は、ネットワークを通じて情報を送受信できる多様な形態の装置で具現され得る。例えば、携帯用通信装置(例:スマートフォン)、コンピュータ装置、携帯用マルチメディア装置、ノートパソコン、タブレットPCなどを含むことができる。
図2は、本発明の一実施例に係る対話型エモーティコン生成装置100、200の構成図である。
対話型エモーティコン生成装置は制御部11、入力部13、ディスプレイ部15、通信部17および保存部19のうち少なくとも一部または全部を含むことができる。
制御部11は対話型エモーティコン生成装置の全般的な動作を制御することができる。制御部11は入力部13、ディスプレイ部15、通信部17および保存部19それぞれを制御することができる。
入力部13は所定の物理キー、またはタッチキーのうち少なくとも一つで具現され得る。
制御部11はテキスト入力、エモーティコン選択入力などを入力部13を通じて受信することができる。
ディスプレイ部15は入力されたテキスト、選択された基本エモーティコンにより対話型エモーティコンを合成して表示することができる。
通信部17は他の対話型エモーティコン生成装置と有/無線通信をするための通信モジュールを含むことができる。
制御部11は通信部17を通じてテキスト情報、基本エモーティコン情報のうち少なくとも一つを他の対話型エモーティコン生成装置に伝送することができる。その反対に、制御部11は通信部17を通じて対話型エモーティコンの合成のためのテキスト情報、基本エモーティコン情報のうち少なくとも一つを受信し、受信されたテキスト情報および基本エモーティコン情報を利用して対話型エモーティコンを合成して表示することができる。
対話型エモーティコン生成装置は、一般的に携帯性と移動性が保障されるスマートフォン(smartphone)、スマートパッド(smartpad)、タブレットPC(tablet PC)などのようなハンドヘルド(handheld)基盤の汎用無線通信装置にアプリケーションソフトウェア(application software)が設置された形態で具現され得る。または対話型エモーティコン生成装置はウェブサイトに接続できるコンピュータを通じて具現され得るが、これに限定されるものではない。
保存部19は合成される対話型エモーティコンの規格化に必要な情報を保存していてもよい。
具体的には、保存部19は基本エモーティコンの種類および使用者テキストの字数それぞれにより合成される対話型エモーティコンの情報を保存していてもよい。
一例として、制御部11は保存部19に保存された情報に基づいて、基本エモーティコンがAであり、使用者テキストの字数が10字であれば、フォントサイズが15である対話型エモーティコンを合成し、基本エモーティコンがAであり、使用者テキストの字数が20字であれば、フォントサイズが10である対話型エモーティコンを合成することができる。
一方、前述した実施例が含む制御部11、入力部13、ディスプレイ部15、通信部17および保存部19は、これらの機能を遂行するようにプログラムされた命令語を含むメモリ、およびこれら命令語を遂行するマイクロプロセッサを含む演算装置によって具現され得る。
図3は、本発明の一実施例に係る対話型エモーティコン生成装置の動作方法が図示されたフローチャートである。
制御部11は入力部13を通じて基本エモーティコンを選択する入力を受信することができる(S10)。
基本エモーティコンとは、対話型エモーティコンに合成されるエモーティコンを意味し得る。
図4は、本発明の一実施例に係る基本エモーティコンを選択する入力を受信する方法を説明するための例示図である。
図4に図示された通り、ディスプレイ部15はメッセンジャー上100に基本エモーティコンの種類110を表示することができる。基本エモーティコンの種類110は少なくとも一つ以上であり得る。制御部11は基本エモーティコンの種類110のうちいずれか一つを選択することによって基本エモーティコンを選択する入力を受信することができる。ディスプレイ部15は選択された基本エモーティコン111をメッセンジャー上100に表示することができる。
再び、図3を説明する。
制御部11は入力部13を通じてテキストの入力を受信することができる(S20)。
テキスト入力は使用者が対話型エモーティコンに含まれるように入力した使用者テキストであり得る。
例えば、制御部11は入力された使用者テキスト121を選択された基本エモーティコン111の周辺に配置された吹き出し上に表示することができる。
図5は、本発明の一実施例に係るテキストの入力を受信する方法を説明するための例示図である。
入力部13はメッセンジャー100のテキスト入力ウィンドウ120を通じてテキストの入力を受信することができる。テキスト入力ウィンドウ120には入力部13を通じて入力される使用者テキストが表示され得る。
ディスプレイ部15はテキスト入力ウィンドウ120を通じて入力された使用者テキスト121を選択された基本エモーティコン111と共に表示することができる。これに伴い、伝送される対話型エモーティコンのプレビューはテキスト入力ウィンドウ120に表示された使用者テキストを含むことができる。したがって、メッセンジャー100上のテキスト入力ウィンドウ120を通じて使用者はテキストを入力し、入力された使用者テキストは対話型エモーティコンのプレビューに表示され得る。すなわち、使用者は対話型エモーティコンのプレビューを通じてテキストを入力しないため、使用者がテキストの位置、サイズなどをいちいち設定しなくてもすむ便利な利点がある。
一方、この場合、使用者テキスト121のフォントサイズの変更、フォントの種類の変更および改行などは自動で遂行され得る。
そして、段階S10と段階S20の順序は変更され得る。
すなわち、制御部11は順序にかかわらず、基本エモーティコンおよび使用者テキストの入力を受け、基本エモーティコンおよび使用者テキストが入力されると伝送される対話型エモーティコンのプレビューを表示し、このとき使用者テキストの字数に応じてフォントサイズの変更、フォントの種類の変更および改行などは自動で遂行することができる。
次に、図6は、本発明の一実施例に係る対話型エモーティコン生成装置が使用者テキストに基づいてフォントサイズの変更または改行を自動で遂行する方法が図示された例示図である。
図6の例示に図示された通り、制御部11はテキスト入力ウィンドウ120を通じて入力されるテキストの字数が増加するほど使用者テキスト121のフォントサイズが小さくなるようにフォントサイズの変更を遂行できる。例えば、制御部11は字数が第1個以上であればフォントサイズを第1サイズに変更し、字数が第1個より多い第2個以上であればフォントサイズを第1サイズより小さい第2サイズに変更することができる。
また、制御部11はテキスト入力ウィンドウ120を通じて入力されるテキストの字数が既設定された字数を超過するたびに使用者テキスト121の改行を遂行できる。
一方、実施例により、制御部11は選択された基本エモーティコンのサイズを調節することができる。例えば、制御部11は使用者テキストの字数が既設定された最大字数を超過する場合には、基本エモーティコンのサイズを小さくすることによって対話型エモーティコンのプレビューを表示することができる。これを通じて、使用者テキストのフォントサイズが過度に小さいため対話型エモーティコンを受信した使用者が使用者テキストを認識できない場合を最小化することができる。
再び、図3を説明する。
制御部11は入力部13を通じて吹き出しスタイルを選択する入力を受信することができる(S30)。
図7は、本発明の一実施例に係る対話型エモーティコン生成装置が吹き出しスタイルを選択する方法が図示された例示図である。
図7に図示された通り、ディスプレイ部15は吹き出しスタイルの種類122を表示することができる。制御部11は複数の吹き出しスタイルの種類122a、122b、122cのうちいずれか一つを選択する入力を受信することによって、吹き出しスタイルを選択する入力を受信することができる。
制御部11は選択された吹き出しスタイルに応じて入力された使用者テキストが表示される吹き出しを変更して対話型エモーティコンのプレビューを表示することができる。
再び、図3を説明する。
制御部11は対話型エモーティコンを合成することができる(S40)。
制御部11は選択された基本エモーティコンおよび入力された使用者テキストによる対話型エモーティコンを合成することができる。具体的には、制御部11は保存部19に保存された情報に基づいて選択された基本エモーティコンおよび使用者テキストによりエモーティコンの位置およびサイズ、使用者テキストの位置およびサイズなどを算出することができる。
制御部11は対話型エモーティコンの合成に必要な情報を他の対話型エモーティコン生成装置に伝送することができる(S50)。
図8は、本発明の一実施例に係る対話型エモーティコン生成装置に係る対話型エモーティコンを合成する方法が図示された例示図である。
制御部11は選択された基本エモーティコン132と使用者テキスト131を合成することによって対話型エモーティコン130を表示することができる。
一方、制御部11は対話型エモーティコンを伝送する時、対話型エモーティコンのイメージを伝送するのではなく、選択された基本エモーティコンの種類および使用者テキストを伝送することができる。
これに伴い、対話型エモーティコンを受信する対話型エモーティコン生成装置は、対話型エモーティコンを受信時に対話型エモーティコンをイメージ形式で受信せず、基本エモーティコンの種類および使用者テキストを受信し、受信されたエモーティコンの種類および受信された使用者テキストに基づいて対話型エモーティコンを生成および表示することができる。
このように、本発明の一実施例によると、エモーティコンに合成されるテキストが使用者によって入力されるため、言語の種類などにかかわらず、多様な国、人々が使用できる対話型エモーティコンの送受信が可能であるため、対話型エモーティコンの普遍化が可能な利点がある。
図9は、本発明の実施例に係る対話型エモーティコン生成装置が言語にかかわらず、対話型エモーティコンを合成した様子が図示された例示図である。
また、本発明の一実施例によると、使用者によって入力されたテキストのみで合成される対話型エモーティコンが自動で決定されるため、使用者がフォントの種類、フォントサイズまたはエモーティコンのサイズなどをいちいち選択しなくてもよい便利さを提供可能な利点がある。
また、本発明の一実施例によると、対話型エモーティコンを伝送する時に対話型エモーティコンの合成に必要な情報を伝送するため、イメージ形式の対話型エモーティコンを伝送する時よりエモーティコンの送/受信に要される時間を最小化し、データの節約が可能な利点がある。
前述した本発明の実施例は多様な手段を通じて具現され得る。例えば、本発明の実施例はハードウェア、ファームウェア(firmware)、ソフトウェアまたはそれらの結合などによって具現され得る。
ハードウェアによる具現の場合、本発明の実施例に係る方法は一つまたはそれ以上のASICs(Application Specific Integrated Circuits)、DSPs(Digital Signal Processors)、DSPDs(Digital Signal Processing Devices)、PLDs(Programmable Logic Devices)、FPGAs(Field Programmable Gate Arrays)、プロセッサ、コントローラ、マイクロコントローラ、マイクロプロセッサなどによって具現され得る。
ファームウェアやソフトウェアによる具現の場合、本発明の実施例に係る方法は以上で説明された機能または動作を遂行するモジュール、手続きまたは関数などの形態で具現され得る。ソフトウェアコードなどが記録されたコンピュータプログラムは、コンピュータ読み取り可能記録媒体またはメモリユニットに保存されてプロセッサによって駆動され得る。メモリユニットはプロセッサ内部または外部に位置して、すでに公知になっている多様な手段によってプロセッサとデータをやり取りすることができる。
また、本発明に添付されたブロック図の各ブロックとフローチャートの各段階の組み合わせは、コンピュータプログラムインストラクションによって遂行されてもよい。これらコンピュータプログラムインストラクションは汎用コンピュータ、特殊用コンピュータまたはその他のプログラム可能なデータプロセッシング装備のエンコーディングプロセッサに搭載され得るため、コンピュータまたはその他のプログラム可能なデータプロセッシング装備のエンコーディングプロセッサを通じて遂行されるそのインストラクションが、ブロック図の各ブロックまたはフローチャートの各段階で説明された機能を遂行する手段を生成することになる。これらコンピュータプログラムインストラクションは特定の方法で機能を具現するために、コンピュータまたはその他のプログラム可能なデータプロセッシング装備を指向できるコンピュータ利用可能またはコンピュータ読み取り可能メモリに保存されることも可能であるため、そのコンピュータ利用可能またはコンピュータ読み取り可能メモリに保存されたインストラクションは、ブロック図の各ブロックまたはフローチャートの各段階で説明された機能を遂行するインストラクション手段を内包する製造品目を生産することも可能である。コンピュータプログラムインストラクションはコンピュータまたはその他のプログラム可能なデータプロセッシング装備上に搭載されることも可能であるため、コンピュータまたはその他のプログラム可能なデータプロセッシング装備上で一連の動作段階が遂行されてコンピュータで実行されるプロセスを生成して、コンピュータまたはその他のプログラム可能なデータプロセッシング装備を遂行するインストラクションはブロック図の各ブロックおよびフローチャートの各段階で説明された機能を実行するための段階を提供することも可能である。
併せて、各ブロックまたは各段階は、特定された論理的機能を実行するための一つ以上の実行可能なインストラクションを含むモジュール、セグメントまたはコードの一部を示すことができる。また、いくつかの代替実施例では、ブロックまたは段階で言及された機能が順序を外れて発生することも可能であることに注目されたい。例えば、相次いで図示されている二つのブロックまたは段階は、実質的に同時に遂行されることも可能であり、またはそのブロックまたは段階が時々該当する機能にしたがって逆順で遂行されることも可能である。
このように、本発明が属する技術分野の当業者は本発明がその技術的思想や必須の特徴を変更することなく他の具体的な形態で実施され得ることが理解できるであろう。したがって、以上で記述した実施例はすべての面で例示的なものであり限定的ではないものとして理解されるべきである。本発明の範囲は詳細な説明よりは後述する特許請求の範囲によって示され、特許請求の範囲の意味および範囲そして、その等価概念から導き出されるすべての変更または変形された形態も本発明の範囲に含まれるものと解釈されるべきである。

Claims (15)

  1. 対話型エモーティコン生成装置の対話型エモーティコン生成方法において、
    基本エモーティコンの選択を受ける段階;
    使用者テキストの入力を受ける段階;
    前記選択された基本エモーティコンおよび前記入力された使用者テキストに基づいて伝送される対話型エモーティコンのプレビューを表示する段階;
    前記選択された基本エモーティコンおよび前記入力された使用者テキストによる対話型エモーティコンを合成する段階を含み、
    前記対話型エモーティコンのプレビューを表示する段階は、
    入力された使用者テキストの字数に応じてフォントサイズの変更または改行を遂行する段階を含む、対話型エモーティコン生成方法。
  2. 前記フォントサイズの変更または改行を遂行する段階は、
    前記字数が第1個以上であれば前記フォントサイズを第1サイズに変更し、前記字数が第1個より多い第2個以上であれば前記フォントサイズを第1サイズより小さい第2サイズに変更する段階を含む、請求項1に記載の対話型エモーティコン生成方法。
  3. 前記対話型エモーティコンのプレビューを表示する段階は、
    前記字数に応じて前記選択された基本エモーティコンのサイズを調節する段階を含む、請求項1に記載の対話型エモーティコン生成方法。
  4. 前記対話型エモーティコンのプレビューを表示する段階は、
    前記入力された使用者テキストを前記選択された基本エモーティコンの周辺に配置された吹き出し上に表示する段階を含む、請求項1に記載の対話型エモーティコン生成方法。
  5. 吹き出しスタイルの選択を受ける段階をさらに含み、
    前記対話型エモーティコンを生成する段階は、
    前記選択された吹き出しスタイルに応じて前記入力された使用者テキストが表示される吹き出しを変更する、請求項4に記載の対話型エモーティコン生成方法。
  6. 前記使用者テキストの入力を受ける段階は、
    入力部を通じて入力される使用者テキストをテキスト入力ウィンドウに表示する段階を含み、
    前記伝送される対話型エモーティコンのプレビューは前記テキスト入力ウィンドウに表示された使用者テキストを含む、請求項1に記載の対話型エモーティコン生成方法。
  7. 対話型エモーティコン生成装置において、
    基本エモーティコンの選択を受け、使用者テキストの入力を受ける入力部;
    前記入力された使用者テキストに基づいて伝送される対話型エモーティコンのプレビューを表示する表示部;
    前記選択された基本エモーティコンおよび前記入力された使用者テキストによる対話型エモーティコンを生成する制御部;を含み、
    前記制御部は
    前記入力された使用者テキストの字数に応じてフォントサイズの変更または改行を遂行する、対話型エモーティコン生成装置。
  8. 前記制御部は
    前記字数が第1個以上であれば前記フォントサイズを第1サイズに変更し、前記字数が第1個より多い第2個以上であれば前記フォントサイズを第1サイズより小さい第2サイズに変更する、請求項7に記載の対話型エモーティコン生成装置。
  9. 前記制御部は
    前記字数に応じて前記選択された基本エモーティコンのサイズを調節する、請求項7に記載の対話型エモーティコン生成装置。
  10. 前記制御部は
    前記入力された使用者テキストを前記選択された基本エモーティコンの周辺に配置された吹き出し上に表示するように前記表示部を制御する、請求項7に記載の対話型エモーティコン生成装置。
  11. 前記入力部は吹き出しスタイルの選択をさらに受け、
    前記制御部は
    前記選択された吹き出しスタイルに応じて前記入力された使用者テキストが表示される吹き出しを変更する、請求項10に記載の対話型エモーティコン生成装置。
  12. 前記制御部は
    前記入力部を通じて入力される使用者テキストをテキスト入力ウィンドウ上に表示されるように前記表示部を制御し、
    前記伝送される対話型エモーティコンのプレビューは前記テキスト入力ウィンドウに表示された使用者テキストを含む、請求項7に記載の対話型エモーティコン生成装置。
  13. 前記基本エモーティコンの種類および前記使用者テキストの字数それぞれにより生成される対話型エモーティコンの情報を保存している保存部をさらに含み、
    前記制御部は
    前記生成された対話型エモーティコンを伝送時、前記選択された基本エモーティコンの種類および前記使用者テキストを伝送する、請求項7に記載の対話型エモーティコン生成装置。
  14. 前記制御部は
    対話型エモーティコンを受信時、受信された基本エモーティコンの種類および受信された使用者テキストに基づいて対話型エモーティコンを生成および表示する、請求項12に記載の対話型エモーティコン生成装置。
  15. 請求項1~請求項6のいずれか一項に記載された対話型エモーティコン生成方法を実行させる記録媒体に保存された、コンピュータプログラム。
JP2021506761A 2020-09-17 2020-12-17 対話型エモーティコン生成装置および方法 Pending JP2022552026A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2020-0120045 2020-09-17
KR1020200120045A KR102482689B1 (ko) 2020-09-17 2020-09-17 대화형 이모티콘 생성 장치 및 방법
PCT/KR2020/018568 WO2022059863A1 (ko) 2020-09-17 2020-12-17 대화형 이모티콘 생성 장치 및 방법

Publications (1)

Publication Number Publication Date
JP2022552026A true JP2022552026A (ja) 2022-12-15

Family

ID=80626586

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021506761A Pending JP2022552026A (ja) 2020-09-17 2020-12-17 対話型エモーティコン生成装置および方法

Country Status (5)

Country Link
US (1) US20220083206A1 (ja)
JP (1) JP2022552026A (ja)
KR (1) KR102482689B1 (ja)
CN (1) CN114641776A (ja)
WO (1) WO2022059863A1 (ja)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012133660A (ja) * 2010-12-22 2012-07-12 Fujifilm Corp 電子コミックのビューワ装置、電子コミックの閲覧システム、ビューワプログラム、該ビューワプログラムが記録された記録媒体ならびに電子コミックの表示方法
US20130104165A1 (en) * 2011-10-25 2013-04-25 Electronics And Telecommunications Research Institute Method and apparatus for receiving augmented broadcasting content, method and apparatus for providing augmented content, and system for providing augmented content
US20160298122A1 (en) * 2010-01-25 2016-10-13 Alnylam Pharmaceuticals, Inc. Compositions and methods for inhibiting expression of mylip/idol gene
KR20160132955A (ko) * 2014-07-02 2016-11-21 후아웨이 테크놀러지 컴퍼니 리미티드 정보 전송 방법 및 전송 장치
KR101852901B1 (ko) * 2015-08-28 2018-04-27 스타십벤딩머신 주식회사 이미지 텍스트 삽입 장치 및 삽입 방법
US20180189251A1 (en) * 2015-07-14 2018-07-05 Wedu Communications Co., Ltd. Automatic multi-lingual editing method for cartoon content
US20180331993A1 (en) * 2016-05-19 2018-11-15 Tencent Technology (Shenzhen) Company Limited Emoticon sending method, computer device and computer-readable storage medium
KR20190131355A (ko) * 2018-05-16 2019-11-26 김진욱 대화용 애플리케이션의 운영 방법
KR102112584B1 (ko) * 2019-09-09 2020-05-19 김영재 맞춤형 이모티콘 생성 방법 및 장치
JP2021152861A (ja) * 2020-03-23 2021-09-30 株式会社リコー 入力装置、入力方法、及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10360716B1 (en) * 2015-09-18 2019-07-23 Amazon Technologies, Inc. Enhanced avatar animation
US20180300542A1 (en) * 2017-04-18 2018-10-18 Nuance Communications, Inc. Drawing emojis for insertion into electronic text-based messages

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160298122A1 (en) * 2010-01-25 2016-10-13 Alnylam Pharmaceuticals, Inc. Compositions and methods for inhibiting expression of mylip/idol gene
JP2012133660A (ja) * 2010-12-22 2012-07-12 Fujifilm Corp 電子コミックのビューワ装置、電子コミックの閲覧システム、ビューワプログラム、該ビューワプログラムが記録された記録媒体ならびに電子コミックの表示方法
US20130104165A1 (en) * 2011-10-25 2013-04-25 Electronics And Telecommunications Research Institute Method and apparatus for receiving augmented broadcasting content, method and apparatus for providing augmented content, and system for providing augmented content
KR20160132955A (ko) * 2014-07-02 2016-11-21 후아웨이 테크놀러지 컴퍼니 리미티드 정보 전송 방법 및 전송 장치
JP2017522626A (ja) * 2014-07-02 2017-08-10 ホアウェイ・テクノロジーズ・カンパニー・リミテッド 情報送信方法及び送信装置
US20180189251A1 (en) * 2015-07-14 2018-07-05 Wedu Communications Co., Ltd. Automatic multi-lingual editing method for cartoon content
KR101852901B1 (ko) * 2015-08-28 2018-04-27 스타십벤딩머신 주식회사 이미지 텍스트 삽입 장치 및 삽입 방법
US20180331993A1 (en) * 2016-05-19 2018-11-15 Tencent Technology (Shenzhen) Company Limited Emoticon sending method, computer device and computer-readable storage medium
KR20190131355A (ko) * 2018-05-16 2019-11-26 김진욱 대화용 애플리케이션의 운영 방법
KR102112584B1 (ko) * 2019-09-09 2020-05-19 김영재 맞춤형 이모티콘 생성 방법 및 장치
JP2021152861A (ja) * 2020-03-23 2021-09-30 株式会社リコー 入力装置、入力方法、及びプログラム

Also Published As

Publication number Publication date
WO2022059863A1 (ko) 2022-03-24
CN114641776A (zh) 2022-06-17
KR20220037285A (ko) 2022-03-24
KR102482689B1 (ko) 2022-12-29
US20220083206A1 (en) 2022-03-17

Similar Documents

Publication Publication Date Title
AU2022235634B2 (en) Sharing user-configurable graphical constructs
CN107533360B (zh) 一种显示、处理的方法及相关装置
CN110720087B (zh) 用于注释内容的设备、方法和图形用户界面
JP2007299394A (ja) 移動端末機のテキスト表示方法及び移動端末機
WO2016144977A1 (en) Sharing user-configurable graphical constructs
KR20170026274A (ko) 콘텐츠 편집 장치 및 편집 방법
KR20170014589A (ko) 번역 서비스를 제공하는 사용자 단말 장치 및 그 제어 방법
US20140317549A1 (en) Method for Controlling Touchscreen by Using Virtual Trackball
WO2024104079A1 (zh) 桌面组件生成方法、装置、电子设备和可读存储介质
JP2022552026A (ja) 対話型エモーティコン生成装置および方法
KR20190063853A (ko) 입력 필드의 이동 방법 및 장치
US20170177560A1 (en) Automatic Text Language Selection Mechanism
JP6517445B2 (ja) 情報処理装置、情報処理方法、プログラム、記憶媒体
JP6259225B2 (ja) 電子機器およびこれに接続された携帯端末のジェスチャ認識操作方法、車載システム
CN111399722A (zh) 邮件签名的生成方法、装置、终端及存储介质
KR20210081935A (ko) 제스처를 이용하여 대화 메시지에 감정을 표현하는 방법, 시스템, 및 컴퓨터 프로그램
KR101075420B1 (ko) 테이블탑 인터페이스 장치, 협업 제어 장치, 테이블탑인터페이스 기반 협업 시스템 및 그 방법
JP2015184455A (ja) 表示端末装置、プログラム、及び、サーバ装置
CN113589958A (zh) 文本输入方法、装置、设备及存储介质
CN117454841A (zh) 演示文档的演示控制方法、装置、电子设备及存储介质
JP2019012372A (ja) プログラム、表示方法および情報処理端末
KR20150108169A (ko) 전자 메일의 인라인 답변 입력 방법 및 장치
KR20140050987A (ko) 이동 단말기

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221220

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230711