JP2021103520A - ジェスチャーを利用して対話メッセージに感情を表現する方法、システム、およびコンピュータプログラム - Google Patents

ジェスチャーを利用して対話メッセージに感情を表現する方法、システム、およびコンピュータプログラム Download PDF

Info

Publication number
JP2021103520A
JP2021103520A JP2020213567A JP2020213567A JP2021103520A JP 2021103520 A JP2021103520 A JP 2021103520A JP 2020213567 A JP2020213567 A JP 2020213567A JP 2020213567 A JP2020213567 A JP 2020213567A JP 2021103520 A JP2021103520 A JP 2021103520A
Authority
JP
Japan
Prior art keywords
message
gesture
animation
processor
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020213567A
Other languages
English (en)
Inventor
セヒョン コ
Se Hyun Ko
セヒョン コ
ソヨン ハン
Soyeon Han
ソヨン ハン
コンホン イ
Keon Hong Lee
コンホン イ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Line Plus Corp
Original Assignee
Line Plus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Line Plus Corp filed Critical Line Plus Corp
Publication of JP2021103520A publication Critical patent/JP2021103520A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/50Business processes related to the communications industry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)
  • Operations Research (AREA)
  • Telephone Function (AREA)

Abstract

【課題】 ジェスチャーを利用して対話メッセージに感情を表現する方法、システム、およびコンピュータプログラムを提供する。【解決手段】 メッセージ表現方法は、チャットルームで発信しようとするメッセージの入力を受ける段階、前記メッセージに対するジェスチャーを認識してアニメーション情報に変換する段階、前記メッセージと前記アニメーション情報をともに、サーバを介して前記チャットルームに含まれる他のユーザの電子機器に送信する段階、および前記メッセージを前記チャットルームの発信メッセージとして表示するが、前記アニメーション情報によるアニメーション効果を前記メッセージに適用させて表示する段階を含む。【選択図】図4

Description

以下の説明は、対話メッセージでユーザの感情を表現する技術に関する。
一般的なコミュニケーションツールであるインスタントメッセンジャー(instant messenger)は、メッセージやデータをリアルタイムで送受信することのできるソフトウェアであって、ユーザがメッセンジャー上に対話の相手を登録すると、対話リストに登録された相手とリアルタイムでメッセージをやり取りすることができる。
このようなメッセンジャー機能は、PCはもちろん、移動通信端末のモバイル環境でもその使用が広く普及している。
例えば、特許文献1(公開日2002年9月30日)には、携帯端末機にインストールされたモバイルメッセンジャー間でメッセンジャーサービスを提供することができる、無線通信網を利用した携帯端末機のモバイルメッセンジャーサービスシステムおよび方法が開示されている。
インスタントメッセンジャーの利用の大衆化に伴ってインスタントメッセンジャーが提供する機能はますます多様化しており、写真、動画、ファイル、連絡先、位置、スケジュール、お知らせ、投票などのような各種情報やコンテンツを共有する機能はもちろん、ゲームサービスや動画サービスなどのような他のサービスとの連動も支援するようになった。
韓国公開特許第10−2002−0074304号公報
ジェスチャーと感情表現を一致させ、ジェスチャーを利用してユーザの感情を対話メッセージで表現することができる。
入力中の対話メッセージに対するジェスチャーを認識し、ジェスチャーに対応するアニメーション効果を該当のメッセージに適用させることができる。
コンピュータ装置が実行するメッセージ表現方法であって、前記コンピュータ装置は、メモリに含まれるコンピュータ読み取り可能な命令を実行するように構成された少なくとも1つのプロセッサを含み、前記メッセージ表現方法は、前記少なくとも1つのプロセッサにより、チャットルームで発信しようとするメッセージの入力を受ける段階、前記少なくとも1つのプロセッサにより、前記メッセージに対するジェスチャーを認識してアニメーション情報に変換する段階、前記少なくとも1つのプロセッサにより、前記メッセージと前記アニメーション情報をともに、サーバを介して前記チャットルームに含まれる他のユーザの電子機器に送信する段階、および前記少なくとも1つのプロセッサにより、前記メッセージを前記チャットルームの発信メッセージとして表示するが、前記アニメーション情報によるアニメーション効果を前記メッセージに適用させて表示する段階を含む、メッセージ表現方法を提供する。
一側面によると、前記変換する段階は、前記ジェスチャーによるタッチ入力を時間順に格納することにより、カスタムアニメーション情報に変換する段階を含んでよい。
他の側面によると、前記変換する段階は、前記ジェスチャーに対して事前に定義されたアニメーションが存在する場合には、前記事前に定義されたアニメーションのタイプ情報に変換する段階、および前記ジェスチャーに対して前記事前に定義されたアニメーションが存在しない場合には、前記ジェスチャーによるタッチ入力を時間順に格納することにより、カスタムアニメーション情報に変換する段階を含んでよい。
また他の側面によると、前記カスタムアニメーション情報に変換する段階は、一定の時間間隔のタッチ座標を時間順に格納したタッチ座標シーケンスから構成されるカスタムアニメーションデータを生成してよい。
また他の側面によると、前記カスタムアニメーション情報に変換する段階は、一定の時間間隔のタッチ類型を時間順に格納したタッチ類型シーケンスから構成されるカスタムアニメーションデータを生成してよい。
また他の側面によると、前記メッセージ表現方法は、前記少なくとも1つのプロセッサにより、前記チャットルームでキーボードがアクティブ化される場合、前記ジェスチャーを認識するためのジェスチャー認識領域を設定する段階をさらに含んでよい。
また他の側面によると、前記メッセージ表現方法は、前記少なくとも1つのプロセッサにより、前記チャットルームで前記メッセージに対するプレビューが実行される場合、前記ジェスチャーを認識するためのジェスチャー認識領域を設定する段階をさらに含んでよい。
また他の側面によると、前記アニメーション情報は、前記サーバでデータ最適化が実行された後に、前記他のユーザの電子機器に送信されてよい。
また他の側面によると、前記アニメーション情報は、前記サーバで類似のアニメーション情報と交換され、前記他のユーザの電子機器に送信されてよい。
さらに他の側面によると、前記メッセージは、前記サーバで前記アニメーション情報を利用してアニメーションファイルのメッセージタイプに変換された後に、前記他のユーザの電子機器に送信されてよい。
前記メッセージ表現方法を前記コンピュータシステムに実行させるために非一時的なコンピュータ読み取り可能な記録媒体に記録される、コンピュータプログラムを提供する。
コンピュータ装置であって、メモリに含まれるコンピュータ読み取り可能な命令を実行するように実現される少なくとも1つのプロセッサを含み、前記少なくとも1つのプロセッサは、チャットルームで発信しようとするメッセージの入力を受けるメッセージ入力部、前記メッセージに対するジェスチャーを認識してアニメーション情報に変換するジェスチャー変換部、前記メッセージと前記アニメーション情報をともに、サーバを介して前記チャットルームに含まれる他のユーザの電子機器に送信するメッセージ送信部、および前記メッセージを前記チャットルームの発信メッセージとして表示するが、前記アニメーション情報によるアニメーション効果を前記メッセージに適用させて表示するメッセージ表示部を含む、コンピュータ装置を提供する。
本発明の一実施形態における、ネットワーク環境の例を示した図である。 本発明の一実施形態における、電子機器およびサーバの内部構成を説明するためのブロック図である。 本発明の一実施形態における、電子機器のプロセッサが含むことのできる構成要素の例を示した図である。 本発明の一実施形態における、電子機器が実行することのできる方法の例を示したフローチャートである。 本発明の一実施形態における、各ジェスチャーに事前に定義されたアニメーションタイプの例を示した図である。 本発明の一実施形態における、チャットルームでジェスチャーを認識するための領域を設定する過程を説明するための例示図である。 本発明の一実施形態における、対話メッセージとして入力されたスタンプにジェスチャーを利用してユーザの感情を示す過程を説明するためのユーザインタフェース画面の例を示した図である。 本発明の一実施形態における、対話メッセージとして入力されたスタンプにジェスチャーを利用してユーザの感情を示す過程を説明するためのユーザインタフェース画面の例を示した図である。 本発明の一実施形態における、対話メッセージとして入力されたテキストにジェスチャーを利用してユーザの感情を示す過程を説明するためのユーザインタフェース画面の例を示した図である。 本発明の一実施形態における、対話メッセージとして入力されたテキストにジェスチャーを利用してユーザの感情を示す過程を説明するためのユーザインタフェース画面の例を示した図である。
以下、本発明の実施形態について、添付の図面を参照しながら詳しく説明する。
本発明の実施形態は、対話メッセージに、該当のメッセージを送信したユーザの感情を表現する技術に関する。
本明細書で具体的に開示される事項を含む実施形態は、ジェスチャーと感情表現を一致させ、ジェスチャーを利用してユーザの感情を対話メッセージに積極的に表現することができる。
図1は、本発明の一実施形態における、ネットワーク環境の例を示した図である。図1のネットワーク環境は、複数の電子機器110、120、130、140、複数のサーバ150、160、およびネットワーク170を含む例を示している。このような図1は、発明の説明のための一例に過ぎず、電子機器の数やサーバの数が図1のように限定されることはない。
複数の電子機器110、120、130、140は、コンピュータ装置によって実現される固定端末や移動端末であってよい。複数の電子機器110、120、130、140の例としては、スマートフォン、携帯電話、ナビゲーション、PC(personal computer)、ノート型PC、デジタル放送用端末、PDA(Personal Digital Assistant)、PMP(Portable Multimedia Player)、タブレット、ゲームコンソール、ウェアラブルデバイス、IoT(internet of things)デバイス、VR(virtual reality)デバイス、AR(augmented reality)デバイスなどがある。一例として、図1では、電子機器110の例としてスマートフォンを示しているが、本発明の実施形態において、電子機器110は、実質的に無線または有線通信方式を利用し、ネットワーク170を介して他の電子機器120、130、140および/またはサーバ150、160と通信することのできる多様な物理的なコンピュータ装置のうちの1つを意味してよい。
通信方式が限定されることはなく、ネットワーク170が含むことのできる通信網(一例として、移動通信網、有線インターネット、無線インターネット、放送網、衛星網など)を利用する通信方式だけではなく、機器間の近距離無線通信が含まれてもよい。例えば、ネットワーク170は、PAN(personal area network)、LAN(local area network)、CAN(campus area network)、MAN(metropolitan area network)、WAN(wide area network)、BBN(broadband network)、インターネットなどのネットワークのうちの1つ以上の任意のネットワークを含んでよい。さらに、ネットワーク170は、バスネットワーク、スターネットワーク、リングネットワーク、メッシュネットワーク、スター−バスネットワーク、ツリーまたは階層的ネットワークなどを含むネットワークトポロジのうちの任意の1つ以上を含んでもよいが、これらに限定されることはない。
サーバ150、160のそれぞれは、複数の電子機器110、120、130、140とネットワーク170を介して通信して命令、コード、ファイル、コンテンツ、サービスなどを提供する1つ以上のコンピュータ装置によって実現されてよい。例えば、サーバ150は、ネットワーク170を介して接続した複数の電子機器110、120、130、140に第1サービスを提供するシステムであってよく、サーバ160も、ネットワーク170を介して接続した複数の電子機器110、120、130、140に第2サービスを提供するシステムであってよい。より具体的な例として、サーバ150は、複数の電子機器110、120、130、140においてインストールされて実行されるコンピュータプログラムであるアプリケーションを通じて、該当のアプリケーションが目的とするサービス(一例として、メッセンジャーサービスなど)を第1サービスとして複数の電子機器110、120、130、140に提供してよい。他の例として、サーバ160は、上述したアプリケーションのインストールおよび実行のためのファイルを複数の電子機器110、120、130、140に配布するサービスを第2サービスとして提供してよい。
図2は、本発明の一実施形態における、電子機器およびサーバの内部構成を説明するためのブロック図である。図2では、電子機器に対する例として電子機器110の内部構成およびサーバ150の内部構成について説明する。また、他の電子機器120、130、140やサーバ160も、上述した電子機器110またはサーバ150と同一または類似の内部構成を有してよい。
電子機器110およびサーバ150は、メモリ211、221、プロセッサ212、222、通信モジュール213、223、および入力/出力インタフェース214、224を含んでよい。メモリ211、221は、非一時的なコンピュータ読み取り可能な記録媒体であって、RAM(random access memory)、ROM(read only memory)、ディスクドライブ、SSD(solid state drive)、フラッシュメモリ(flash memory)などのような永続的大容量記録装置を含んでよい。ここで、ROM、SSD、フラッシュメモリ、ディスクドライブのような永続的大容量記録装置は、メモリ211、221とは区分される別の永続的記録装置として電子機器110やサーバ150に含まれてもよい。また、メモリ211、221には、オペレーティングシステムと、少なくとも1つのプログラムコード(一例として、電子機器110においてインストールされて実行されるブラウザや、特定のサービスの提供のために電子機器110にインストールされるアプリケーションなどのためのコード)が記録されてよい。このようなソフトウェア構成要素は、メモリ211、221とは別のコンピュータ読み取り可能な記録媒体からロードされてよい。このような別のコンピュータ読み取り可能な記録媒体は、フロッピー(登録商標)ドライブ、ディスク、テープ、DVD/CD−ROMドライブ、メモリカードなどのコンピュータ読み取り可能な記録媒体を含んでよい。他の実施形態において、ソフトウェア構成要素は、コンピュータ読み取り可能な記録媒体ではない通信モジュール213、223を通じてメモリ211、221にロードされてもよい。例えば、少なくとも1つのプログラムは、開発者またはアプリケーションのインストールファイルを配布するファイル配布システム(一例として、上述したサーバ160)がネットワーク170を介して提供するファイルによってインストールされるコンピュータプログラム(一例として、上述したアプリケーション)に基づいてメモリ211、221にロードされてよい。
プロセッサ212、222は、基本的な算術、ロジック、および入出力演算を実行することにより、コンピュータプログラムの命令を処理するように構成されてよい。命令は、メモリ211、221または通信モジュール213、223によって、プロセッサ212、222に提供されてよい。例えば、プロセッサ212、222は、メモリ211、221のような記録装置に記録されたプログラムコードにしたがって受信される命令を実行するように構成されてよい。
通信モジュール213、223は、ネットワーク170を介して電子機器110とサーバ150とが互いに通信するための機能を提供してもよいし、電子機器110および/またはサーバ150が他の電子機器(一例として、電子機器120)または他のサーバ(一例として、サーバ160)と通信するための機能を提供してもよい。一例として、電子機器110のプロセッサ212がメモリ211のような記録装置に記録されたプログラムコードにしたがって生成した要求が、通信モジュール213の制御にしたがってネットワーク170を介してサーバ150に伝達されてよい。これとは逆に、サーバ150のプロセッサ222の制御にしたがって提供される制御信号や命令、コンテンツ、ファイルなどが、通信モジュール223とネットワーク170を経て電子機器110の通信モジュール213を通じて電子機器110に受信されてよい。例えば、通信モジュール213を通じて受信されたサーバ150の制御信号や命令、コンテンツ、ファイルなどは、プロセッサ212やメモリ211に伝達されてよく、コンテンツやファイルなどは、電子機器110がさらに含むことのできる記録媒体(上述した永続的記録装置)に記録されてよい。
入力/出力インタフェース214は、入力/出力装置215とのインタフェースのための手段であってよい。例えば、入力装置は、キーボード、マウス、マイクロフォン、カメラなどの装置を含んでよく、出力装置は、ディスプレイ、スピーカ、触覚フィードバックデバイスなどのような装置を含んでよい。他の例として、入力/出力インタフェース214は、タッチスクリーンのように入力と出力のための機能が1つに統合された装置とのインタフェースのための手段であってもよい。入力/出力装置215は、電子機器110と1つの装置で構成されてもよい。また、サーバ150の入力/出力インタフェース224は、サーバ150に接続するかサーバ150が含むことのできる入力または出力のための装置(図示せず)とのインタフェースのための手段であってよい。より具体的な例として、電子機器110のプロセッサ212がメモリ211にロードされたコンピュータプログラムの命令を処理するにあたり、サーバ150や電子機器120が提供するデータを利用して構成されるサービス画面やコンテンツが、入力/出力インタフェース214を通じてディスプレイに表示されてよい。
また、他の実施形態において、電子機器110およびサーバ150は、図2の構成要素よりも多くの構成要素を含んでもよい。しかし、大部分の従来技術的構成要素を明確に図に示す必要はない。例えば、電子機器110は、上述した入力/出力装置215のうちの少なくとも一部を含むように実現されてもよいし、トランシーバ、GPS(Global Positioning System)モジュール、カメラ、各種センサ、データベースなどのような他の構成要素をさらに含んでもよい。より具体的な例として、電子機器110がスマートフォンである場合、一般的にスマートフォンが含んでいる加速度センサやジャイロセンサ、カメラモジュール、物理的な各種ボタン、タッチパネルを利用したボタン、入力/出力ポート、振動のための振動器などのような多様な構成要素が、電子機器110にさらに含まれるように実現されてよい。
以下では、ジェスチャーを利用して対話メッセージで感情を表現する方法およびシステムの具体的な実施形態について説明する。
図3は、本発明の一実施形態における、電子機器のプロセッサが含むことのできる構成要素の例を示したブロック図であり、図4は、本発明の一実施形態における、電子機器が実行することのできる方法の例を示したフローチャートである。
本実施形態に係る電子機器110には、コンピュータで実現されたメッセージ表現システムが構成されてよい。一例として、メッセージ表現提供システムは、独立的に動作するプログラム形態で実現されても、あるいは特定のアプリケーションのイン−アプリ(in−app)形態で構成され、前記特定のアプリケーション上で動作が可能なように実現されてもよく、場合によっては、サーバ150との連動によってメッセンジャーサービスを提供してもよい。
電子機器110にインストールされたアプリケーションが提供する命令に基づき、電子機器110に実現されたメッセージ表現システムは、図4に示したメッセージ表現方法を実行してよい。
図4に係るメッセージ表現方法を実行するために、電子機器110のプロセッサ212は、構成要素として、図3に示すように、メッセージ入力部310、ジェスチャー変換部320、メッセージ送信部330、およびメッセージ表示部340を含んでよい。実施形態によって、プロセッサ212の構成要素は、選択的にプロセッサ212に含まれても除外されてもよい。また、実施形態によって、プロセッサ212の構成要素は、プロセッサ212の機能の表現のために分離されても併合されてもよい。
このようなプロセッサ212およびプロセッサ212の構成要素は、図4のメッセージ表現方法が含む段階410〜430を実行するように電子機器110を制御してよい。例えば、プロセッサ212およびプロセッサ212の構成要素は、メモリ211が含むオペレーティングシステムのコードと、少なくとも1つのプログラムのコードとによる命令(instruction)を実行するように実現されてよい。
ここで、プロセッサ212の構成要素は、電子機器110に記録されたプログラムコードが提供する命令(一例として、電子機器110で実行されるアプリケーションが提供する命令)にしたがってプロセッサ212によって実行される、プロセッサ212の互いに異なる機能(different functions)の表現であってよい。例えば、電子機器110がチャットルームのメッセージ入力ウィンドウに対話メッセージを入力するように上述した命令にしたがって電子機器110を制御するプロセッサ212の機能的表現として、メッセージ入力部310が利用されてよい。
プロセッサ212は、電子機器110の制御と関連する命令がロードされたメモリ211から必要な命令を読み取ってよい。この場合、前記読み取られた命令は、プロセッサ212が以下で説明する段階410〜430を実行するように制御するための命令を含んでよい。
図4を参照すると、段階410で、メッセージ入力部310は、電子機器110にインストールされたメッセンジャーのチャットルームで電子機器110のユーザによって入力されるか選択されたテキストまたはスタンプを発信しようとする対話メッセージ(以下、「発信メッセージ」とする)の入力を受けてよい。このとき、メッセージの発信のために入力されるか選択されたテキストまたはスタンプに対し、プレビュー(preview)を提供してよい。
本明細書において、スタンプとは、メッセンジャーでユーザの感情や意思を表現するために利用可能なイメージ型の表現手段であって、イメージ、フラッシュ、アニメーションなどによって生成された各種グラフィックコンテンツを包括したものを意味してよい。
テキストは、キーボードを利用したタイピングによってチャットルームのメッセージ入力ウィンドウに直に入力される方式により、プレビューが提供されてよい。一方、スタンプの場合は、メッセージ入力ウィンドウに入力されたテキストと関連のある推薦リストから選択されるか、全体リストを提供するスタンプ画面から直接選択されれば、チャットルーム内の事前に定められた位置、例えば、メッセージ入力ウィンドウまたはメッセージ入力ウィンドウの隣接領域に該当のスタンプのプレビューレイヤをオーバレイさせて表示することにより、プレビューが提供されてよい。
段階420で、ジェスチャー変換部320は、発信メッセージに対して入力されるジェスチャーを認識し、認識されたジェスチャーをアニメーション情報に変換してよい。ジェスチャー変換部320は、発信メッセージとして入力されるか選択されたテキストまたはスタンプのプレビュー画面でタッチが認識されれば、認識されたタッチジェスチャーを分析し、ジェスチャーに対応するアニメーション情報を生成してよい。このとき、アニメーション情報は、メッセージに適用可能な効果として、ジェスチャーに対応するアニメーション効果を含んでよい。
一例として、ジェスチャー変換部320は、テキストやスタンプのプレビューに対するジェスチャーを認識し、認識されたジェスチャーを事前に定義されたアニメーションに変換してよい。例えば、図5を参照すると、ジェスチャーの類型501により、振動、破壊、拡大、縮小、フェードイン(fade in)、フェードアウト(fade out)などのようなアニメーション効果502が予め定義され、ジェスチャーごとにアニメーションマッチングテーブルが構築されてよい。ジェスチャー変換部320は、テキストやスタンプのプレビューに対するジェスチャーにしたがい、予め定義されたアニメーションのタイプ情報に変換してよい。
他の例として、ジェスチャー変換部320は、テキストやスタンプのプレビューに対するジェスチャーを認識し、認識されたジェスチャーの軌跡やパターンが反映されたカスタム(custom)アニメーションに変換してよい。ジェスチャー変換部320は、一定の時間間隔のユーザのタッチ入力を時間順に格納することにより、カスタムアニメーションを生成してよい。例えば、ジェスチャー変換部320は、各時間のタッチ座標として、[時間1、タッチ座標(100,200)]、[時間2、タッチ座標(200,200)]、[時間3、タッチ座標(300,200)]、[時間4、タッチ座標(400,200)]のようなタッチ座標シーケンスから構成されるカスタムアニメーションデータを生成してよい。または、ジェスチャー変換部320は、各時間のタッチ類型として、[時間1、左側にスワイプ]、[時間2、右側にスワイプ]、[時間3、ロングクリック]、[時間4、タブルタップ]のようなタッチ類型シーケンスから構成されるカスタムアニメーションデータを生成してよい。
また他の例として、ジェスチャー変換部320は、テキストやスタンプのプレビューに対するジェスチャーを認識し、認識されたジェスチャーに対して事前に定義されたアニメーションが存在する場合には定義されたアニメーションに変換する反面、事前に定義されたアニメーションが存在しない場合には、認識されたジェスチャーの軌跡やパターンがそのまま反映されたカスタムアニメーションに変換してよい。
再び図4において、段階430で、メッセージ送信部330は、電子機器110のユーザからメッセージ送信要求が入力される場合、段階410で入力された発信メッセージと段階420で変換されたアニメーション情報をともに、チャットルームの相手に伝達するためにサーバ150に送信してよい。事前に定義されたアニメーションの場合には、発信メッセージとともにアニメーションのタイプ情報が送信され、カスタムアニメーションの場合には、ジェスチャーによるタッチ入力シーケンスによって生成されたアニメーションデータが発信メッセージとともに送信されてよい。サーバ150は、電子機器110から伝達された情報(発信メッセージとアニメーション情報)を、チャットルームに含まれる他のユーザの電子機器(一例として、電子機器120、130、140のうちの少なくとも1つ)に送信してよい。
段階440で、メッセージ表示部340は、他のユーザの電子機器に送信した発信メッセージをチャットルームに表示するにあたり、発信メッセージとともに伝達されたアニメーション情報を利用して発信メッセージにアニメーション効果を適用させて表示してよい。メッセージ表示部340は、他のユーザの電子機器から受信した対話メッセージ(以下、「受信メッセージ」とする)をチャットルームに表示するときも同じように、受信メッセージとアニメーション情報がともに受信される場合、受信されたアニメーション情報を利用して受信メッセージにアニメーション効果を適用させて表示してよい。
他のユーザの電子機器では、電子機器110から伝達された発信メッセージを画面上に表示するが、発信メッセージとともに伝達されたアニメーション情報を利用して発信メッセージにアニメーション効果を与えてよい。事前に定義されたアニメーションの場合には、各タイプのアニメーションを示すために必要なアニメーションデータが、電子機器にインストールされたメッセンジャーに搭載されている。この反面、カスタムアニメーションの場合には、電子機器110から伝達されたアニメーションデータを利用してアニメーション効果を再生してよい。
実施形態によって、サーバ150では、電子機器110から伝達されたデータを対話相手の電子機器に送信する前に、データを圧縮したり、データの長さを減らしたり、あるいは他のデータと交換するなどのように、データ最適化のための効率化作業を先に実行してよい。例えば、トラフィック側面における効率化作業として、電子機器110から伝達されたアニメーションデータが一定のサイズを超過する場合には、データサイズが小さい類似のアニメーションに交換して伝達することも可能である。他の例として、サーバ150は、電子機器110から伝達された発信メッセージとアニメーション情報を利用して、新たなメッセージタイプであるアニメーションメッセージに変換して送信してもよい。言い換えれば、サーバ150側で、電子機器110から伝達された発信メッセージに電子機器110のユーザのジェスチャーに対応するアニメーションデータを反映し、メッセージタイプ自体をアニメーションファイル(例えば、GIFファイルなど)に変換した後に送信してよい。
本実施形態は、入力中の対話メッセージに対するユーザジェスチャーを利用してジェスチャーに対応するアニメーション効果を対話メッセージに表現することにより、対話メッセージに多様な感情を表現することができる。
図6〜10は、本発明の一実施形態における、ジェスチャーを利用して対話メッセージにユーザの感情を示す過程を説明するためのユーザインタフェース画面を示した例示図である。
図6を参照すると、プロセッサ212は、電子機器110のユーザが電子機器110にインストールされたメッセンジャーのチャットルーム600でメッセージ入力ウィンドウを選択する場合、キーボード610をアクティブ化させて表示してよい。
プロセッサ212は、チャットルーム600でキーボード610がアクティブ化されれば、チャットルーム600内でジェスチャーを認識することのできる領域(以下、「ジェスチャー認識領域」とする)620を設定してよい。例えば、プロセッサ212は、チャットルーム600内の一部領域、あるいはメッセージ入力ウィンドウやキーボード入力ウィンドウの少なくとも一部を含む領域、あるいはメッセージ入力ウィンドウやキーボード入力ウィンドウに隣接する領域などをジェスチャー認識領域620として設定してよい。
ジェスチャー認識領域620は、透明レイヤであって、発信メッセージとして入力されるか選択されたテキストまたはスタンプに対するユーザジェスチャーを認識する役割を担う。
チャットルーム600でキーボード610がアクティブ化される時点にジェスチャー認識領域620が設定されると説明したが、これに限定されてはならず、チャットルーム600にスタンプ選択のためにスタンプリストを提供するスタンプ画面(図示せず)がアクティブ化される時点にジェスチャー認識領域620が設定されてもよく、メッセージの発信のために作成されたテキストやスタンプに対するプレビューが実行される時点にジェスチャー認識領域620が設定されてもよい。
以下では、メッセージの発信のために選択されたスタンプにジェスチャーを利用したユーザの感情を表現する過程の例について説明する。
図7を参照すると、プロセッサ212は、ユーザがチャットルーム600で相手に発信しようとするメッセージとしてスタンプ730を選択する場合、スタンプ730に対するプレビューを提供してよく、このとき、ジェスチャー認識領域620に入力されるタッチジェスチャーを認識してよい。例えば、プロセッサ212は、ユーザがジェスチャー認識領域620でスタンプ730を左右に移動させる左右スワイプジェスチャー731を入力する場合、左右スワイプジェスチャー731を一種の焦りの感情とし、左右に揺する効果のアニメーション情報に変換してよい。このとき、プロセッサ212は、左右スワイプジェスチャー731に対して事前に定義されたアニメーションが存在する場合には、該当のアニメーションのタイプ情報から構成されるアニメーションデータを生成し、事前に定義されたアニメーションが存在しない場合には、ユーザが入力したジェスチャーのタッチ入力がそのまま反映されたタッチ入力シーケンスから構成されるカスタムアニメーションデータを生成してよい。
プロセッサ212は、ユーザがスタンプ730に対するジェスチャーを入力した後に送信ボタンを入力すれば、チャットルーム600でジェスチャー認識領域620を解除すると同時に、スタンプ730に該当するスタンプ情報(例えば、スタンプ識別子など)とともに、ユーザジェスチャーに基づいて生成されたアニメーション情報をサーバ150に送信してよい。
プロセッサ212は、ユーザが送信したスタンプ730を対話メッセージとしてチャットルーム600に表示するようになるが、このとき、左右スワイプジェスチャー731に対応するアニメーション情報を利用して、スタンプ730を左右に揺するアニメーション効果732を与えてユーザの感情を示してよい。左右スワイプジェスチャー731に対して事前に定義されたアニメーションの場合は、事前に定められた大きさと速度でスタンプ730を左右に揺するアニメーション効果732を与えてよく、カスタムアニメーションの場合は、ユーザが入力したジェスチャーの大きさと速度のままでスタンプ730を左右に揺するアニメーション効果732を与えてよい。
図8を参照すると、プロセッサ212は、ユーザがチャットルーム600で相手に発信しようとするメッセージとしてスタンプ830を選択する場合、スタンプ830に対するプレビューを提供してよく、このとき、ジェスチャー認識領域620に入力されるタッチジェスチャーを認識してよい。例えば、プロセッサ212は、ユーザがジェスチャー認識領域620でスタンプ830をマルチフィンガーによって同時にタッチするダブルタップジェスチャー831を入力する場合、ダブルタップジェスチャー831を一種の怒りの感情とし、破壊される効果のアニメーション情報に変換してよい。このとき、プロセッサ212は、ダブルタップジェスチャー831に対して事前に定義されたアニメーションが存在する場合には、該当のアニメーションのタイプ情報から構成されるアニメーションデータを生成し、事前に定義されたアニメーションが存在しない場合には、ユーザが入力したジェスチャーのタッチ入力がそのまま反映されたタッチ入力シーケンスから構成されるカスタムアニメーションデータを生成してよい。
プロセッサ212は、ユーザがスタンプ830に対するジェスチャーを入力した後に送信ボタンを入力すれば、チャットルーム600でジェスチャー認識領域620を解除すると同時に、スタンプ830に該当するスタンプ情報とともに、ユーザジェスチャーに基づいて生成されたアニメーション情報をサーバ150に送信してよい。
プロセッサ212は、ユーザが送信したスタンプ830を対話メッセージとしてチャットルーム600に表示するようになるが、このとき、ダブルタップジェスチャー831に対応するアニメーション情報を利用して、スタンプ830が破壊されるアニメーション効果832を与えてユーザの感情を示してよい。ダブルタップジェスチャー831に対して事前に定義されたアニメーションの場合は、事前に定められたパターンでスタンプ830が破壊されるアニメーション効果832を与えてよく、カスタムアニメーションの場合は、ユーザが入力したジェスチャーのパターンのままでスタンプ830が破壊されるアニメーション効果832を与えてよい。
この他にも、ユーザがスタンプのプレビュー状態で上端ドラッグを入力する場合には、スタンプが拡大されたりフェードインされるアニメーション効果を適用し、下端ドラッグを入力する場合には、スタンプが縮小されたりフェードアウトされるアニメーション効果を適用することで、ユーザの感情を表現してよい。
以下では、メッセージの発信のために入力されたテキストにジェスチャーを利用したユーザの感情を表現する過程の例について説明する。
図9を参照すると、プロセッサ212は、ユーザがチャットルーム600で相手に発信しようとするメッセージとしてテキスト940を入力する場合、テキスト940の入力と同時に、入力されたテキスト940をメッセージ入力ウィンドウに表示してよく、このとき、ジェスチャー認識領域620に入力されるタッチジェスチャーを認識してよい。例えば、プロセッサ212は、ユーザがジェスチャー認識領域620でテキスト940を左右に移動させる左右スワイプジェスチャー941を入力する場合、左右スワイプジェスチャー941を一種の焦りの感情とし、左右に揺れる効果のアニメーション情報に変換してよい。このとき、プロセッサ212は、左右スワイプジェスチャー941に対して事前に定義されたアニメーションが存在する場合には、該当のアニメーションのタイプ情報から構成されるアニメーションデータを生成し、事前に定義されたアニメーションが存在しない場合には、ユーザが入力したジェスチャーのタッチ入力がそのまま反映されたタッチ入力シーケンスから構成されるカスタムアニメーションデータを生成してよい。
プロセッサ212は、ユーザがテキスト940に対するジェスチャーを入力した後に送信ボタンを入力すれば、チャットルーム600でジェスチャー認識領域620を解除すると同時に、テキスト940を含んだメッセージ情報とともに、ユーザジェスチャーに基づいて生成されたアニメーション情報をサーバ150に送信してよい。
プロセッサ212は、ユーザが送信したテキスト940を対話メッセージとしてチャットルーム600に表示するようになるが、このとき、左右スワイプジェスチャー941に対応するアニメーション情報を利用して、テキスト940を左右に揺するアニメーション効果942を与えてユーザの感情を示してよい。左右スワイプジェスチャー941に対して事前に定義されたアニメーションの場合は、事前に定められた方向と速度でテキスト940を左右に揺するアニメーション効果942を与えてよく、カスタムアニメーションの場合は、ユーザが入力したジェスチャーの方向と速度のままでテキスト940を左右に揺するアニメーション効果942を与えてよい。
図10を参照すると、プロセッサ212は、ユーザがチャットルーム600で相手に発信しようとするメッセージとしてテキスト1040を入力する場合、テキスト1040の入力と同時に、入力されたテキスト1040をメッセージ入力ウィンドウに表示してよく、このとき、ジェスチャー認識領域620に入力されるタッチジェスチャーを認識してよい。例えば、プロセッサ212は、ユーザがジェスチャー認識領域620でテキスト1040をマルチフィンガーによって同時にタッチするダブルタップジェスチャー1041を入力する場合、ダブルタップジェスチャー1041を一種の怒りの感情とし、破壊される効果のアニメーション情報に変換してよい。このとき、プロセッサ212は、ダブルタップジェスチャー1041に対して事前に定義されたアニメーションが存在する場合には、該当のアニメーションのタイプ情報から構成されるアニメーションデータを生成し、事前に定義されたアニメーションが存在しない場合には、ユーザが入力したジェスチャーのタッチ入力がそのまま反映されたタッチ入力シーケンスから構成されるカスタムアニメーションデータを生成してよい。
プロセッサ212は、ユーザがテキスト1040に対するジェスチャーを入力した後に送信ボタンを入力すれば、チャットルーム600でジェスチャー認識領域620を解除すると同時に、テキスト1040を含んだメッセージ情報とともに、ユーザジェスチャーに基づいて生成されたアニメーション情報をサーバ150に送信してよい。
プロセッサ212は、ユーザが送信したテキスト1040を対話メッセージとしてチャットルーム600に表示するようになるが、このとき、ダブルタップジェスチャー1041に対応するアニメーション情報を利用して、テキスト1040が破壊されるアニメーション効果1042を与えてユーザの感情を示してよい。ダブルタップジェスチャー1041に対して事前に定義されたアニメーションの場合は、事前に定められたパターンでテキスト1040が破壊されるアニメーション効果1042を与えてよく、カスタムアニメーションの場合は、ユーザが入力したジェスチャーのパターンのままでテキスト1040が破壊されるアニメーション効果1042を与えてよい。
この他にも、ユーザがメッセージ入力ウィンドウに入力されたテキストに対して上端ドラッグを入力する場合は、テキストが拡大されるかフェードインされるアニメーション効果を適用し、下端ドラッグを入力する場合は、テキストが縮小されるかフェードアウトされるアニメーション効果を適用することで、ユーザの感情を表現してよい。
テキストの場合、アニメーションタイプによってテキストにアニメーション効果を直ぐに適用することも可能であるし、またはテキストをイメージ化してアニメーション効果を適用することも可能である。例えば、テキスト1040の破壊アニメーション効果1042は、テキスト1040を先にイメージに変換した後、変換されたイメージを粉々に砕く方式などで表現してよい。
上述では、振動、破壊、拡大、縮小、フェードイン、フェードアウトなどをアニメーションの例として説明しているが、これに限定されてはならず、対話メッセージ(スタンプまたはメッセージ)に適用可能な効果であればすべて適用可能である。
このように、本発明の実施形態によると、メッセージ作成中に入力されたジェスチャーに対応するアニメーション効果を該当のメッセージに適用させることにより、ジェスチャーと感情表現を一致させ、ジェスチャーを利用してユーザの感情をより効果的に表現した対話メッセージをやり取りすることができる。
上述した装置は、ハードウェア構成要素、ソフトウェア構成要素、および/またはハードウェア構成要素とソフトウェア構成要素との組み合わせによって実現されてよい。例えば、実施形態で説明された装置および構成要素は、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令を実行して応答することができる様々な装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを利用して実現されてよい。処理装置は、オペレーティングシステム(OS)およびOS上で実行される1つ以上のソフトウェアアプリケーションを実行してよい。また、処理装置は、ソフトウェアの実行に応答し、データにアクセスし、データを記録、操作、処理、および生成してもよい。理解の便宜のために、1つの処理装置が使用されるとして説明される場合もあるが、当業者は、処理装置が複数個の処理要素および/または複数種類の処理要素を含んでもよいことが理解できるであろう。例えば、処理装置は、複数個のプロセッサまたは1つのプロセッサおよび1つのコントローラを含んでよい。また、並列プロセッサのような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、またはこれらのうちの1つ以上の組み合わせを含んでもよく、思うままに動作するように処理装置を構成したり、独立的または集合的に処理装置に命令したりしてよい。ソフトウェアおよび/またはデータは、処理装置に基づいて解釈されたり、処理装置に命令またはデータを提供したりするために、いかなる種類の機械、コンポーネント、物理装置、コンピュータ記録媒体または装置に具現化されてよい。ソフトウェアは、ネットワークによって接続されたコンピュータシステム上に分散され、分散された状態で記録されても実行されてもよい。ソフトウェアおよびデータは、1つ以上のコンピュータ読み取り可能な記録媒体に記録されてよい。
実施形態に係る方法は、多様なコンピュータ手段によって実行可能なプログラム命令の形態で実現されてコンピュータ読み取り可能な媒体に記録されてよい。ここで、媒体は、コンピュータ実行可能なプログラムを継続して記録するものであっても、実行またはダウンロードのために一時記録するものであってもよい。また、媒体は、単一または複数のハードウェアが結合した形態の多様な記録手段または格納手段であってよく、あるコンピュータシステムに直接接続する媒体に限定されることはなく、ネットワーク上に分散して存在するものであってもよい。媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク、および磁気テープのような磁気媒体、CD−ROMおよびDVDのような光媒体、フロプティカルディスク(floptical disk)のような光磁気媒体、およびROM、RAM、フラッシュメモリなどを含み、プログラム命令が記録されるように構成されたものであってよい。また、媒体の他の例として、アプリケーションを配布するアプリケーションストアやその他の多様なソフトウェアを供給または配布するサイト、サーバなどで管理する記録媒体または格納媒体が挙げられる。
以上のように、実施形態を、限定された実施形態および図面に基づいて説明したが、当業者であれば、上述した記載から多様な修正および変形が可能であろう。例えば、説明された技術が、説明された方法とは異なる順序で実行されたり、かつ/あるいは、説明されたシステム、構造、装置、回路などの構成要素が、説明された方法とは異なる形態で結合されたりまたは組み合わされたり、他の構成要素または均等物によって対置されたり置換されたとしても、適切な結果を達成することができる。
したがって、異なる実施形態であっても、特許請求の範囲と均等なものであれば、添付される特許請求の範囲に属する。
212:プロセッサ
310:メッセージ入力部
320:ジェスチャー変換部
330:メッセージ送信部
340:メッセージ表示部

Claims (20)

  1. コンピュータ装置が実行するメッセージ表現方法であって、
    前記コンピュータ装置は、メモリに含まれるコンピュータ読み取り可能な命令を実行するように構成された少なくとも1つのプロセッサを含み、
    前記メッセージ表現方法は、
    前記少なくとも1つのプロセッサにより、チャットルームで発信しようとするメッセージの入力を受ける段階、
    前記少なくとも1つのプロセッサにより、前記メッセージに対するジェスチャーを認識してアニメーション情報に変換する段階、
    前記少なくとも1つのプロセッサにより、前記メッセージと前記アニメーション情報をともに、サーバを介して前記チャットルームに含まれる他のユーザの電子機器に送信する段階、および
    前記少なくとも1つのプロセッサにより、前記メッセージを前記チャットルームの発信メッセージとして表示するが、前記アニメーション情報によるアニメーション効果を前記メッセージに適用させて表示する段階
    を含む、メッセージ表現方法。
  2. 前記変換する段階は、
    前記ジェスチャーによるタッチ入力を時間順に格納することにより、カスタムアニメーション情報に変換する段階
    を含む、請求項1に記載のメッセージ表現方法。
  3. 前記変換する段階は、
    前記ジェスチャーに対して事前に定義されたアニメーションが存在する場合には、前記事前に定義されたアニメーションのタイプ情報に変換する段階、および
    前記ジェスチャーに対して前記事前に定義されたアニメーションが存在しない場合には、前記ジェスチャーによるタッチ入力を時間順に格納することにより、カスタムアニメーション情報に変換する段階
    を含む、請求項1に記載のメッセージ表現方法。
  4. 前記カスタムアニメーション情報に変換する段階は、
    一定の時間間隔のタッチ座標を時間順に格納したタッチ座標シーケンスから構成されるカスタムアニメーションデータを生成すること
    を特徴とする、請求項2に記載のメッセージ表現方法。
  5. 前記カスタムアニメーション情報に変換する段階は、
    一定の時間間隔のタッチ類型を時間順に格納したタッチ類型シーケンスから構成されるカスタムアニメーションデータを生成すること
    を特徴とする、請求項2に記載のメッセージ表現方法。
  6. 前記メッセージ表現方法は、
    前記少なくとも1つのプロセッサにより、前記チャットルームでキーボードがアクティブ化される場合、前記ジェスチャーを認識するためのジェスチャー認識領域を設定する段階
    をさらに含む、請求項1に記載のメッセージ表現方法。
  7. 前記メッセージ表現方法は、
    前記少なくとも1つのプロセッサにより、前記チャットルームで前記メッセージに対するプレビューが実行される場合、前記ジェスチャーを認識するためのジェスチャー認識領域を設定する段階
    をさらに含む、請求項1に記載のメッセージ表現方法。
  8. 前記アニメーション情報は、前記サーバでデータ最適化が実行された後に、前記他のユーザの電子機器に送信されること
    を特徴とする、請求項1に記載のメッセージ表現方法。
  9. 前記アニメーション情報は、前記サーバで類似のアニメーション情報に交換されてから前記他のユーザの電子機器に送信されること
    を特徴とする、請求項1に記載のメッセージ表現方法。
  10. 前記メッセージは、前記サーバで前記アニメーション情報を利用してアニメーションファイルのメッセージタイプに変換された後に、前記他のユーザの電子機器に送信されること
    を特徴とする、請求項1に記載のメッセージ表現方法。
  11. 請求項1〜10のうちのいずれか一項に記載のメッセージ表現方法を前記コンピュータ装置に実行させる、コンピュータプログラム。
  12. コンピュータ装置であって、
    メモリに含まれるコンピュータ読み取り可能な命令を実行するように実現される少なくとも1つのプロセッサ
    を含み、
    前記少なくとも1つのプロセッサは、
    チャットルームで発信しようとするメッセージの入力を受けるメッセージ入力部、
    前記メッセージに対するジェスチャーを認識してアニメーション情報に変換するジェスチャー変換部、
    前記メッセージと前記アニメーション情報をともに、サーバを介して前記チャットルームに含まれる他のユーザの電子機器に送信するメッセージ送信部、および
    前記メッセージを前記チャットルームの発信メッセージとして表示するが、前記アニメーション情報によるアニメーション効果を前記メッセージに適用させて表示するメッセージ表示部
    を含む、コンピュータ装置。
  13. 前記ジェスチャー変換部は、
    前記ジェスチャーによるタッチ入力を時間順に格納することにより、カスタムアニメーション情報に変換すること
    を特徴とする、請求項12に記載のコンピュータ装置。
  14. 前記ジェスチャー変換部は、
    前記ジェスチャーに対して事前に定義されたアニメーションが存在する場合には、前記事前に定義されたアニメーションのタイプ情報に変換し、
    前記ジェスチャーに対して前記事前に定義されたアニメーションが存在しない場合には、前記ジェスチャーによるタッチ入力を時間順に格納することにより、カスタムアニメーション情報に変換すること
    を特徴とする、請求項12に記載のコンピュータ装置。
  15. 前記ジェスチャー変換部は、
    一定の時間間隔のタッチ座標を時間順に格納したタッチ座標シーケンスから構成されるカスタムアニメーションデータを生成すること
    を特徴とする、請求項13に記載のコンピュータ装置。
  16. 前記ジェスチャー変換部は、
    一定の時間間隔のタッチ類型を時間順に格納したタッチ類型シーケンスから構成されるカスタムアニメーションデータを生成すること
    を特徴とする、請求項13に記載のコンピュータ装置。
  17. 前記少なくとも1つのプロセッサは、
    前記チャットルームでキーボードがアクティブ化される場合、前記ジェスチャーを認識するためのジェスチャー認識領域を設定すること
    を特徴とする、請求項12に記載のコンピュータ装置。
  18. 前記少なくとも1つのプロセッサは、
    前記チャットルームで前記メッセージに対するプレビューが実行される場合、前記ジェスチャーを認識するためのジェスチャー認識領域を設定すること
    を特徴とする、請求項12に記載のコンピュータ装置。
  19. 前記アニメーション情報は、前記サーバでデータ最適化が実行された後に、前記他のユーザの電子機器に送信されること
    を特徴とする、請求項12に記載のコンピュータ装置。
  20. 前記メッセージは、前記サーバで前記アニメーション情報を利用してアニメーションファイルのメッセージタイプに変換された後に、前記他のユーザの電子機器に送信されること
    を特徴とする、請求項12に記載のコンピュータ装置。
JP2020213567A 2019-12-24 2020-12-23 ジェスチャーを利用して対話メッセージに感情を表現する方法、システム、およびコンピュータプログラム Pending JP2021103520A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2019-0174362 2019-12-24
KR1020190174362A KR20210081935A (ko) 2019-12-24 2019-12-24 제스처를 이용하여 대화 메시지에 감정을 표현하는 방법, 시스템, 및 컴퓨터 프로그램

Publications (1)

Publication Number Publication Date
JP2021103520A true JP2021103520A (ja) 2021-07-15

Family

ID=76438644

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020213567A Pending JP2021103520A (ja) 2019-12-24 2020-12-23 ジェスチャーを利用して対話メッセージに感情を表現する方法、システム、およびコンピュータプログラム

Country Status (3)

Country Link
US (2) US11538212B2 (ja)
JP (1) JP2021103520A (ja)
KR (1) KR20210081935A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4293607A4 (en) * 2021-04-01 2024-08-07 Samsung Electronics Co Ltd ELECTRONIC DEVICE AND METHOD FOR PROVIDING STICKER BASED ON CONTENT INPUT
KR102595551B1 (ko) 2021-06-23 2023-10-30 (주)옵토레인 다중 친수성을 갖는 체외진단칩

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020074304A (ko) 2001-03-20 2002-09-30 엘지전자주식회사 무선 통신망을 이용한 휴대 단말기의 모바일 메신저서비스 시스템 및 방법
US7636755B2 (en) * 2002-11-21 2009-12-22 Aol Llc Multiple avatar personalities
US20120166665A1 (en) * 2010-12-22 2012-06-28 Research In Motion Limited Method and system for selectively performing proxy services
US20140082520A1 (en) * 2012-05-24 2014-03-20 Monir Mamoun Method and System for Gesture- and Animation-Enhanced Instant Messaging
US10410180B2 (en) * 2012-11-19 2019-09-10 Oath Inc. System and method for touch-based communications
US9706040B2 (en) * 2013-10-31 2017-07-11 Udayakumar Kadirvel System and method for facilitating communication via interaction with an avatar
US10289654B2 (en) * 2016-03-31 2019-05-14 Google Llc Smart variable expressive text or graphics for electronic communications

Also Published As

Publication number Publication date
US20210192822A1 (en) 2021-06-24
US11935172B2 (en) 2024-03-19
US11538212B2 (en) 2022-12-27
KR20210081935A (ko) 2021-07-02
US20230082074A1 (en) 2023-03-16

Similar Documents

Publication Publication Date Title
JP7505886B2 (ja) メッセンジャー内のプラットフォームに追加されたアプリケーションを用いてチャットルームで情報を共有する方法、システム、およびコンピュータプログラム
JP6851972B2 (ja) 情報処理方法、プログラム及び端末
JP2020009426A (ja) コピーされたメッセージリストを提供する方法とシステム、および非一時的なコンピュータ読み取り可能な記録媒体
US11695582B2 (en) Method, system, and non-transitory computer-readable record medium for providing multiple group calls in one chatroom
US11935172B2 (en) Method, system, and non-transitory computer readable record medium for expressing emotion in conversation message using gesture
CN113268212A (zh) 投屏方法、装置、存储介质及电子设备
JP2021086626A (ja) ビデオチャットに利用可能な評判バッチを提供する方法、システム、およびコンピュータプログラム
US20220300144A1 (en) Method, system, and non-transitory computer readable record medium for providing chatroom in 3d form
JP2021129296A (ja) ビデオ通話ボットを利用してコミュニケーションを提供する方法、システム、およびコンピュータプログラム
JP7393487B2 (ja) プロフィール写真を推薦する方法とシステム、および非一時的なコンピュータ読み取り可能な記録媒体
US20220350681A1 (en) Method, system, and non-transitory computer-readable record medium for managing event messages and system for presenting conversation thread
JP2020177665A (ja) リマインダメッセージを提供する方法、システム、および非一時なコンピュータ読み取り可能な記録媒体
US11258838B2 (en) Method, system, and non-transitory computer readable record medium for processing chatroom based on usage
CN105308563A (zh) 系统准备任务的协调
JP2021005368A (ja) フォントを提供する方法、システム、および非一時なコンピュータ読み取り可能な記録媒体
KR20210089420A (ko) 특화된 태그를 이용하여 그룹을 생성하는 방법, 시스템, 및 컴퓨터 프로그램
KR101721333B1 (ko) 메시지의 송수신을 위한 통신세션을 통해 정보데이터를 제공하는 방법 및 시스템
CN111135557A (zh) 用于多屏的交互方法和装置
JP7133634B2 (ja) ユーザフィードバックが可能なボットに基づいて映像を制作する方法、システム、および非一時的なコンピュータ読み取り可能な記録媒体
JP2022161008A (ja) 対話メッセージの翻訳結果を提供する方法、システム、およびコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231215