JP7127138B2 - チャットルームを3次元形態で提供する方法、システム、および非一時なコンピュータ読み取り可能な記録媒体 - Google Patents

チャットルームを3次元形態で提供する方法、システム、および非一時なコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
JP7127138B2
JP7127138B2 JP2020542728A JP2020542728A JP7127138B2 JP 7127138 B2 JP7127138 B2 JP 7127138B2 JP 2020542728 A JP2020542728 A JP 2020542728A JP 2020542728 A JP2020542728 A JP 2020542728A JP 7127138 B2 JP7127138 B2 JP 7127138B2
Authority
JP
Japan
Prior art keywords
chat room
icon
partner
conversation partner
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020542728A
Other languages
English (en)
Other versions
JP2021515925A (ja
Inventor
ホン,ソクジュ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Line Plus Corp
Original Assignee
Line Plus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Line Plus Corp filed Critical Line Plus Corp
Publication of JP2021515925A publication Critical patent/JP2021515925A/ja
Application granted granted Critical
Publication of JP7127138B2 publication Critical patent/JP7127138B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • G06Q50/50
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • G06Q50/40
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • H04L12/1827Network arrangements for conference optimisation or adaptation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/21Monitoring or handling of messages
    • H04L51/222Monitoring or handling of messages using geographical location information, e.g. messages transmitted or received in proximity of a certain spot or area
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/02Terminal devices
    • H04W88/06Terminal devices adapted for operation in multiple networks or having at least two operational modes, e.g. multi-mode terminals

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Information Transfer Between Computers (AREA)
  • Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)
  • Tourism & Hospitality (AREA)
  • Operations Research (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)

Description

以下の説明は、チャットルームを表示する技術に関する。
一般的なコミュニケーションツールであるインスタントメッセンジャー(instant messenger)は、メッセージやデータをリアルタイムで送受信することのできるソフトウェアであって、ユーザがメッセンジャー上に会話相手を登録すると、会話リストに登録された相手とリアルタイムでメッセージをやり取りすることができる。
このようなメッセンジャー機能は、PCはもちろん、移動通信端末のモバイル環境でもその使用が普遍化している。
例えば、特許文献1(韓国公開特許第10-2002-0074304号公報(公開日2002年9月30日))には、携帯端末機にインストールされたモバイルメッセンジャー間でメッセンジャーサービスを提供することができるようにした、無線通信網を用いた携帯端末機のモバイルメッセンジャーサービスシステムおよび方法が開示されている。
韓国公開特許第10-2002-0074304号公報
3次元技術を利用して深さ調節が可能な3次元モードでチャットルームを表現することができる。
会話相手との距離を3次元空間上の深さ情報で表現することができる。
会話相手と関連する状態情報を3次元空間上に表現することができる。
チャットルームに対するユーザの視線を追跡し、ユーザの視線に対応する会話相手の状態情報を出力することができる。
電子機器が実行するチャットルーム表示方法であって、前記電子機器は、少なくとも1つのプロセッサを含み、当該チャットルーム表示方法は、前記少なくとも1つのプロセッサが、前記電子機器に表示されたチャットルームに対する画面切替イベントを認識することと、前記少なくとも1つのプロセッサが、前記画面切替イベントによって前記チャットルームが3次元空間の形態で表示されるように画面を切り替えることと、前記少なくとも1つのプロセッサにより、前記電子機器の位置情報と前記チャットルームに含まれた少なくとも1つの会話相手の位置情報とに基づき、前記電子機器のユーザと前記会話相手との距離を前記3次元空間の深さ情報で表現することとを含む、チャットルーム表示方法を提供する。
一側面によると、前記認識することは、前記チャットルームに対して事前に定められたジェスチャ(gesture)が入力されると、前記画面切替イベントとして認識することを含んでよい。
他の側面によると、前記認識することは、前記チャットルームに設定された時間情報または位置情報に基づき、前記チャットルームに対する前記画面切替イベントを認識することを含んでよい。
また他の側面によると、前記認識することは、前記電子機器の位置情報と前記チャットルームに含まれる少なくとも1つの会話相手の位置情報とに基づき、前記チャットルームに対する前記画面切替イベントを認識することを含んでよい。
また他の側面によると、前記切り替えることは、前記画面切替イベントによって、前記チャットルームを、深さ情報を有する3次元空間に変更して表示することと、前記3次元空間に対する所定のジェスチャによって前記3次元空間の深さを調節することとを含んでよい。
また他の側面によると、前記表現することは、前記3次元空間上に、前記ユーザを示すユーザアイコンと前記会話相手を示す相手アイコンとの深さ情報によって前記ユーザと前記会話相手との距離を表現することを含んでよい。
また他の側面によると、前記表現することは、前記会話相手の位置情報による移動速度や移動経路に基づいて前記会話相手の移動類型を区分し、該当の移動類型の移動状態アイコンを前記相手アイコンに隣接する位置に表示することを含んでよい。
また他の側面によると、前記表現することは、前記会話相手から新規メッセージが受信される場合、前記新規メッセージを一定時間にわたり前記相手アイコンに隣接する位置に表示することを含んでよい。
また他の側面によると、前記表現することは、前記会話相手から受信された新規メッセージが未確認メッセージとして処理される場合、前記未確認メッセージを示す識別子を前記相手アイコンに隣接する位置に表示することを含んでよい。
また他の側面によると、前記表現することは、前記会話相手が利用中である他のサービスを示すアイコンを前記相手アイコンに隣接する位置に表示することを含んでよい。
さらに他の側面によると、前記表現することは、前記3次元空間に対する前記ユーザの視線を追跡し、前記ユーザの視線に対応する会話相手が前記他のサービスで利用中であるコンテンツを前記電子機器の出力装置から出力することを含んでよい。
前記チャットルーム表示方法をコンピュータに実行させるためのプログラムが記録されている、非一時なコンピュータ読み取り可能な記録媒体を提供する。
電子機器に実現されるチャットルーム表示システムであって、メモリ、および前記メモリに接続され、前記メモリに含まれるコンピュータ読み取り可能な命令を実行するように構成された少なくとも1つのプロセッサを含み、前記少なくとも1つのプロセッサは、前記電子機器に表示されたチャットルームに対する画面切替イベントを認識するイベント認識部と、前記画面切替イベントによって前記チャットルームが3次元空間の形態で表示されるように画面を切り替える画面切替部と、前記チャットルームに含まれた少なくとも1つの会話相手と関連する状態情報を前記3次元空間上に出力する情報出力部とを備え、前記情報出力部は、前記電子機器の位置情報と前記会話相手の位置情報とに基づき、前記電子機器のユーザと前記会話相手との距離を前記3次元空間の深さ情報で表現する、チャットルーム表示システムを提供する。
本発明の一実施形態における、ネットワーク環境の例を示した図である。 本発明の一実施形態における、電子機器およびサーバの内部構成を説明するためのブロック図である。 本発明の一実施形態における、電子機器のプロセッサが含むことのできる構成要素の例を示したブロック図である。 本発明の一実施形態における、電子機器が実行することのできる方法の例を示したフローチャートである。 本発明の一実施形態における、チャットルームを3次元形態で表示する過程を説明するための例示図である。 本発明の一実施形態における、チャットルームを3次元形態で表示する過程を説明するための例示図である。 本発明の一実施形態における、チャットルームの3次元空間上に状態情報を表示する過程を説明するための例示図である。 本発明の一実施形態における、チャットルームの3次元空間上に状態情報を表示する過程を説明するための例示図である。 本発明の一実施形態における、チャットルームの3次元空間上に状態情報を表示する過程を説明するための例示図である。 本発明の一実施形態における、チャットルームの3次元空間上に状態情報を表示する過程を説明するための例示図である。 本発明の一実施形態における、チャットルームの3次元空間上に状態情報を表示する過程を説明するための例示図である。 本発明の一実施形態における、チャットルームの3次元空間上に状態情報を表示する過程を説明するための例示図である。 本発明の一実施形態における、チャットルームの3次元空間上に状態情報を表示する過程を説明するための例示図である。
以下、本発明の実施形態について、添付の図面を参照しながら詳細に説明する。
本発明の実施形態は、会話インタフェース画面であるチャットルームを表現する技術に関し、より詳細には、深さ調節が可能な3次元モードでチャットルームを表現する技術に関する。
本明細書において具体的に開示される事項を含む実施形態は、深さ調節が可能な3次元モードでチャットルームを表現することができ、これにより、直観性、効率性、拡張性、利便性などの側面において相当な長所を達成することができる。
図1は、本発明の一実施形態における、ネットワーク環境の例を示した図である。図1のネットワーク環境は、複数の電子機器110、120、130、140、複数のサーバ150、160、およびネットワーク170を含む例を示している。このような図1は、本発明の説明のための一例に過ぎず、電子機器の数やサーバの数が図1のように限定されることはない。
複数の電子機器110、120、130、140は、コンピュータシステムによって実現される固定端末や移動端末であってよい。複数の電子機器110、120、130、140の例としては、スマートフォン、携帯電話、ナビゲーション、PC(personal computer)、ノート型PC、デジタル放送用端末、PDA(Personal Digital Assistant)、PMP(Portable Multimedia Player)、タブレット、ゲームコンソール、ウェアラブルデバイス、IoT(internet of things)デバイス、VR(virtual reality)デバイス、AR(augmented reality)デバイスなどがある。一例として、図1では、電子機器110の例としてスマートフォンを示しているが、本発明の実施形態において、電子機器110は、実質的に無線または有線通信方式を利用し、ネットワーク170を介して他の電子機器120、130、140および/またはサーバ150、160と通信することのできる多様な物理的なコンピュータシステムのうちの1つを意味してよい。
通信方式が限定されることはなく、ネットワーク170が含むことのできる通信網(一例として、移動通信網、有線インターネット、無線インターネット、放送網、衛星網など)を利用する通信方式だけではなく、機器間の近距離無線通信が含まれてもよい。例えば、ネットワーク170は、PAN(personal area network)、LAN(local area network)、CAN(campus area network)、MAN(metropolitan area network)、WAN(wide area network)、BBN(broadband network)、インターネットなどのネットワークのうちの1つ以上の任意のネットワークを含んでよい。さらに、ネットワーク170は、バスネットワーク、スターネットワーク、リングネットワーク、メッシュネットワーク、スター-バスネットワーク、ツリーまたは階層的ネットワークなどを含むネットワークトポロジのうちの任意の1つ以上を含んでもよいが、これらに限定されることはない。
サーバ150、160それぞれは、複数の電子機器110、120、130、140とネットワーク170を介して通信して命令、コード、ファイル、コンテンツ、サービスなどを提供する1つ以上のコンピュータ装置によって実現されてよい。例えば、サーバ150は、ネットワーク170を介して接続した複数の電子機器110、120、130、140に第1サービスを提供するシステムであってよく、サーバ160も、ネットワーク170を介して接続した複数の電子機器110、120、130、140に第2サービスを提供するシステムであってよい。より具体的な例として、サーバ150は、複数の電子機器110、120、130、140においてインストールされて実行されるコンピュータプログラムであるアプリケーションを通じ、該当のアプリケーションが目的とするサービス(一例として、メッセンジャーサービスなど)を第1サービスとして複数の電子機器110、120、130、140に提供してよい。他の例として、サーバ160は、上述したアプリケーションのインストールおよび実行のためのファイルを複数の電子機器110、120、130、140に配布するサービスを第2サービスとして提供してよい。
図2は、本発明の一実施形態における、電子機器およびサーバの内部構成を説明するためのブロック図である。図2では、電子機器に対する例として電子機器110の内部構成およびサーバ150の内部構成について説明する。また、他の電子機器120、130、140やサーバ160も、上述した電子機器110またはサーバ150と同一または類似の内部構成を有してよい。
電子機器110およびサーバ150は、メモリ211、221、プロセッサ212、222、通信モジュール213、223、および入力/出力インタフェース214、224を含んでよい。メモリ211、221は、非一時的なコンピュータ読み取り可能な記録媒体であって、RAM(random access memory)、ROM(read only memory)、ディスクドライブ、SSD(solid state drive)、フラッシュメモリ(flash memory)などのような永続的大容量記録装置を含んでよい。ここで、ROM、SSD、フラッシュメモリ、ディスクドライブのような永続的大容量記録装置は、メモリ211、221とは区分される別の永続的記録装置として電子機器110やサーバ150に含まれてもよい。また、メモリ211、221には、オペレーティングシステムと、少なくとも1つのプログラムコード(一例として、電子機器110においてインストールされて実行されるブラウザや、特定のサービスの提供のために電子機器110にインストールされたアプリケーションなどのためのコード)が記録されてよい。このようなソフトウェア構成要素は、メモリ211、221とは別のコンピュータ読み取り可能な記録媒体からロードされてよい。このような別のコンピュータ読み取り可能な記録媒体は、フロッピードライブ、ディスク、テープ、DVD/CD-ROMドライブ、メモリカードなどのコンピュータ読み取り可能な記録媒体を含んでよい。他の実施形態において、ソフトウェア構成要素は、コンピュータ読み取り可能な記録媒体ではない通信モジュール213、223を通じてメモリ211、221にロードされてもよい。例えば、少なくとも1つのプログラムは、開発者またはアプリケーションのインストールファイルを配布するファイル配布システム(一例として、上述したサーバ160)がネットワーク170を介して提供するファイルによってインストールされるコンピュータプログラム(一例として、上述したアプリケーション)に基づいてメモリ211、221にロードされてよい。
プロセッサ212、222は、基本的な算術、ロジック、および入出力演算を実行することにより、コンピュータプログラムの命令を処理するように構成されてよい。命令は、メモリ211、221または通信モジュール213、223によって、プロセッサ212、222に提供されてよい。例えば、プロセッサ212、222は、メモリ211、221のような記録装置に記録されたプログラムコードに従って受信される命令を実行するように構成されてよい。
通信モジュール213、223は、ネットワーク170を介して電子機器110とサーバ150とが互いに通信するための機能を提供してもよいし、電子機器110および/またはサーバ150が他の電子機器(一例として、電子機器120)または他のサーバ(一例として、サーバ160)と通信するための機能を提供してもよい。一例として、電子機器110のプロセッサ212がメモリ211のような記録装置に記録されたプログラムコードに従って生成した要求が、通信モジュール213の制御に従ってネットワーク170を介してサーバ150に伝達されてよい。これとは逆に、サーバ150のプロセッサ222の制御に従って提供される制御信号や命令、コンテンツ、ファイルなどが、通信モジュール223とネットワーク170を経て電子機器110の通信モジュール213を通じて電子機器110に受信されてよい。例えば、通信モジュール213を通じて受信されたサーバ150の制御信号や命令、コンテンツ、ファイルなどは、プロセッサ212やメモリ211に伝達されてよく、コンテンツやファイルなどは、電子機器110がさらに含むことのできる記録媒体(上述した永続的記録装置)に記録されてよい。
入力/出力インタフェース214は、入力/出力装置215とのインタフェースのための手段であってよい。例えば、入力装置は、キーボード、マウス、マイクロフォン、カメラなどの装置を、出力装置は、ディスプレイ、スピーカ、触覚フィードバックデバイスなどのような装置を含んでよい。他の例として、入力/出力インタフェース214は、タッチスクリーンのように入力と出力のための機能が1つに統合された装置とのインタフェースのための手段であってもよい。入力/出力装置215は、電子機器110と1つの装置で構成されてもよい。また、サーバ150の入力/出力インタフェース224は、サーバ150に接続するかサーバ150が含むことのできる入力または出力のための装置(図示せず)とのインタフェースのための手段であってよい。より具体的な例として、電子機器110のプロセッサ212がメモリ211にロードされたコンピュータプログラムの命令を処理するにあたり、サーバ150や電子機器120が提供するデータを利用して構成されるサービス画面やコンテンツが、入力/出力インタフェース214を通じてディスプレイに表示されてよい。
また、他の実施形態において、電子機器110およびサーバ150は、図2の構成要素よりも多くの構成要素を含んでもよい。しかし、大部分の従来技術的構成要素を明確に図に示す必要はない。例えば、電子機器110は、上述した入力/出力装置215のうちの少なくとも一部を含むように実現されてもよいし、トランシーバ、GPS(Global Positioning System)モジュール、カメラ、各種センサ、データベースなどのような他の構成要素をさらに含んでもよい。より具体的な例として、電子機器110がスマートフォンである場合、一般的にスマートフォンが含んでいる加速度センサやジャイロセンサ、カメラモジュール、物理的な各種ボタン、タッチパネルを利用したボタン、入力/出力ポート、振動のための振動器などのような多様な構成要素が、電子機器110にさらに含まれるように実現されてよい。
以下では、チャットルームを3次元形態で表現するための方法およびシステムの具体的な実施形態について説明する。
図3は、本発明の一実施形態における、電子機器のプロセッサが含むことのできる構成要素の例を示したブロック図であり、図4は、本発明の一実施形態における、電子機器が実行することのできる方法の例を示したフローチャートである。
本実施形態に係る電子機器110には、コンピュータによって実現された会話システムが構成されてよい。一例として、会話システムは、独立的に動作するプログラム形態で実現されても、あるいは特定のアプリケーションのイン-アプリ(in-app)形態で構成され、前記特定のアプリケーション上で動作が可能なように実現されてもよく、場合によっては、サーバ150との連動によってメッセージングサービスが提供されてもよい。
電子機器110にインストールされたアプリケーションが提供する命令に基づき、電子機器110に実現された会話システムは、会話方法を実行してよい。図4に係る会話方法を実行するために、電子機器110のプロセッサ212は、構成要素として、図3に示すように、イベント認識部310、画面切替部320、および情報出力部330を備えてよい。実施形態によれば、プロセッサ212の構成要素は、選択的にプロセッサ212に含まれても除外されてもよい。また、実施形態によれば、プロセッサ212の構成要素は、プロセッサ212の機能の表現のために分離されても併合されてもよい。
このようなプロセッサ212およびプロセッサ212の構成要素は、図4の会話方法が含む段階410~段階440を実行するように電子機器110を制御してよい。例えば、プロセッサ212およびプロセッサ212の構成要素は、メモリ211が含むオペレーティングシステムのコードと、少なくとも1つのプログラムのコードとによる命令(instruction)を実行するように実現されてよい。
ここで、プロセッサ212の構成要素は、電子機器110に記録されたプログラムコードが提供する命令(一例として、電子機器110で実行されたアプリケーションが提供する命令)に従ってプロセッサ212によって実行される、プロセッサ212の互いに異なる機能(different functions)の表現であってよい。例えば、電子機器110がチャットルームに対する画面切替イベントを認識するように上述した命令に従って電子機器110を制御するプロセッサ212の機能的表現として、イベント認識部310が利用されてよい。
段階410において、プロセッサ212は、電子機器110の制御と関連する命令がロードされたメモリ211から必要な命令を読み取ってよい。この場合、前記読み取られた命令は、以下で説明される段階420~段階440をプロセッサ212が実行するように制御するための命令を含んでよい。
段階420において、イベント認識部310は、電子機器110にインストールされたメッセンジャーの会話インタフェース画面であるチャットルームに対する画面切替イベントを認識してよい。チャットルームとは、電子機器110のユーザのアカウントと少なくとも1つの会話相手のアカウントとの間に設定された通信セッションに対応するインタフェース画面であって、基本的には2次元形態の画面で構成されて表示されてよい。一例として、イベント認識部310は、チャットルームに対して事前に定められたジェスチャ(gesture)、例えば、電子機器110の画面にタッチ圧力のような3次元タッチが入力されると、これを画面切替イベントとして認識してよい。他の例として、イベント認識部310は、ユーザからのタッチによってチャットルームに含まれる画面切替メニューが直接選択されるか会話相手リストやプロフィールなどに進む場合に、これを画面切替イベントとして認識してよい。また他の例として、イベント認識部310は、チャットルームに設定された時間情報に基づいて該当のチャットルームに対する画面切替イベントを自動認識してよい。例えば、イベント認識部310は、チャットルームに設定された約束時間を基準として30分前の時点を画面切替イベントとして認識してよい。また他の例として、イベント認識部310は、チャットルームに設定された位置情報に基づいて該当のチャットルームに対する画面切替イベントを自動認識してよい。例えば、イベント認識部310は、電子機器110の位置がチャットルームに設定された約束場所に到達すれば、これを画面切替イベントとして認識してよい。また他の例として、イベント認識部310は、電子機器110の位置情報とチャットルームに含まれる会話相手の位置情報とによる位置分布図に基づいて該当のチャットルームに対する画面切替イベントを認識してよい。例えば、イベント認識部310は、チャットルームに含まれるユーザが一定のレベル以上に分散している場合に、これを画面切替イベントとして認識してよい。さらに他の例として、イベント認識部310は、チャットルームのユーザ間で映像通話(VoIPコール)が始まれば、該当のチャットルームに対する画面切替イベントを自動認識してよい。
段階430において、画面切替部320は、画面切替イベントが認識されることにより、チャットルームが3次元形態で表示されるように画面を切り替えてよい。図5を参照すると、画面切替部320は、2次元形態で表示されたチャットルーム510で画面切替イベントが認識されれば、該当のチャットルーム510を所定の深さ情報を有する3次元空間520に変更して表示してよい。このとき、画面切替部320は、チャットルームが3次元形態に変更された後(すなわち、チャットルームが3次元形態で表示された後)に所定のジェスチャが入力されれば、該当の3次元空間520の深さを調節してよい。例えば、図6に示すように、2本の指を利用したスプレッド(Spread)ジェスチャ601とピンチ(Pinch)ジェスチャ602によって3次元空間520の深さ調節が可能である。
再び図4において、段階440において、情報出力部330は、電子機器110のユーザと関連する状態情報、およびチャットルームに含まれる会話相手と関連する状態情報を3次元空間上に出力してよい。このとき、状態情報は、メッセンジャー上に登録されたプロフィール情報を含んでよい。状態情報は、プロフィールのような基本情報の他に、新規メッセージ、メッセージ未確認状態、位置情報、または位置情報を基盤とした活動性情報、メッセンジャーアカウントと連携する他のサービスの利用可否などをさらに含んでよい。メッセンジャーは、チャットルームでメッセージをやり取りする機能はもちろん、ユーザと会話相手とが位置情報や活動性情報を共有する機能、メッセンジャーのアカウントで音楽サービスのような他のサービスを提供する機能などを含んでよい。一例として、情報出力部330は、電子機器110の位置情報とチャットルームに含まれる会話相手の位置情報とに基づき、ユーザと会話相手との距離を3次元空間上の深さ情報で表現してよい。他の例として、情報出力部330は、チャットルームに含まれた会話相手の位置情報に基づき、会話相手の移動状態(例えば、徒歩移動、公共交通(バス、地下鉄)移動、自家用車移動など)を示す活動性情報を3次元空間上に出力してよい。また他の例として、情報出力部330は、チャットルームに含まれる会話相手から受信した新規メッセージやメッセージ未確認状態を3次元空間上に出力してよい。さらに他の例として、情報出力部330は、チャットルームに含まれる会話相手別に、会話相手が利用中の他のサービスを示すアイコンを3次元空間上に出力してよい。例えば、情報出力部330は、会話相手が音楽サービスを利用中であれば、該当のサービスアイコンをチャットルームの3次元空間上に出力してよく、このとき、3次元空間に対する電子機器110のユーザの視線を追跡し、ユーザの視線に対応する会話相手が利用中のコンテンツを電子機器110の出力装置(スピーカやディスプレイなど)から出力してよい。
図7~図13は、本発明の一実施形態における、チャットルームの3次元空間上に状態情報を表示する過程を説明するための例示図である。
以下では、電子機器110のユーザと会話相手A、B、C、Dとが参加するチャットルームを例示して説明する。
図7を参照すると、情報出力部330は、チャットルームとして深さ情報を有する3次元空間520上に、ユーザを示すユーザアイコン701と、それぞれの会話相手を示す相手アイコン702を表示してよい。このとき、ユーザアイコン701と相手アイコン702は、事前に設定されたプロフィールイメージやデフォルトイメージなどで構成されてよい。ユーザと位置共有が許容された会話相手A、Bの場合は、3次元空間520上のユーザアイコン701と相手アイコン702との深さ情報d、dにより、ユーザと会話相手A、Bとの距離を表現してよい。ユーザと位置共有が許容されていない会話相手C、Dの場合は、深さ情報なしに、ユーザアイコン701の周辺に相手アイコン702を表示してよい。また他の例として、会話相手A、Bの位置情報からユーザに対する会話相手A、Bの方向または会話相手A、Bの方位を確認することができる場合は、ユーザアイコン701を3次元空間520の中央に表示し、確認されたユーザに対する会話相手A、Bの方向または会話相手A、Bの方位によって相手アイコン702を配置してよい。さらに他の例として、情報出力部330は、チャットルームのユーザ間で映像通話(VoIPコール)が始まってチャットルームが3次元形態で表示されるように画面が切り替わった場合、3次元空間520を利用して映像通話画面を提供してよい。このとき、ユーザアイコン701と相手アイコン702は、各自のプロフィールイメージの代わりに映像通話画面で構成されてよい。
図8を参照すると、情報出力部330は、ユーザと位置共有が許容された会話相手A、Bに対して移動が感知されれば、該当の相手アイコン702に隣接する位置に、例えば、相手アイコン702の右上に、移動状態アイコン803を表示してよい。このとき、会話相手の移動速度や移動経路などに基づいて会話相手の移動類型、例えば、徒歩移動、公共交通(バス、地下鉄)移動、自家用車移動などを区分してよく、該当の類型の移動状態アイコン803を表示してよい。会話相手の移動速度や移動経路などは、会話相手の電子機器(一例として、電子機器120)から受信した情報であってもよいし、会話相手から受信した会話相手の位置情報からユーザの電子機器110が計算した情報であってもよい。
図9を参照すると、情報出力部330は、会話相手Aからチャットルームに新たなメッセージが受信されれば、該当の相手アイコン702に隣接する位置に、例えば、相手アイコン702の右上に、新規メッセージが含まれる吹き出し904を一定時間(例えば、3秒)にわたり表示してよい。このとき、ユーザが吹き出し904を一定時間以内にタップすればメッセージが確認されたものと処理し、吹き出し904をタップせずに一定時間が経過すれば未確認メッセージとして処理してよい。
情報出力部330は、新規メッセージが受信されてから一定時間が経過すれば吹き出し904を消去し、該当のメッセージが未確認メッセージとして処理された場合は、図10に示すように、該当のメッセージを送った相手アイコン702に隣接する位置に、例えば、相手アイコン702の右上に、未確認メッセージがあることを示す識別子1005を表示してよい。
図11を参照すると、情報出力部330は、チャットルームに含まれた会話相手のうちの少なくとも一部の会話相手が音楽サービスを利用している場合、該当の相手アイコン702に隣接する位置に、例えば、相手アイコン702の右上に、音楽サービスを示すサービスアイコン1106を3次元空間520上に出力してよい。
図12を参照すると、情報出力部330は、3次元空間520に対するユーザの視線1200を追跡し、ユーザの視線1200と対応する会話相手が利用中の音楽を電子機器110の出力装置から出力してよい。図12に示すように、情報出力部330は、会話相手AとBが音楽サービスを利用しているとき、ユーザの視線1200が会話相手Aの相手アイコン702に留まれば会話相手Aが聞いている音楽を出力してよく、このとき、会話相手Bの相手アイコン702やサービスアイコン1106に隣接する位置には音消去アイコン1207を表示してよい。図13に示すように、情報出力部330は、ユーザの視線1200を追跡し、ユーザの視線1200が会話相手Aの相手アイコン702に留まった後に会話相手Bの相手アイコン702に移動すれば、会話相手Aが聞いている音楽の出力は中断し、会話相手Bが聞いている音楽を出力してよい。このとき、会話相手Aが聞いている音楽音が次第に小さくなるように出力しながら、会話相手Bが聞いている音楽音が次第に大きく出力される効果を適用してよく、会話相手Aが聞いている音楽の出力が中断されれば、会話相手Aの相手アイコン702やサービスアイコン1106に隣接する位置に音消去アイコン1207を表示してよい。
情報出力部330は、会話相手が利用中の他のサービスを示すアイコンの場合、3次元空間はもちろん、2次元形態で表現されたチャットルーム上に出力することも可能である。例えば、情報出力部330は、2次元形態のチャットルームにプロフィールイメージで構成された相手アイコンをメッセージの受信順に整列して表示してよく、このとき、会話相手が音楽サービスを利用している場合には、サービスアイコンを相手アイコンに隣接する位置に表示してよく、ユーザの視線を追跡し、ユーザの視線に対応する会話相手が利用中の音楽を電子機器110の出力装置から出力してよい。
このように、本発明の実施形態によると、3次元技術を利用してチャットルームを深さ調節が可能な3次元モードで表現することができ、このとき、会話相手との距離を3次元空間上の深さ情報で表現することができる。また、3次元空間上に、会話相手と関連する状態情報として新規メッセージ、メッセージ未確認状態、位置情報、または位置情報を基盤とする活動性情報、メッセンジャーアカウントと連携する他のサービスの利用可否などを出力することができる。さらに、チャットルームに対するユーザの視線を追跡し、ユーザの視線に対応する会話相手の状態情報を出力することができる。
上述した装置は、ハードウェア構成要素、ソフトウェア構成要素、および/またはハードウェア構成要素とソフトウェア構成要素との組み合わせによって実現されてよい。例えば、実施形態で説明された装置および構成要素は、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令を実行して応答することができる様々な装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを利用して実現されてよい。処理装置は、オペレーティングシステム(OS)およびOS上で実行される1つ以上のソフトウェアアプリケーションを実行してよい。また、処理装置は、ソフトウェアの実行に応答し、データにアクセスし、データを記録、操作、処理、および生成してもよい。理解の便宜のために、1つの処理装置が使用されるとして説明される場合もあるが、当業者は、処理装置が複数個の処理要素および/または複数種類の処理要素を含んでもよいことが理解できるであろう。例えば、処理装置は、複数個のプロセッサまたは1つのプロセッサおよび1つのコントローラを含んでよい。また、並列プロセッサのような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、またはこれらのうちの1つ以上の組み合わせを含んでもよく、思うままに動作するように処理装置を構成したり、独立的または集合的に処理装置に命令したりしてよい。ソフトウェアおよび/またはデータは、処理装置に基づいて解釈されたり、処理装置に命令またはデータを提供したりするために、いかなる種類の機械、コンポーネント、物理装置、コンピュータ記録媒体または装置に具現化されてよい。ソフトウェアは、ネットワークによって接続されたコンピュータシステム上に分散され、分散された状態で記録されても実行されてもよい。ソフトウェアおよびデータは、1つ以上のコンピュータ読み取り可能な記録媒体に記録されてよい。
実施形態に係る方法は、多様なコンピュータ手段によって実行可能なプログラム命令の形態で実現されてコンピュータ読み取り可能な媒体に記録されてよい。ここで、媒体は、コンピュータ実行可能なプログラムを継続して記録するものであっても、実行またはダウンロードのために一時記録するものであってもよい。また、媒体は、単一または複数のハードウェアが結合した形態の多様な記録手段または格納手段であってよく、あるコンピュータシステムに直接接続する媒体に限定されることはなく、ネットワーク上に分散して存在するものであってもよい。媒体の例は、ハードディスク、フロッピーディスク、および磁気テープのような磁気媒体、CD-ROMおよびDVDのような光媒体、フロプティカルディスク(floptical disk)のような光磁気媒体、およびROM、RAM、フラッシュメモリなどを含み、プログラム命令が記録されるように構成されたものであってよい。また、媒体の他の例として、アプリケーションを配布するアプリケーションストアやその他の多様なソフトウェアを供給または配布するサイト、サーバなどで管理する記録媒体または格納媒体が挙げられる。
以上のように、実施形態を、限定された実施形態および図面に基づいて説明したが、当業者であれば、上述した記載から多様な修正および変形が可能であろう。例えば、説明された技術が、説明された方法とは異なる順序で実行されたり、かつ/あるいは、説明されたシステム、構造、装置、回路などの構成要素が、説明された方法とは異なる形態で結合されたりまたは組み合わされたり、他の構成要素または均等物によって代替されたり置換されたとしても、適切な結果を達成することができる。
したがって、異なる実施形態であっても、特許請求の範囲と均等なものであれば、添付される特許請求の範囲に属する。

Claims (17)

  1. 子機器少なくとも1つのプロセッサ
    記電子機器に表示されたチャットルームに対する画面切替イベントを認識することと、
    記画面切替イベントによって前記チャットルームが3次元空間の形態で表示されるように画面を切り替えることと、
    記電子機器の位置情報と前記チャットルームに含まれる少なくとも1つの会話相手の位置情報とに基づき、前記会話相手の位置情報の共有が前記電子機器のユーザに許容されている場合は、前記3次元空間上に、前記ユーザを示すユーザアイコンと前記会話相手を示す相手アイコンとの深さ情報によって前記ユーザと前記会話相手との距離を表現することと、
    前記会話相手の位置情報の共有が前記ユーザに許容されていない場合は、深さ情報なしに、前記ユーザアイコンの周辺に相手アイコンを表示することと
    実行させるプログラム
  2. 前記認識することは、
    前記チャットルームに対して事前に定められたジェスチャが入力されれば、前記画面切替イベントとして認識すること
    を含む、請求項1に記載のプログラム
  3. 前記認識することは、
    前記チャットルームに設定された時間情報または位置情報に基づき、前記チャットルームに対する前記画面切替イベントを認識すること
    を含む、請求項1又は2に記載のプログラム
  4. 前記認識することは、
    前記電子機器の位置情報と前記チャットルームに含まれる少なくとも1つの会話相手の位置情報とに基づき、前記チャットルームに対する前記画面切替イベントを認識すること
    を含む、請求項1乃至3のいずれかに記載のプログラム
  5. 前記切り替えることは、
    前記画面切替イベントによって、前記チャットルームを、深さ情報を有する3次元空間に変更して表示することと、
    前記3次元空間に対する所定のジェスチャによって前記3次元空間の深さを調節することと
    を含む、請求項1乃至4のいずれかに記載のプログラム
  6. 前記表現することは、
    前記会話相手の位置情報による移動速度や移動経路に基づいて前記会話相手の移動類型を区分し、該当の移動類型の移動状態アイコンを前記相手アイコンに隣接する位置に表示すること
    を含む、請求項に記載のプログラム
  7. 前記表現することは、
    前記会話相手から新規メッセージが受信される場合、前記新規メッセージを一定時間にわたり前記相手アイコンに隣接する位置に表示すること
    を含む、請求項1乃至6のいずれかに記載のプログラム
  8. 前記表現することは、
    前記会話相手から受信した新規メッセージが未確認メッセージとして処理される場合、前記未確認メッセージを示す識別子を前記相手アイコンに隣接する位置に表示すること
    を含む、請求項乃至のいずれかに記載のプログラム
  9. 前記表現することは、
    前記会話相手が利用中である他のサービスを示すアイコンを前記相手アイコンに隣接する位置に表示すること
    を含む、請求項乃至のいずれかに記載のプログラム
  10. 前記表現することは、
    前記3次元空間に対する前記ユーザの視線を追跡し、前記ユーザの視線に対応する会話相手が前記他のサービスで利用中のコンテンツを前記電子機器の出力装置から出力すること
    を含む、請求項に記載のプログラム
  11. 電子機器に実現されたチャットルーム表示システムであって、
    メモリ、および
    前記メモリに接続され、前記メモリに含まれるコンピュータ読み取り可能な命令を実行するように構成された少なくとも1つのプロセッサ
    を含み、
    前記少なくとも1つのプロセッサは、
    前記電子機器に表示されたチャットルームに対する画面切替イベントを認識するイベント認識部と、
    前記画面切替イベントによって前記チャットルームが3次元空間の形態で表示されるように画面を切り替える画面切替部と、
    前記チャットルームに含まれた少なくとも1つの会話相手と関連する状態情報を前記3次元空間上に出力する情報出力部と
    を備え、
    前記情報出力部は、
    前記電子機器の位置情報と前記会話相手の位置情報とに基づき、前記会話相手の位置情報の共有が前記電子機器のユーザに許容されている場合は、前記3次元空間上に、前記ユーザを示すユーザアイコンと前記会話相手を示す相手アイコンとの深さ情報によって前記ユーザと前記会話相手との距離を表現し、前記会話相手の位置情報の共有が前記ユーザに許容されていない場合は、深さ情報なしに、前記ユーザアイコンの周辺に相手アイコンを表示する
    チャットルーム表示システム。
  12. 前記画面切替部は、
    前記画面切替イベントによって、前記チャットルームを、深さ情報を有する3次元空間に変更して表示し、前記3次元空間に対する所定のジェスチャによって前記3次元空間の深さを調節する、
    請求項11に記載のチャットルーム表示システム。
  13. 前記情報出力部は、
    前記会話相手の位置情報による移動速度や移動経路に基づいて前記会話相手の移動類型を区分し、該当の移動類型の移動状態アイコンを前記相手アイコンに隣接する位置に表示する、
    請求項11に記載のチャットルーム表示システム。
  14. 前記情報出力部は、
    前記会話相手から新規メッセージが受信される場合、前記新規メッセージを一定時間にわたり前記相手アイコンに隣接する位置に表示する、
    請求項11乃至13のいずれかに記載のチャットルーム表示システム。
  15. 前記情報出力部は、
    前記会話相手から受信した新規メッセージが未確認メッセージとして処理される場合、前記未確認メッセージを示す識別子を前記相手アイコンに隣接する位置に表示する、
    請求項11乃至14のいずれかに記載のチャットルーム表示システム。
  16. 前記情報出力部は、
    前記会話相手が利用中である他のサービスを示すアイコンを前記相手アイコンに隣接する位置に表示する、
    請求項11乃至15のいずれかに記載のチャットルーム表示システム。
  17. 前記情報出力部は、
    前記3次元空間に対する前記ユーザの視線を追跡し、前記ユーザの視線に対応する会話相手が前記他のサービスで利用中のコンテンツを前記電子機器の出力装置から出力する、
    請求項16に記載のチャットルーム表示システム。
JP2020542728A 2018-02-08 2018-02-08 チャットルームを3次元形態で提供する方法、システム、および非一時なコンピュータ読み取り可能な記録媒体 Active JP7127138B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2018/001702 WO2019156263A1 (ko) 2018-02-08 2018-02-08 대화방을 3차원 형태로 제공하는 방법과 시스템 및 비-일시적인 컴퓨터 판독 가능한 기록 매체

Publications (2)

Publication Number Publication Date
JP2021515925A JP2021515925A (ja) 2021-06-24
JP7127138B2 true JP7127138B2 (ja) 2022-08-29

Family

ID=67549484

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020542728A Active JP7127138B2 (ja) 2018-02-08 2018-02-08 チャットルームを3次元形態で提供する方法、システム、および非一時なコンピュータ読み取り可能な記録媒体

Country Status (5)

Country Link
US (2) US11392262B2 (ja)
JP (1) JP7127138B2 (ja)
KR (1) KR102582745B1 (ja)
CN (1) CN111630556A (ja)
WO (1) WO2019156263A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11871151B2 (en) * 2021-09-10 2024-01-09 Zoom Video Communications, Inc. Spatialized display of chat messages
US20230082002A1 (en) * 2021-09-10 2023-03-16 Zoom Video Communications, Inc. Spatial chat view

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001160022A (ja) 1999-12-03 2001-06-12 Tafu:Kk チャットシステム、チャット制御方法およびプログラムを記録した記録媒体
JP2013175929A (ja) 2012-02-24 2013-09-05 Nikon Corp 情報出力装置、及び情報出力方法
WO2016002331A1 (ja) 2014-07-03 2016-01-07 ソニー株式会社 情報処理装置、情報処理方法およびコンテンツ共有システム
US20160192315A1 (en) 2014-12-31 2016-06-30 Line Corporation Apparatuses, methods, and recording mediums for providing location sharing services
JP2017004297A (ja) 2015-06-11 2017-01-05 株式会社コロプラ コンピュータ・プログラム
JP2017527917A (ja) 2014-09-05 2017-09-21 ソ ヤン チャン キャラクターを利用するメッセージサービス方法、前記方法を行うユーザ端末、前記方法を含むメッセージアプリケーション

Family Cites Families (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6753857B1 (en) * 1999-04-16 2004-06-22 Nippon Telegraph And Telephone Corporation Method and system for 3-D shared virtual environment display communication virtual conference and programs therefor
US6772195B1 (en) * 1999-10-29 2004-08-03 Electronic Arts, Inc. Chat clusters for a virtual world application
US6559863B1 (en) * 2000-02-11 2003-05-06 International Business Machines Corporation System and methodology for video conferencing and internet chatting in a cocktail party style
KR20020074304A (ko) 2001-03-20 2002-09-30 엘지전자주식회사 무선 통신망을 이용한 휴대 단말기의 모바일 메신저서비스 시스템 및 방법
US7124372B2 (en) * 2001-06-13 2006-10-17 Glen David Brin Interactive communication between a plurality of users
US20050086605A1 (en) * 2002-08-23 2005-04-21 Miguel Ferrer Method and apparatus for online advertising
US7386799B1 (en) * 2002-11-21 2008-06-10 Forterra Systems, Inc. Cinematic techniques in avatar-centric communication during a multi-user online simulation
US20050060377A1 (en) * 2003-09-12 2005-03-17 Chen Chien Lo Transitory messaging with location information
US7231209B2 (en) * 2005-04-20 2007-06-12 Nokia Corporation Radio system, terminal device, computer program product, and method of defining availability of queried devices
GB0609070D0 (en) * 2006-05-09 2006-06-14 Ibm Postponing an instant messaging session
US20080086458A1 (en) * 2006-09-15 2008-04-10 Icebreaker, Inc. Social interaction tagging
US20090265642A1 (en) * 2008-04-18 2009-10-22 Fuji Xerox Co., Ltd. System and method for automatically controlling avatar actions using mobile sensors
US10356136B2 (en) * 2012-10-19 2019-07-16 Sococo, Inc. Bridging physical and virtual spaces
GB2467577A (en) * 2009-02-06 2010-08-11 Sony Corp Handheld electronic device configured to display location of another electronic device when tilted
JP2010272973A (ja) * 2009-05-19 2010-12-02 Sharp Corp ネットワークシステム、通信端末、通信方法、および通信プログラム
US8144633B2 (en) * 2009-09-22 2012-03-27 Avaya Inc. Method and system for controlling audio in a collaboration environment
KR101193535B1 (ko) * 2009-12-22 2012-10-22 주식회사 케이티 증강현실을 이용한 위치기반 모바일 커뮤니케이션 서비스 제공 시스템
JP5363448B2 (ja) * 2010-10-28 2013-12-11 株式会社スクウェア・エニックス パーティチャットシステム,パーティチャットシステム用プログラム,及び情報記録媒体
KR101324336B1 (ko) * 2010-12-28 2013-10-31 주식회사 팬택 증강 현실 제공 단말기
US20120257035A1 (en) * 2011-04-08 2012-10-11 Sony Computer Entertainment Inc. Systems and methods for providing feedback by tracking user gaze and gestures
US20130028443A1 (en) * 2011-07-28 2013-01-31 Apple Inc. Devices with enhanced audio
IL214855A0 (en) * 2011-08-28 2011-10-31 Arnon Joseph A method and device for carrying out a computerized group session
KR101861275B1 (ko) * 2011-12-06 2018-05-25 엘지전자 주식회사 이동 단말기 및 그의 3d영상 제어방법
CN103135889B (zh) * 2011-12-05 2017-06-23 Lg电子株式会社 移动终端及其3d图像控制方法
KR101882267B1 (ko) * 2012-02-15 2018-07-26 엘지전자 주식회사 이동 단말기 및 그 제어방법
US20150319203A1 (en) * 2012-05-17 2015-11-05 Leo Jeremias Computer system and methods for chat enabled online search
US9031543B2 (en) * 2012-06-06 2015-05-12 Qualcomm Incorporated Visualization of network members based on location and direction
JP5937992B2 (ja) * 2012-06-25 2016-06-22 株式会社コナミデジタルエンタテインメント メッセージ閲覧システム、サーバ、端末装置、制御方法およびプログラム
KR102008916B1 (ko) * 2012-09-07 2019-08-08 삼성전자주식회사 미확인 콘텐츠 표시 방법 및 그 전자 장치
KR101359960B1 (ko) * 2012-10-21 2014-02-11 에스케이플래닛 주식회사 메신저 제어 방법을 위한 기록 매체, 이를 위한 장치 및 시스템
KR102058043B1 (ko) * 2012-12-20 2019-12-20 엘지전자 주식회사 영상표시장치, 및 그 동작방법
KR20140108436A (ko) * 2013-02-27 2014-09-11 주식회사 멀틱스 증강현실을 이용한 소셜네트워크형 운동 게임 시스템 및 방법
US9240075B2 (en) * 2013-03-15 2016-01-19 Daqri, Llc Campaign optimization for experience content dataset
US9224290B1 (en) * 2013-04-18 2015-12-29 Amazon Technologies, Inc. Presence-based device operation
US9645221B1 (en) * 2013-12-17 2017-05-09 Booie LLC Communication system and method
CN103812931B (zh) * 2014-01-24 2015-07-29 腾讯科技(深圳)有限公司 一种用户信息共享方法、装置及系统
WO2015133777A1 (ko) * 2014-03-07 2015-09-11 이혜근 소셜 네트워크 서비스 제공 방법 및 장치
KR20150105719A (ko) * 2014-03-10 2015-09-18 에스케이플래닛 주식회사 이동 정보 기반의 메신저 서비스 제공 방법, 이를 위한 시스템 및 장치
CN104123333B (zh) * 2014-03-17 2017-02-15 腾讯科技(深圳)有限公司 用于位置共享的数据处理方法和装置
KR20150128482A (ko) * 2014-05-09 2015-11-18 삼성전자주식회사 전자 장치들 간의 연동 서비스 운용 방법 및 장치
US20150341472A1 (en) * 2014-05-20 2015-11-26 Jason Russell Yanofski System for real-time, graphics-based web communication using HTML 5 WebSockets
US11144959B2 (en) * 2014-12-18 2021-10-12 Google Llc Methods, systems, and media for presenting advertisements relevant to nearby users on a public display device
US9967320B2 (en) * 2014-12-18 2018-05-08 Google Llc Methods, systems, and media for controlling information used to present content on a public display device
US10104023B2 (en) * 2015-04-16 2018-10-16 Oath Inc. Location sharing
CN105162678B (zh) * 2015-07-07 2022-03-11 腾讯科技(深圳)有限公司 语音聊天的模式自适应方法及装置
JP2017027443A (ja) * 2015-07-24 2017-02-02 Line株式会社 コンテンツ識別子による別のコンテンツを提供するシステム及びその方法
KR20170030421A (ko) * 2015-09-09 2017-03-17 주식회사 아이티엑스엠투엠 가상 카메라를 이용한 개인화된 쇼핑몰 시스템
CN106559311B (zh) * 2015-09-29 2020-12-04 腾讯科技(深圳)有限公司 一种通讯控制方法和通讯终端
US9990108B2 (en) * 2016-03-29 2018-06-05 Cisco Technology, Inc. Read activity of chat rooms
KR20170111810A (ko) * 2016-03-29 2017-10-12 삼성전자주식회사 전자 장치의 위치 정보 기반 메신저 운영 방법 및 장치
US10099122B2 (en) * 2016-03-30 2018-10-16 Sony Interactive Entertainment Inc. Head-mounted display tracking
KR101839113B1 (ko) * 2016-03-30 2018-03-16 (주)퓨처젠 다중 접속을 통하여 다수의 훈련자의 개별적인 가상훈련공간의 인식과 공유된 가상작업공간에서 집단적이며 조직적인 협력훈련이 가능한 몰입식 네트워크 가상훈련 시스템의 클라이언트 시스템을 구성하는 네트워크 가상훈련 처리장치 및 이를 이용한 몰입식 네트워크 가상훈련 방법.
US20180005324A1 (en) * 2016-06-30 2018-01-04 Quippy, Inc. Arbitrary badging in a social network
WO2018026893A1 (en) * 2016-08-03 2018-02-08 Google Llc Methods and systems for determining positional data for three-dimensional interactions inside virtual reality environments
US10305850B1 (en) * 2016-11-15 2019-05-28 Majid Aziz Enhanced instant messaging social network system
IL256693B2 (en) * 2017-05-27 2023-05-01 Segal Efraim A system and method for managing an online group
US10901687B2 (en) * 2018-02-27 2021-01-26 Dish Network L.L.C. Apparatus, systems and methods for presenting content reviews in a virtual world
KR102574151B1 (ko) * 2018-03-14 2023-09-06 스냅 인코포레이티드 위치 정보에 기초한 수집가능한 항목들의 생성
US10874005B2 (en) * 2018-09-04 2020-12-22 Lutron Technology Company Llc Communicating with and controlling load control systems
US10636211B1 (en) * 2018-10-05 2020-04-28 The Toronto-Dominion Bank System and method for remotely indicating vehicular damage
US20200244809A1 (en) * 2019-01-30 2020-07-30 Letstalk Technology Limited Method of automatically playing a voice message, and smart phone and computer program product implementing the same
US10656797B1 (en) * 2019-02-06 2020-05-19 Snap Inc. Global event-based avatar
KR20200131478A (ko) * 2019-05-14 2020-11-24 라인플러스 주식회사 위치를 기반으로 대화방의 가입을 제어하는 방법, 시스템, 및 비-일시적인 컴퓨터 판독가능한 기록 매체
US20210200426A1 (en) * 2019-12-27 2021-07-01 Snap Inc. Expressive user icons in a map-based messaging system interface
JP2023515796A (ja) * 2020-02-20 2023-04-14 マジック リープ, インコーポレイテッド Wifi/gpsベースのマップマージを伴うクロスリアリティシステム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001160022A (ja) 1999-12-03 2001-06-12 Tafu:Kk チャットシステム、チャット制御方法およびプログラムを記録した記録媒体
JP2013175929A (ja) 2012-02-24 2013-09-05 Nikon Corp 情報出力装置、及び情報出力方法
WO2016002331A1 (ja) 2014-07-03 2016-01-07 ソニー株式会社 情報処理装置、情報処理方法およびコンテンツ共有システム
JP2017527917A (ja) 2014-09-05 2017-09-21 ソ ヤン チャン キャラクターを利用するメッセージサービス方法、前記方法を行うユーザ端末、前記方法を含むメッセージアプリケーション
US20160192315A1 (en) 2014-12-31 2016-06-30 Line Corporation Apparatuses, methods, and recording mediums for providing location sharing services
JP2017004297A (ja) 2015-06-11 2017-01-05 株式会社コロプラ コンピュータ・プログラム

Also Published As

Publication number Publication date
JP2021515925A (ja) 2021-06-24
US20220300144A1 (en) 2022-09-22
US11392262B2 (en) 2022-07-19
KR102582745B1 (ko) 2023-09-25
US20200356236A1 (en) 2020-11-12
CN111630556A (zh) 2020-09-04
KR20200108272A (ko) 2020-09-17
WO2019156263A1 (ko) 2019-08-15

Similar Documents

Publication Publication Date Title
US11782595B2 (en) User terminal device and control method thereof
CN107005739B (zh) 用于基于语音的设备的外部视觉交互
JP7164987B2 (ja) 映像通話を利用した道案内方法およびシステム
US20220300144A1 (en) Method, system, and non-transitory computer readable record medium for providing chatroom in 3d form
JP2020119565A (ja) メッセンジャー内のプラットフォームに追加されたアプリケーションを用いてチャットルームで情報を共有する方法、システム、およびコンピュータプログラム
KR20140024005A (ko) 단거리에서 다중 회전을 수행하기 위한 지원을 갖는 네비게이션 시스템
JP2019048043A (ja) 映像通話およびオブジェクト認識を基盤としたゲーム提供方法およびシステム
AU2013344629A1 (en) System and method for negotiating control of a shared audio or visual resource
WO2020221160A1 (zh) 用于呈现背景的方法和装置
CN109844709B (zh) 用于呈现信息的方法和计算机化系统
US10375619B2 (en) Methods and systems for managing mobile devices with reference points
JP2022169565A (ja) プロフィール写真を推薦する方法とシステム、および非一時的なコンピュータ読み取り可能な記録媒体
KR20190120122A (ko) 영상 통화를 이용한 길안내 방법 및 시스템
CN111682983B (zh) 界面显示方法、装置、终端及服务器
US11770356B2 (en) Method and device for providing location based avatar messenger service
US20220263781A1 (en) Method and system for managing avatar usage rights
JP2021103520A (ja) ジェスチャーを利用して対話メッセージに感情を表現する方法、システム、およびコンピュータプログラム
WO2016069286A1 (en) Application level audio connection and streaming
JP7165251B2 (ja) メッセージングサービス環境におけるコンテンツ共有のためのインタラクション方法およびシステム
US11638043B2 (en) Method for establishing co-hosting in live-streaming, and terminal
KR101488096B1 (ko) 단말 간 위치 공유하는 방법 및 단말
US20220391046A1 (en) Method and system for exposing online content
US11722640B2 (en) Application processing method for providing group video call
JP7016956B2 (ja) メッセージングサービス環境におけるインタラクション方法およびシステム
KR102512879B1 (ko) 미디어 플레이어를 제어하는 방법 및 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220719

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220817

R150 Certificate of patent or registration of utility model

Ref document number: 7127138

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150