JP7165251B2 - Interaction method and system for content sharing in messaging service environment - Google Patents

Interaction method and system for content sharing in messaging service environment Download PDF

Info

Publication number
JP7165251B2
JP7165251B2 JP2021189148A JP2021189148A JP7165251B2 JP 7165251 B2 JP7165251 B2 JP 7165251B2 JP 2021189148 A JP2021189148 A JP 2021189148A JP 2021189148 A JP2021189148 A JP 2021189148A JP 7165251 B2 JP7165251 B2 JP 7165251B2
Authority
JP
Japan
Prior art keywords
camera
input
user
electronic device
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021189148A
Other languages
Japanese (ja)
Other versions
JP2022028842A (en
Inventor
イ,ジョンヨン
チェー,ヨンヒョン
チョウ,キョンジュン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Line Corp
Original Assignee
Line Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020532600A external-priority patent/JP6983320B2/en
Application filed by Line Corp filed Critical Line Corp
Priority to JP2021189148A priority Critical patent/JP7165251B2/en
Publication of JP2022028842A publication Critical patent/JP2022028842A/en
Application granted granted Critical
Publication of JP7165251B2 publication Critical patent/JP7165251B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

以下の説明は、メッセージングサービス環境におけるコンテンツ共有のためのインタラクション方法およびシステムに関し、より詳細には、コンピュータに保存された写真だけでなく、ユーザがアクセスしたファイルやメディア、ネットワークアドレスまたは地理的位置情報などをメッセージングサービス上で簡単に共有することができるインタラクション方法、前記インタラクション方法を実行するコンピュータ装置、コンピュータと結合してインタラクション方法をコンピュータに実行させるためにコンピュータ読み取り可能な記録媒体に記録されたコンピュータプログラムとその記録媒体に関する。 The following description relates to an interaction method and system for content sharing in a messaging service environment, more specifically, not only photos stored on a computer, but also files and media accessed by users, network addresses or geographic location information. etc. on a messaging service, a computer device for executing the interaction method, and a computer recorded on a computer-readable recording medium in order to combine with the computer and cause the computer to execute the interaction method. It relates to a program and its recording medium.

メッセージングサービスとは、相互作用式サービスまたは会話式サービスの1つであって、蓄積型の電子メール私書箱の運用や、情報の編集、処理、変換などのようなメッセージ処理機能を有する記憶装置によってユーザ対ユーザの端末通信サービスを提供するものであり、電子メールサービスやメッセージ通信処理サービス(一例として、メッセンジャーを利用したチャット)などがこれに該当する。 A messaging service is an interactive service or a conversational service that enables users to communicate with users through a storage device that has message processing functions such as the operation of stored e-mail post office boxes and the editing, processing, and conversion of information. It provides user-to-user terminal communication services, such as e-mail services and message communication processing services (for example, chat using messenger).

このような従来技術のメッセージングサービスにおいて、ユーザが自身の端末機のカメラで写真を撮影して送信するためには、ユーザがメッセージングサービスから提供されるユーザインタフェースを利用しながら、カメラを起動するための操作、起動したカメラで写真を撮影する操作、撮影した写真をメッセージングサービスに添付して送信する操作などのような複雑な過程を経なければならないという問題がある。 In such a conventional messaging service, in order for the user to take a picture with the camera of his/her own terminal and send it, the user activates the camera while using the user interface provided by the messaging service. , taking a picture with the activated camera, and sending the taken picture attached to the messaging service.

また、端末機に保存済みの写真やファイル、またはユーザがアクセスしたメディアなどの情報をメッセージングサービスで送信する場合にも、ユーザがメッセージングサービスから提供されるユーザインタフェースを利用しながら、写真やファイルが保存されている保存場所にアクセスして希望する写真やファイルを選んでメッセージングサービスに添付したり、ユーザがアクセスしたメディアのアドレスや関連アプリケーションのリンクなどを検索してメッセージングサービスに添付したりするような複雑な過程を経なければならないという問題がある。 In addition, when sending information such as photos and files stored in the terminal or media accessed by the user using the messaging service, the user can use the user interface provided by the messaging service to send the photos and files. It is possible to access the saved storage location, select the desired photos and files and attach them to the messaging service, or search for the address of the media accessed by the user or the link of the related application and attach it to the messaging service. However, there is the problem of having to go through a complicated process.

スマートフォンのようなカメラを含むコンピュータで提供されるメッセージングサービス環境において、ユーザが簡単にカメラで写真を撮影して共有することができるインタラクション方法、前記インタラクション方法を実行するコンピュータ装置、コンピュータと結合してインタラクション方法をコンピュータに実行させるためにコンピュータ読み取り可能な記録媒体に記録されたコンピュータプログラムとその記録媒体を提供する。 In a messaging service environment provided by a computer including a camera such as a smartphone, an interaction method that allows a user to easily take and share photos with a camera, a computer device that executes the interaction method, and a computer that performs the interaction method. Provided are a computer program recorded in a computer-readable recording medium and the recording medium for causing a computer to execute an interaction method.

コンピュータに保存された写真だけでなく、ユーザがアクセスしたファイルやメディア、ネットワークアドレスまたは地理的位置情報などを、メッセージングサービス上で簡単に共有することができるインタラクション方法、前記インタラクション方法を実行するコンピュータ装置、コンピュータと結合してインタラクション方法をコンピュータに実行させるためにコンピュータ読み取り可能な記録媒体に記録されたコンピュータプログラムとその記録媒体に関する。 An interaction method for easily sharing not only photos stored in a computer but also files and media accessed by users, network addresses or geographical location information on a messaging service, and a computer device for executing the interaction method. , relates to a computer program recorded on a computer-readable recording medium for connecting with a computer and causing the computer to execute an interaction method, and the recording medium.

メッセージングサービスと関連してコンピュータにインストールされて前記コンピュータで実行されたアプリケーションに基づき、前記コンピュータの画面上にメッセージングインタフェースを提供する段階、前記メッセージングインタフェースに設定された第1領域でユーザ入力が認識されることに応答し、前記コンピュータに保存された複数のコンテンツにアクセスする段階、前記ユーザ入力の認識が第2領域で維持されることに基づき、前記複数のコンテンツのうちの1つのコンテンツを前記メッセージングインタフェース上に表示するが、前記第2領域で前記ユーザ入力が認識される位置に基づき、前記複数のコンテンツのうちから1つのコンテンツを選択して表示する段階、および前記ユーザ入力が認識される位置が前記第2領域を逸脱することに基づき、前記複数のコンテンツのうち、前記メッセージングインタフェース上に表示中のコンテンツを前記メッセージングサービスで送信する段階を含む、インタラクション方法を提供する。 providing a messaging interface on a screen of the computer based on an application installed on the computer and running on the computer in connection with a messaging service, recognizing user input in a first region set in the messaging interface; in response to accessing a plurality of content stored on the computer, based on the recognition of the user input being maintained in a second region, the messaging of one of the plurality of content; Displaying on an interface, selecting and displaying one content from the plurality of contents based on a position where the user input is recognized in the second area; and a position where the user input is recognized. of the plurality of contents, which is being displayed on the messaging interface, is transmitted by the messaging service based on deviation of the second region.

コンピュータと結合して前記インタラクション方法をコンピュータに実行させるためのコンピュータプログラムを提供する。 A computer program is provided, which is combined with a computer and causes the computer to execute the interaction method.

前記インタラクション方法をコンピュータに実行させるためのプログラムが記録されていることを特徴とする、コンピュータ読み取り可能な記録媒体を提供する。 A computer-readable recording medium is provided, characterized by recording a program for causing a computer to execute the interaction method.

コンピュータ装置であって、コンピュータ読み取り可能な命令を実行するように実現される少なくとも1つのプロセッサを含み、前記1つのプロセッサは、メッセージングサービスと関連してコンピュータにインストールされてコンピュータで実行されたアプリケーションに基づき、前記コンピュータの画面上にメッセージングインタフェースを提供し、前記メッセージングインタフェースに設定された第1領域でユーザ入力を認識することに応答し、前記コンピュータに保存された複数のコンテンツにアクセスし、前記ユーザ入力の認識が第2領域で維持されることに基づき、前記複数のコンテンツのうちの1つのコンテンツを前記メッセージングインタフェース上に表示するが、前記第2領域で前記ユーザ入力が認識される位置に基づき、前記複数のコンテンツのうちから1つのコンテンツを選択して表示し、前記ユーザ入力が認識される位置が前記第2領域を逸脱することに基づき、前記複数のコンテンツのうち、前記メッセージングインタフェース上に表示中のコンテンツを前記メッセージングサービスで送信することを特徴とする、コンピュータ装置を提供する。 1. A computing device comprising at least one processor implemented to execute computer readable instructions, said one processor being adapted to an application installed and executed on a computer in connection with a messaging service. providing a messaging interface on a screen of said computer, responsive to recognizing user input in a first area configured in said messaging interface, accessing a plurality of content stored on said computer; Displaying content of the plurality of content on the messaging interface based on recognition of input being maintained in a second region, but based on the position at which the user input is recognized in the second region. selecting and displaying one content from the plurality of contents, and displaying one of the plurality of contents on the messaging interface based on the fact that the position where the user input is recognized deviates from the second area; A computer device is provided, characterized in that the content being displayed is transmitted by the messaging service.

スマートフォンのようなカメラを含むコンピュータで提供されるメッセージングサービス環境において、ユーザが簡単にカメラで写真を撮影して共有することができる。 In a messaging service environment provided by a computer including a camera such as a smart phone, a user can easily take a picture with a camera and share the picture.

コンピュータに保存された写真だけでなく、ユーザがアクセスしたファイルやメディア、ネットワークアドレスまたは地理的位置情報などを、メッセージングサービス上で簡単に共有することができる。 You can easily share not only photos stored on your computer, but also files and media accessed by users, network addresses or geographic location information on messaging services.

本発明の一実施形態における、ネットワーク環境の例を示した図である。1 is a diagram showing an example of a network environment in one embodiment of the present invention; FIG. 本発明の一実施形態における、電子機器およびサーバの内部構成を説明するためのブロック図である。1 is a block diagram for explaining internal configurations of an electronic device and a server in one embodiment of the present invention; FIG. 本発明の一実施形態における、カメラを起動するためのユーザインタフェース領域をユーザがロングプレスタッチする例を示した図である。FIG. 10 is a diagram showing an example of a user long press-touching a user interface area for activating a camera in one embodiment of the present invention; 本発明の一実施形態における、メッセージングサービスのためのメッセージングインタフェース上に、インカメラに入力されるイメージを表示する例を示した図である。FIG. 4 is a diagram illustrating an example of displaying an image input to an in-camera on a messaging interface for a messaging service in one embodiment of the present invention; 本発明の一実施形態における、ユーザ入力が認識される位置が移動することにより、メッセージングインタフェース上に表示されたインカメライメージが移動される例を示した図である。FIG. 10 is a diagram showing an example in which an in-camera image displayed on the messaging interface is moved by moving the position where user input is recognized, according to an embodiment of the present invention; 本発明の一実施形態における、インカメライメージを送信する例を示した図である。It is the figure which showed the example which transmits an in-camera image in one Embodiment of this invention. 本発明の一実施形態における、メッセージングインタフェース上に表示されるイメージを、インカメラに入力されるイメージからアウトカメラに入力されるイメージに変更する例を示した図である。FIG. 10 is a diagram showing an example of changing an image displayed on the messaging interface from an image input through the in-camera to an image input through the out-camera in one embodiment of the present invention. 本発明の一実施形態における、メッセージングインタフェース上に表示されるイメージを、アウトカメラに入力されるイメージからインカメラに入力されるイメージに変更する例を示した図である。FIG. 10 is a diagram showing an example of changing an image displayed on the messaging interface from an image input through the out-camera to an image input through the in-camera in one embodiment of the present invention. 本発明の一実施形態における、アウトカメライメージを送信する例を示した図である。It is the figure which showed the example which transmits an out-camera image in one Embodiment of this invention. 本発明の一実施形態における、インタラクション方法の例を示したフローチャートである。1 is a flowchart illustrating an example of an interaction method, according to an embodiment of the present invention; 本発明の他の実施形態における、アルバムに保存された写真をロードするためのユーザインタフェース領域をユーザがロングプレスタッチする例を示した図である。FIG. 10 is a diagram showing an example of a user long press-touching a user interface area for loading photos stored in an album according to another embodiment of the present invention; 本発明の他の実施形態における、メッセージングサービスのためのメッセージングインタフェース上に、アルバムに保存された写真が表示される例を示した図である。FIG. 11 illustrates an example of displaying photos stored in an album on a messaging interface for a messaging service, according to another embodiment of the present invention; 本発明の他の実施形態における、ユーザ入力が認識される位置が移動することにより、メッセージングインタフェース上に表示される写真が順に変更される例を示した図である。FIG. 10 is a diagram showing an example of changing the order of photos displayed on the messaging interface by moving the position where user input is recognized, according to another embodiment of the present invention. 本発明の他の実施形態における、ユーザ入力が認識される位置が移動することにより、メッセージングインタフェース上に表示される写真が順に変更される例を示した図である。FIG. 10 is a diagram showing an example of changing the order of photos displayed on the messaging interface by moving the position where user input is recognized, according to another embodiment of the present invention; 本発明の他の実施形態における、現在表示中の写真を送信する例を示した図である。FIG. 10 is a diagram showing an example of sending a currently displayed photograph in another embodiment of the present invention; 本発明の他の実施形態における、追加コンテンツを送信するためのユーザインタフェースの例を示した図である。FIG. 10 is a diagram showing an example of a user interface for sending additional content in another embodiment of the present invention; 本発明の他の実施形態における、追加コンテンツを送信するためのユーザインタフェースの例を示した図である。FIG. 10 is a diagram showing an example of a user interface for sending additional content in another embodiment of the present invention; 本発明の他の実施形態における、追加コンテンツを送信するためのユーザインタフェースの例を示した図である。FIG. 10 is a diagram showing an example of a user interface for sending additional content in another embodiment of the present invention; 本発明の他の実施形態における、追加コンテンツを送信するためのユーザインタフェースの例を示した図である。FIG. 10 is a diagram showing an example of a user interface for sending additional content in another embodiment of the present invention; 本発明の他の実施形態における、追加コンテンツを送信するためのユーザインタフェースの例を示した図である。FIG. 10 is a diagram showing an example of a user interface for sending additional content in another embodiment of the present invention; 本発明の他の実施形態における、インタラクション方法の例を示したフローチャートである。FIG. 4 is a flow chart showing an example of an interaction method according to another embodiment of the present invention; FIG.

以下、本発明の実施形態について、添付の図面を参照しながら詳細に説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

本発明の実施形態に係るインタラクション方法は、以下で説明される電子機器のようなコンピュータ装置によって実行されてよい。このとき、コンピュータ装置においては、本発明の一実施形態に係るコンピュータプログラム(一例として、メッセージングサービスのためのメッセンジャーアプリケーション)がインストールされて実行されてよく、コンピュータ装置は、実行されるコンピュータプログラムの制御に従って本発明の実施形態に係るインタラクション方法を実行してよい。上述したコンピュータプログラムは、コンピュータ装置と結合してインタラクション方法をコンピュータに実行させるためにコンピュータ読み取り可能な記録媒体に記録されてよい。 Interaction methods according to embodiments of the present invention may be performed by computing devices, such as the electronic devices described below. At this time, a computer program according to an embodiment of the present invention (for example, a messenger application for a messaging service) may be installed and executed on the computer device, and the computer device may control the executed computer program. The interaction method according to embodiments of the present invention may be performed according to. The computer program described above may be recorded in a computer-readable recording medium in order to combine with a computer device and cause the computer to execute the interaction method.

図1は、本発明の一実施形態における、ネットワーク環境の例を示した図である。図1のネットワーク環境は、複数の電子機器110、120、130、140、複数のサーバ150、160、およびネットワーク170を含む例を示している。このような図1は、発明の説明のための一例に過ぎず、電子機器の数やサーバの数が図1のように限定されることはない。 FIG. 1 is a diagram showing an example of a network environment in one embodiment of the present invention. The network environment of FIG. 1 illustrates an example including multiple electronic devices 110 , 120 , 130 , 140 , multiple servers 150 , 160 , and a network 170 . Such FIG. 1 is merely an example for explaining the invention, and the number of electronic devices and the number of servers are not limited as in FIG.

複数の電子機器110、120、130、140は、コンピュータ装置によって実現される固定端末や移動端末であってよい。複数の電子機器110、120、130、140の例としては、スマートフォン、携帯電話、ナビゲーション、PC(personal computer)、ノート型PC、デジタル放送用端末、PDA(Personal Digital Assistant)、PMP(Portable Multimedia Player)、タブレットなどがある。一例として、図1では、電子機器1(110)の例としてスマートフォンを示しているが、本発明の実施形態において、電子機器1(110)は、実質的に無線または有線通信方式を利用し、ネットワーク170を介して他の電子機器120、130、140および/またはサーバ150、160と通信することのできる多様な物理的なコンピュータ装置のうちの1つを意味してよい。 The plurality of electronic devices 110, 120, 130, 140 may be fixed terminals or mobile terminals implemented by computing devices. Examples of the plurality of electronic devices 110, 120, 130, and 140 include smartphones, mobile phones, navigation systems, PCs (personal computers), notebook PCs, digital broadcasting terminals, PDAs (Personal Digital Assistants), and PMPs (Portable Multimedia Players). ), tablets, etc. As an example, FIG. 1 shows a smartphone as an example of the electronic device 1 (110). It may refer to one of a variety of physical computing devices capable of communicating with other electronic devices 120 , 130 , 140 and/or servers 150 , 160 via network 170 .

通信方式が限定されることはなく、ネットワーク170が含むことのできる通信網(一例として、移動通信網、有線インターネット、無線インターネット、放送網)を利用する通信方式だけではなく、機器間の近距離無線通信が含まれてもよい。例えば、ネットワーク170は、PAN(personal area network)、LAN(local area network)、CAN(campus area network)、MAN(metropolitan area network)、WAN(wide area network)、BBN(broadband network)、インターネットなどのネットワークのうちの1つ以上の任意のネットワークを含んでよい。さらに、ネットワーク170は、バスネットワーク、スターネットワーク、リングネットワーク、メッシュネットワーク、スター-バスネットワーク、ツリーまたは階層的ネットワークなどを含むネットワークトポロジのうちの任意の1つ以上を含んでもよいが、これらに限定されることはない。 The communication method is not limited, and not only the communication method using the communication network that can be included in the network 170 (eg, mobile communication network, wired Internet, wireless Internet, broadcasting network), but also the short distance between devices. Wireless communication may be included. For example, the network 170 includes a PAN (personal area network), a LAN (local area network), a CAN (campus area network), a MAN (metropolitan area network), a WAN (wide area network), a BBN (broadband network), and the Internet. Any one or more of the networks may be included. Additionally, network 170 may include any one or more of network topologies including, but not limited to, bus networks, star networks, ring networks, mesh networks, star-bus networks, tree or hierarchical networks, and the like. will not be

サーバ150、160それぞれは、複数の電子機器110、120、130、140とネットワーク170を介して通信して命令、コード、ファイル、コンテンツ、サービスなどを提供する1つ以上のコンピュータ装置によって実現されてよい。例えば、サーバ150は、ネットワーク170を介して接続した複数の電子機器110、120、130、140に第1サービスを提供するシステムであってよく、サーバ160も、ネットワーク170を介して接続した複数の電子機器110、120、130、140に第2サービスを提供するシステムであってよい。より具体的な例として、サーバ150は、複数の電子機器110、120、130、140においてインストールされて実行されるコンピュータプログラムであるアプリケーションを通じ、該当のアプリケーションが目的とするサービス(一例として、放送配信サービス、コンテンツ送信サービス、情報提供サービス、メッセージングサービス、メールサービスなど)を第1サービスとして複数の電子機器110、120、130、140に提供してよい。他の例として、サーバ160は、上述したアプリケーションのインストールおよび実行のためのファイルを複数の電子機器110、120、130、140に配布するサービスを第2サービスとして提供してよい。 Each of servers 150, 160 is implemented by one or more computing devices that communicate with a plurality of electronic devices 110, 120, 130, 140 over network 170 to provide instructions, code, files, content, services, etc. good. For example, the server 150 may be a system that provides a first service to a plurality of electronic devices 110, 120, 130, 140 connected via the network 170, and the server 160 may also be a system that provides a plurality of electronic devices connected via the network 170. It may be a system that provides the second service to the electronic devices 110 , 120 , 130 , 140 . As a more specific example, the server 150 provides a service (for example, broadcast distribution service, content transmission service, information providing service, messaging service, mail service, etc.) may be provided to the plurality of electronic devices 110, 120, 130, 140 as the first service. As another example, the server 160 may provide, as a second service, a service of distributing files for installing and executing the applications described above to the plurality of electronic devices 110 , 120 , 130 , 140 .

図2は、本発明の一実施形態における、電子機器およびサーバの内部構成を説明するためのブロック図である。図2では、電子機器に対する例として電子機器1(110)の内部構成およびサーバ150の内部構成について説明する。また、他の電子機器120、130、140やサーバ160も、上述した電子機器1(110)またはサーバ150と同一または類似の内部構成を有してよい。 FIG. 2 is a block diagram for explaining internal configurations of an electronic device and a server in one embodiment of the present invention. In FIG. 2, the internal configuration of the electronic device 1 (110) and the internal configuration of the server 150 will be described as an example of the electronic device. Other electronic devices 120, 130, 140 and server 160 may also have the same or similar internal configurations as electronic device 1 (110) or server 150 described above.

電子機器1(110)およびサーバ150は、メモリ211、221、プロセッサ212、222、通信モジュール213、223、および入力/出力インタフェース214、224を含んでよい。メモリ211、221は、コンピュータ読み取り可能な記録媒体であって、RAM(random access memory)、ROM(read only memory)、およびディスクドライブのような永続的大容量記録装置を含んでよい。ここで、ROMやディスクドライブのような永続的大容量記録装置は、メモリ211、221とは区分される別の永続的記録装置として電子機器1(110)やサーバ150に含まれてもよい。また、メモリ211、221には、オペレーティングシステムと、少なくとも1つのプログラムコード(一例として、電子機器1(110)においてインストールされて実行されるブラウザや、特定のサービスの提供のために電子機器1(110)にインストールされたアプリケーションなどのためのコード)が記録されてよい。このようなソフトウェア構成要素は、メモリ211、221とは別のコンピュータ読み取り可能な記録媒体からロードされてよい。このような別のコンピュータ読み取り可能な記録媒体は、フロッピー(登録商標)ドライブ、ディスク、テープ、DVD/CD-ROMドライブ、メモリカードなどのコンピュータ読み取り可能な記録媒体を含んでよい。他の実施形態において、ソフトウェア構成要素は、コンピュータ読み取り可能な記録媒体ではない通信モジュール213、223を通じてメモリ211、221にロードされてもよい。例えば、少なくとも1つのプログラムは、開発者またはアプリケーションのインストールファイルを配布するファイル配布システム(一例として、上述したサーバ160)がネットワーク170を介して提供するファイルによってインストールされるコンピュータプログラム(一例として、上述したアプリケーション)に基づいてメモリ211、221にロードされてよい。 Electronic device 1 (110) and server 150 may include memory 211, 221, processors 212, 222, communication modules 213, 223, and input/output interfaces 214, 224. The memories 211, 221 are computer-readable storage media and may include random access memory (RAM), read only memory (ROM), and permanent mass storage devices such as disk drives. Here, a permanent large-capacity recording device such as a ROM or disk drive may be included in the electronic device 1 (110) or the server 150 as a separate permanent recording device separate from the memories 211 and 221. The memories 211 and 221 also store an operating system and at least one program code (for example, a browser installed and executed in the electronic device 1 (110), a browser installed in the electronic device 1 (110), and an electronic device 1 ( 110) may be recorded for applications installed in the system. Such software components may be loaded from a computer-readable medium separate from memories 211,221. Such other computer-readable recording media may include computer-readable recording media such as floppy drives, disks, tapes, DVD/CD-ROM drives, memory cards, and the like. In other embodiments, software components may be loaded into memory 211, 221 through communication modules 213, 223 that are not computer-readable media. For example, at least one program is a computer program (as an example, the above-mentioned may be loaded into the memory 211, 221 based on the application).

プロセッサ212、222は、基本的な算術、ロジック、および入出力演算を実行することにより、コンピュータプログラムの命令を処理するように構成されてよい。命令は、メモリ211、221または通信モジュール213、223によって、プロセッサ212、222に提供されてよい。例えば、プロセッサ212、222は、メモリ211、221のような記録装置に記録されたプログラムコードに従って受信される命令を実行するように構成されてよい。 Processors 212, 222 may be configured to process computer program instructions by performing basic arithmetic, logic, and input/output operations. Instructions may be provided to processors 212 , 222 by memory 211 , 221 or communication modules 213 , 223 . For example, processors 212 , 222 may be configured to execute instructions received according to program code stored in storage devices, such as memories 211 , 221 .

通信モジュール213、223は、ネットワーク170を介して電子機器1(110)とサーバ150とが互いに通信するための機能を提供してもよいし、電子機器1(110)および/またはサーバ150が他の電子機器(一例として、電子機器2(120))または他のサーバ(一例として、サーバ160)と通信するための機能を提供してもよい。一例として、電子機器1(110)のプロセッサ212がメモリ211のような記録装置に記録されたプログラムコードに従って生成した要求が、通信モジュール213の制御に従ってネットワーク170を介してサーバ150に伝達されてよい。これとは逆に、サーバ150のプロセッサ222の制御に従って提供される制御信号や命令、コンテンツ、ファイルなどが、通信モジュール223とネットワーク170を経て電子機器1(110)の通信モジュール213を通じて電子機器1(110)に受信されてよい。例えば、通信モジュール213を通じて受信されたサーバ150の制御信号や命令、コンテンツ、ファイルなどは、プロセッサ212やメモリ211に伝達されてよく、コンテンツやファイルなどは、電子機器1(110)がさらに含むことのできる記録媒体(上述した永続的記録装置)に記録されてよい。 Communication modules 213 and 223 may provide functions for electronic device 1 (110) and server 150 to communicate with each other via network 170, and electronic device 1 (110) and/or server 150 may communicate with each other. may provide functionality for communicating with other electronic devices (eg, electronic device 2 (120)) or other servers (eg, server 160). As an example, a request generated by the processor 212 of the electronic device 1 (110) according to program code recorded in a recording device such as the memory 211 may be transmitted to the server 150 via the network 170 under the control of the communication module 213. . Conversely, control signals, commands, contents, files, etc. provided under the control of the processor 222 of the server 150 are transmitted to the electronic device 1 through the communication module 213 of the electronic device 1 (110) via the communication module 223 and the network 170. (110) may be received. For example, control signals, commands, contents, files, etc. of the server 150 received through the communication module 213 may be transmitted to the processor 212 and the memory 211, and the contents, files, etc. may be further included in the electronic device 1 (110). may be recorded on a recording medium capable of recording (the permanent recording device described above).

入力/出力インタフェース214は、入力/出力装置215とのインタフェースのための手段であってよい。例えば、入力装置は、キーボードまたはマウスなどの装置を、出力装置は、ディスプレイやスピーカなどのような装置を含んでよい。他の例として、入力/出力インタフェース214は、タッチスクリーンのように入力と出力のための機能が1つに統合された装置とのインタフェースのための手段であってもよい。入力/出力装置215は、電子機器1(110)と1つの装置で構成されてもよい。また、サーバ150の入力/出力インタフェース224は、サーバ150に接続するかサーバ150が含むことのできる入力または出力のための装置(図示せず)とのインタフェースのための手段であってよい。より具体的な例として、電子機器1(110)のプロセッサ212がメモリ211にロードされたコンピュータプログラムの命令を処理するにあたり、サーバ150や電子機器2(120)が提供するデータを利用して構成されるサービス画面やコンテンツが、入力/出力インタフェース214を通じてディスプレイに表示されてよい。 Input/output interface 214 may be a means for interfacing with input/output devices 215 . For example, input devices may include devices such as keyboards or mice, and output devices may include devices such as displays, speakers, and the like. As another example, input/output interface 214 may be a means for interfacing with a device that integrates functionality for input and output, such as a touch screen. The input/output device 215 may consist of one device with electronic device 1 (110). Input/output interface 224 of server 150 may also be a means for interfacing with devices (not shown) for input or output that are connected to server 150 or that server 150 may include. As a more specific example, when the processor 212 of the electronic device 1 (110) processes the instructions of the computer program loaded into the memory 211, data provided by the server 150 and the electronic device 2 (120) are used. The service screens and content displayed may be displayed on the display through the input/output interface 214 .

また、他の実施形態において、電子機器1(110)およびサーバ150は、図2の構成要素よりも多くの構成要素を含んでもよい。しかし、大部分の従来技術的構成要素を明確に図に示す必要はない。例えば、電子機器1(110)は、上述した入力/出力装置215のうちの少なくとも一部を含むように実現されてもよいし、トランシーバ、GPS(Global Positioning System)モジュール、カメラ、各種センサ、データベースなどのような他の構成要素をさらに含んでもよい。より具体的な例として、電子機器1(110)がスマートフォンである場合、一般的にスマートフォンが含んでいる加速度センサやジャイロセンサ、カメラモジュール、物理的な各種ボタン、タッチパネルを利用したボタン、入力/出力ポート、振動のための振動器などのような多様な構成要素が、電子機器1(110)にさらに含まれるように実現されてよい。 Also, in other embodiments, electronic device 1 (110) and server 150 may include more components than those in FIG. However, most prior art components need not be explicitly shown in the figures. For example, electronic device 1 (110) may be implemented to include at least some of the input/output devices 215 described above, a transceiver, a GPS (Global Positioning System) module, a camera, various sensors, a database It may further include other components such as As a more specific example, when the electronic device 1 (110) is a smartphone, the acceleration sensor, gyro sensor, camera module, various physical buttons, buttons using a touch panel, input/ Various components such as an output port, a vibrator for vibration, etc. may be implemented to be further included in the electronic device 1 (110).

図3は、本発明の一実施形態における、カメラを起動するためのユーザインタフェース領域をユーザがロングプレスタッチする例を示した図である。図3の実施形態は、メッセージングサービスと関連して電子機器1(110)にインストールされて電子機器1(110)で実行されたメッセンジャーアプリケーションに基づき、電子機器1(110)の画面310上にメッセージングインタフェースが提供された例を示しており、メッセージングインタフェースに設定された第1領域320でユーザ入力が発生する例を示している。このとき、電子機器1(110)は、ユーザ入力の認識に応答し、電子機器1(110)が含む(または、電子機器1(110)に接続された)カメラを起動してよい。例えば、本実施形態に係る電子機器1(110)は、タッチスクリーン画面を含むスマートフォンであってよく、ユーザ入力は、第1領域320に対するロングプレスタッチであってよい。この場合、電子機器1(110)は、第1領域320に対してユーザのタッチが予め設定された時間以上維持される場合に、カメラを起動してよい。本実施形態では、電子機器1(110)がインカメラとアウトカメラの2つのカメラを含み、ユーザ入力の発生にともない、インカメラがデフォルトで起動するように設定された例について説明する。実施形態によって、アウトカメラがデフォルトで起動してもよく、インカメラとアウトカメラのうちのどちらのカメラを先に起動するかをユーザが設定することのできる機能がユーザに提供されてもよい。 FIG. 3 is a diagram showing an example of a user long press-touching a user interface area for activating a camera in one embodiment of the present invention. The embodiment of FIG. 3 is based on a messenger application installed on electronic device 1 (110) and running on electronic device 1 (110) in connection with a messaging service to display messaging on screen 310 of electronic device 1 (110). It shows an example in which an interface is provided, and shows an example in which user input occurs in the first area 320 set in the messaging interface. Electronic device 1 (110) may then activate a camera that electronic device 1 (110) includes (or is connected to electronic device 1 (110)) in response to recognizing the user input. For example, the electronic device 1 ( 110 ) according to this embodiment may be a smart phone including a touch screen screen, and the user input may be a long press touch on the first area 320 . In this case, the electronic device 1 (110) may activate the camera when the user's touch on the first area 320 is maintained for a preset time or longer. In this embodiment, an example will be described in which the electronic device 1 (110) includes two cameras, an in-camera and an out-camera, and the in-camera is set to activate by default in response to user input. Depending on the embodiment, the out-camera may be activated by default, and the user may be provided with a function that allows the user to set which camera, the in-camera or the out-camera, is activated first.

図4は、本発明の一実施形態における、メッセージングサービスのためのメッセージングインタフェース上に、インカメラに入力されるイメージを表示する例を示した図である。電子機器1(110)は、ユーザ入力の認識が第2領域420で維持されることに基づき、起動したカメラに入力されるインカメライメージ410をメッセージングインタフェース上に表示してよい。このとき、インカメライメージ410は、カメラにリアルタイムで入力される映像であってよい。言い換えれば、ここ最近にカメラに入力されたフレームが、インカメライメージ410としてメッセージングインタフェース上に表示されてよい。また、インカメライメージ410は、ユーザ入力が認識中の位置と関連する位置に表示されてよい。第2領域420は、ユーザが認識可能なように、図4に示すように視覚的に表現されてよく、第1領域320を少なくとも含むようにメッセージングインタフェースに設定されてよい。 FIG. 4 is a diagram illustrating an example of displaying an in-camera input image on a messaging interface for a messaging service in one embodiment of the present invention. Electronic device 1 (110) may display on the messaging interface the in-camera image 410 input to the activated camera based on the recognition of the user input being maintained in the second area 420 . At this time, the in-camera image 410 may be an image input to the camera in real time. In other words, the most recently input frame to the camera may be displayed on the messaging interface as the in-camera image 410 . Also, the in-camera image 410 may be displayed at a location associated with the location at which the user input is being recognized. The second area 420 may be visually represented as shown in FIG. 4 so as to be recognizable by the user, and may be configured in the messaging interface to include at least the first area 320 .

図5は、本発明の一実施形態における、ユーザ入力が認識される位置が移動することにより、メッセージングインタフェース上に表示されたインカメライメージが移動される例を示した図である。図5は、第2領域420でユーザ入力が認識される位置が移動することにより、インカメライメージ410の位置が、ユーザ入力が認識される位置と関連する位置に移動される例を示している。言い換えれば、第2領域420内において、ユーザ入力が認識される位置が移動し続ける場合、イメージが表示される領域も、ユーザ入力が認識される位置に対応して動的に変更されてよい。 FIG. 5 is a diagram showing an example in which an in-camera image displayed on the messaging interface is moved by moving the position where user input is recognized, according to an embodiment of the present invention. FIG. 5 shows an example in which the position of the in-camera image 410 is moved to a position related to the position where the user input is recognized by moving the position where the user input is recognized in the second area 420 . . In other words, if the location where the user input is recognized continues to move within the second area 420, the area where the image is displayed may also be dynamically changed corresponding to the location where the user input is recognized.

図6は、本発明の一実施形態における、インカメライメージを送信する例を示した図である。図6において、電子機器1(110)は、ユーザ入力が認識される位置が、図5で説明した第2領域420を逸脱することに基づき、起動したカメラに入力される映像から少なくとも1つのフレームをキャプチャしてメッセージングサービスで送信してよい。このとき、少なくとも1つのフレームは、一例として、ユーザ入力が認識される位置が第2領域420を逸脱する時点にカメラに入力されたフレームであってよい。図6では、インカメライメージ410がメッセージングサービスで送信されることにより、メッセージングサービスで送受信されるメッセージを表示する第3領域610に、送信されたインカメライメージ410が、送信されたメッセージとして表示された例を示している。 FIG. 6 is a diagram showing an example of transmitting an in-camera image in one embodiment of the present invention. In FIG. 6, the electronic device 1 (110) detects at least one frame from the video input to the activated camera based on the fact that the position where the user input is recognized deviates from the second region 420 described in FIG. may be captured and sent via a messaging service. At this time, at least one frame may be, for example, a frame input to the camera when the position where the user input is recognized deviates from the second area 420 . In FIG. 6, the transmitted in-camera image 410 is displayed as a transmitted message in the third area 610 that displays messages sent and received by the messaging service by transmitting the in-camera image 410 through the messaging service. example.

図3を参照しながら説明した第1領域320に表示されたカメラの形状は、メッセージングインタフェースでカメラを起動するための従来のユーザインタフェースであってよい。言い換えれば、ユーザがカメラを起動するためのユーザインタフェースが表示された第1領域320を単にタッチした場合には、カメラが起動するようになり、ユーザがカメラで写真を撮影し、撮影した写真を選択する過程を経ることにより、撮影した写真を送信することができた。この反面、本実施形態では、ユーザが一度だけロングプレスタッチをする単一操作だけで、写真を撮影して送信することができるようになる。例えば、ユーザが第1領域320をロングプレスタッチすることでカメラが起動され、カメラに入力される映像が別の画面に表示されるのではなくメッセージングインタフェース上に表示され、ユーザがロングプレスタッチを発生させた後、タッチが維持された状態で第2領域420を逸脱するという動作だけで、カメラで写真を撮影して送信することができるようになる。 The camera shape displayed in the first area 320 described with reference to FIG. 3 may be a conventional user interface for activating the camera in a messaging interface. In other words, if the user simply touches the first area 320 where the user interface for activating the camera is displayed, the camera will be activated and the user will take a picture with the camera and view the taken picture. By going through the process of selection, I was able to send the photos I took. On the other hand, in this embodiment, the user can take a picture and send it by a single operation of performing a long press touch only once. For example, the user long press touches the first area 320 to activate the camera, the video input to the camera is displayed on the messaging interface instead of being displayed on a separate screen, and the user long press touches. Once generated, the camera can take a picture and send it by simply leaving the second area 420 while the touch is maintained.

図7は、本発明の一実施形態における、メッセージングインタフェース上に表示されるイメージを、インカメラに入力されるイメージからアウトカメラに入力されるイメージに変更する例を示した図である。図7の実施形態では、ユーザ入力が認識される位置の変更(または、移動)により、起動するカメラがインカメラからアウトカメラに変更され、メッセージングインタフェース上に表示される映像も、インカメライメージ410からアウトカメライメージ710に変更される例を示している。例えば、第2領域420は、インカメラに入力される映像を表示するようにするための第2-1領域と、アウトカメラに入力される映像を表示するようにするための第2-2領域を含んでよい。言い換えれば、ユーザ入力が第2-1領域で認識されている間は、インカメライメージ410がメッセージングインタフェース上に表示されてよく、ユーザ入力が第2-2領域で認識されている間は、アウトカメライメージ710がメッセージングインタフェース上に表示されてよい。したがって、ユーザは、一度のロングプレスタッチが維持された状態で、インカメラとアウトカメラを変更することが可能となる。 FIG. 7 is a diagram showing an example of changing the image displayed on the messaging interface from the image input through the in-camera to the image input through the out-camera in one embodiment of the present invention. In the embodiment of FIG. 7, a change (or movement) in the position at which user input is recognized changes the activated camera from the in-camera to the out-camera, and the video displayed on the messaging interface also changes to the in-camera image 410 to an out-camera image 710. For example, the second area 420 includes a 2-1 area for displaying an image input from the in-camera and a 2-2 area for displaying an image input from the out-camera. may contain In other words, the in-camera image 410 may be displayed on the messaging interface while user input is recognized in the 2-1 region, and the out-camera image 410 may be displayed while user input is recognized in the 2-2 region. A camera image 710 may be displayed on the messaging interface. Therefore, the user can change the in-camera and the out-camera while maintaining one long press touch.

図8は、本発明の一実施形態における、メッセージングインタフェース上に表示されるイメージを、アウトカメラに入力されるイメージからインカメラに入力されるイメージに変更する例を示した図である。図8の実施形態では、ユーザ入力が認識される位置の変更(または、移動)により、起動するカメラがアウトカメラからインカメラに再び変更され、メッセージングインタフェース上に表示される映像も、アウトカメライメージ710からインカメライメージ410に変更される例を示している。上述した例において、ユーザ入力が認識される位置が第2-2領域から第2-1領域に変更されることにより、起動するカメラと表示される映像が変更されてよい。 FIG. 8 is a diagram showing an example of changing an image displayed on the messaging interface from an image input through the out-camera to an image input through the in-camera in one embodiment of the present invention. In the embodiment of FIG. 8, the change (or movement) of the position where the user input is recognized causes the activated camera to change from the out-camera to the in-camera again, and the video displayed on the messaging interface also changes to the out-camera image. An example of changing from 710 to an in-camera image 410 is shown. In the above example, the camera to be activated and the image to be displayed may be changed by changing the position where the user input is recognized from the 2-2 area to the 2-1 area.

他の実施形態として、第2領域420を別の領域として分けるのではなく、ユーザ入力が認識される位置が移動する方向に基づき、インカメラとアウトカメラを切り換えてもよい。例えば、電子機器1(110)は、ユーザ入力が認識される位置が左から右方向に移動する場合には、インカメラをアウトカメラに切り換え、ユーザ入力が認識される位置が右から左方向に移動する場合には、アウトカメラをインカメラに切り換えてよい。 As another embodiment, instead of dividing the second area 420 as a separate area, the in-camera and the out-camera may be switched based on the direction in which the position where the user input is recognized moves. For example, when the position where the user input is recognized moves from left to right, the electronic device 1 (110) switches the in-camera to the out-camera, and the position where the user input is recognized moves from right to left. When moving, the out-camera may be switched to the in-camera.

図9は、本発明の一実施形態における、アウトカメライメージを送信する例を示した図である。図9の実施形態は、アウトカメラに入力されるアウトカメライメージ710がメッセージングインタフェース上に表示された状態で、ユーザ入力が認識される位置が第2領域420を逸脱することに基づき、アウトカメラに入力される映像から少なくとも1つのフレームをキャプチャしてメッセージングサービスで送信する例を示している。図9では、ユーザ入力が認識される位置が第2領域420を逸脱する時点にアウトカメラに入力されるフレームとしてアウトカメライメージ710が送信されることにより、アウトカメライメージ710が第3領域610に表示された例を示している。 FIG. 9 is a diagram showing an example of transmitting an out-camera image in one embodiment of the present invention. In the embodiment of FIG. 9, while the out-camera image 710 input to the out-camera is displayed on the messaging interface, the position at which the user input is recognized deviates from the second area 420. 1 illustrates an example of capturing at least one frame from an incoming video and sending it over a messaging service. In FIG. 9 , the out-camera image 710 is transmitted as a frame to be input to the out-camera when the position where the user input is recognized deviates from the second area 420 , and the out-camera image 710 is transferred to the third area 610 . Shows a displayed example.

図10は、本発明の一実施形態における、インタラクション方法の例を示したフローチャートである。本実施形態に係るインタラクション方法は、電子機器1(110)のようなコンピュータ装置によって実行されてよい。例えば、電子機器1(110)のプロセッサ212は、メモリ211が含むオペレーティングシステムのコードと、少なくとも1つのプログラムのコードとによる制御命令(instruction)を実行するように実現されてよい。ここで、プロセッサ212は、電子機器1(110)に記録されたコードが提供する制御命令に従って電子機器1(110)が図10のインタラクション方法に含まれる段階1010~段階1060を実行するように電子機器1(110)を制御してよい。 FIG. 10 is a flow chart illustrating an example of an interaction method in one embodiment of the invention. The interaction method according to this embodiment may be executed by a computer device such as the electronic device 1 (110). For example, the processor 212 of the electronic device 1 (110) may be implemented to execute control instructions according to the code of the operating system and the code of at least one program that the memory 211 contains. Here, the processor 212 causes the electronic device 1 (110) to perform steps 1010 to 1060 included in the interaction method of FIG. 10 according to control instructions provided by the code recorded in the electronic device 1 (110). Device 1 (110) may be controlled.

段階1010において、電子機器1(110)は、メッセージングサービスと関連して電子機器1(110)にインストールされて電子機器1(110)で実行されたアプリケーションに基づき、電子機器1(110)の画面上にメッセージングインタフェースを提供してよい。アプリケーションは、図3~図9の実施形態で説明したようにメッセンジャーアプリケーションを含んでよいが、これに限定されることはない。例えば、アプリケーションは、SMS(Short Messaging Service)やMMS(Multi-media Message Service)、または電子メールサービスなどのような多様なメッセージングサービスのためのアプリケーションのうちの1つであってもよい。メッセージングインタフェースは、該当のアプリケーションがメッセージの送受信のためにユーザに提供するユーザインタフェースを意味してよい。 At step 1010, electronic device 1 (110) displays the screen of electronic device 1 (110) based on the application installed on electronic device 1 (110) and executed on electronic device 1 (110) in connection with the messaging service. A messaging interface may be provided on top. Applications may include, but are not limited to, messenger applications as described in the embodiments of FIGS. 3-9. For example, the application may be one of applications for a variety of messaging services, such as SMS (Short Messaging Service), MMS (Multi-media Message Service), or an email service. A messaging interface may refer to a user interface that a corresponding application provides to a user for sending and receiving messages.

段階1020において、電子機器1(110)は、メッセージングインタフェースに設定された第1領域でユーザ入力が認識されることに応答し、カメラを起動してよい。具体的な実施形態として、電子機器1(110)の画面は、タッチスクリーン画面を含んでよく、ユーザ入力は、このようなタッチスクリーン画面に対するタッチ入力を含んでよい。このとき、電子機器1(110)は、第1領域(一例として、図3を参照しながら説明した第1領域320)でタッチ入力が予め設定された時間以上認識されることに応答し、カメラを起動してよい。実施形態によって、カメラは、電子機器1(110)に含まれてもよいし、電子機器1(110)に接続されたインカメラおよびアウトカメラのうちのいずれか1つを含んでもよい。起動するカメラは、以下で説明するように、条件に応じてインカメラからアウトカメラに、あるいはアウトカメラからインカメラに、変更されてよい。 At step 1020, electronic device 1 (110) may activate the camera in response to user input being recognized in the first area set in the messaging interface. As a specific embodiment, the screen of electronic device 1 (110) may include a touch screen screen, and the user input may include touch input to such touch screen screen. At this time, the electronic device 1 (110) responds to recognition of the touch input in the first area (for example, the first area 320 described with reference to FIG. 3) for a preset time or longer, and the camera can be started. Depending on the embodiment, the camera may be included in electronic device 1 (110) or may include any one of an in-camera and an out-camera connected to electronic device 1 (110). The activated camera may be changed from the in-camera to the out-camera or from the out-camera to the in-camera depending on conditions, as described below.

段階1030において、電子機器1(110)は、メッセージングインタフェースに設定された第1領域でユーザ入力が認識されることに応答し、第2領域(一例として、図4、図5、図7、および図8を参照しながら説明した第2領域420)を視覚的に表示するためのユーザインタフェースをメッセージングインタフェースで提供してよい。このような第2領域には、ユーザがユーザ入力の位置を変更することによってインカメラとアウトカメラの変更が可能となることを知らせるための情報が表示されてよい。 At step 1030, electronic device 1 (110) is responsive to user input being recognized in a first region configured in the messaging interface and a second region (eg, FIGS. 4, 5, 7, and 10). A messaging interface may provide a user interface for visually displaying the second area 420) described with reference to FIG. Information may be displayed in the second area to notify that the user can change the position of the in-camera and the out-camera by changing the position of the user's input.

段階1040において、電子機器1(110)は、ユーザ入力の認識が第2領域で維持されることに基づき、起動したカメラに入力される映像をメッセージングインタフェース上に表示してよい。この場合、第2領域は、第1領域を少なくとも含むようにメッセージングインタフェースに設定されてよい。言い換えれば、ユーザが第1領域にロングプレスタッチを発生させてタッチを維持する場合、カメラが起動し、カメラに入力される映像がメッセージングインタフェース上に表示されてよい。 At step 1040, electronic device 1 (110) may display the video input to the activated camera on the messaging interface based on the recognition of the user input being maintained in the second area. In this case, the second area may be set in the messaging interface to include at least the first area. In other words, if the user makes a long press touch on the first area and maintains the touch, the camera may be activated and the video input to the camera may be displayed on the messaging interface.

このとき、電子機器1(110)は、ユーザ入力が認識される位置と関連する位置に入力される映像を表示するが、ユーザ入力が認識される位置が第2領域内で変更されることにより、入力される映像が表示される位置を動的に変更してよい。 At this time, the electronic device 1 (110) displays the input image at a position related to the position where the user input is recognized. , the position at which the input video is displayed may be dynamically changed.

段階1050において、電子機器1(110)は、ユーザ入力が認識される位置が第2領域内で移動することに基づき、カメラをインカメラからアウトカメラに切り換えるか、または切り換えられたアウトカメラを再びインカメラに切り換えてよい。この場合、電子機器1(110)は、インカメラまたはアウトカメラに入力される映像をメッセージングインタフェース上に表示してよい。例えば、起動するカメラがインカメラの場合、電子機器1(110)は、インカメラに入力される映像をメッセージングインタフェース上に表示してよく、起動するカメラがアウトカメラの場合、電子機器1(110)は、アウトカメラに入力される映像をメッセージングインタフェース上に表示してよい。 In step 1050, the electronic device 1 (110) switches the camera from the in-camera to the out-camera based on the movement of the position where the user input is recognized within the second area, or switches the out-camera again. You can switch to the in-camera. In this case, electronic device 1 (110) may display the video input to the in-camera or out-camera on the messaging interface. For example, if the camera to be activated is the in-camera, electronic device 1 (110) may display an image input to the in-camera on the messaging interface, and if the camera to be activated is the out-camera, electronic device 1 (110) ) may display the video input to the out-camera on the messaging interface.

一実施形態として、電子機器1(110)は、ユーザ入力が認識される位置が第2領域に含まれる第2-1領域から第2-2領域に移動する場合には、起動するカメラをインカメラからアウトカメラに切り換え、ユーザ入力が認識される位置が第2-2領域から再び第2-1領域に移動する場合には、起動するカメラを、切り換えられたアウトカメラから再びインカメラに切り換えてよい。 As an embodiment, the electronic device 1 (110) activates the camera when the position where the user input is recognized moves from the 2-1 area included in the 2nd area to the 2-2 area. When the camera is switched to the out-camera and the position where the user input is recognized moves from the 2-2 area again to the 2-1 area, the activated camera is switched from the switched out-camera to the in-camera again. you can

他の実施形態として、電子機器1(110)は、ユーザ入力が認識される位置が移動する方向に基づき、起動するカメラをインカメラからアウトカメラに切り換えるか、または切り換えられたアウトカメラを再びインカメラに切り換えてよい。例えば、ユーザ入力が認識される位置が左から右に移動する場合にはアウトカメラを、ユーザ入力が認識される位置が右から左に移動する場合にはインカメラを使用するように、カメラを切り換えてよい。 As another embodiment, electronic device 1 (110) switches the activated camera from the in-camera to the out-camera based on the direction in which the position where the user input is recognized moves, or re-introduces the switched out-camera. You can switch to camera. For example, if the position where user input is recognized moves from left to right, use the out camera, and if the position where user input is recognized moves from right to left, use the in camera. You can switch.

デフォルトで起動するカメラは、インカメラであってもよいし、アウトカメラであってもよい。 The camera activated by default may be the in-camera or the out-camera.

段階1060において、電子機器1(110)は、ユーザ入力が認識される位置が第2領域を逸脱することに基づき、起動したカメラに入力される映像から少なくとも1つのフレームをキャプチャしてメッセージングサービスで送信してよい。 At step 1060, the electronic device 1 (110) captures at least one frame from the video input to the activated camera based on the position where the user input is recognized deviates from the second region, and transmits the frame to the messaging service. may be sent.

一実施形態として、第2領域は、第1領域を少なくとも含み、メッセージングインタフェースでメッセージングサービスによって送受信されるメッセージを表示する第3領域(一例として、図6および図9を参照しながら説明した第3領域610)に隣接するようにメッセージングインタフェースに設定されてよい。この場合、電子機器1(110)は、ユーザ入力が認識される位置が第2領域を逸脱して第3領域に移動する場合、少なくとも1つのフレームを送信してよい。 In one embodiment, the second area includes at least the first area and a third area (eg, the third area described with reference to FIGS. 6 and 9) displaying messages sent and received by the messaging service on the messaging interface. 610) may be configured in the messaging interface. In this case, the electronic device 1 (110) may transmit at least one frame when the position where the user input is recognized deviates from the second area and moves to the third area.

このように、ユーザは、一度のロングプレスタッチを発生させ、該当のタッチを解除する前に写真を撮影するためのカメラを選択(インカメラまたはアウトカメラ)することができ、写真を撮影することができ、撮影した写真をメッセージングサービスで送信することができる。したがって、カメラの選択、写真の撮影、および送信のための過程を大幅に減らすことができ、ユーザの利便性を高めることができる。 In this way, the user can select a camera for taking a picture (inside camera or outside camera) before releasing the touch after generating a long press touch once, and taking a picture. You can send the photos you have taken via a messaging service. Therefore, the processes for camera selection, photographing, and transmission can be greatly reduced, and user convenience can be enhanced.

図11は、本発明の他の実施形態における、アルバムに保存された写真をロードするためのユーザインタフェース領域をユーザがロングプレスタッチする例を示した図である。図11の実施形態は、メッセージングサービスと関連して電子機器1(110)にインストールされて電子機器1(110)で実行されたメッセンジャーアプリケーションに基づき、電子機器1(110)の画面310上にメッセージングインタフェースが提供された例を示しており、メッセージングインタフェースに設定された第1領域(1110)でユーザ入力が発生する例を示している。このとき、電子機器1(110)は、ユーザ入力の認識に応答し、電子機器1(110)に保存された複数のコンテンツにアクセスしてよい。例えば、本実施形態に係る電子機器1(110)は、タッチスクリーン画面を含むスマートフォンであってよく、ユーザ入力は、第1領域1110に対するロングプレスタッチであってよい。この場合、電子機器1(110)は、第1領域1110に対してユーザのタッチが予め設定された時間以上維持される場合、複数のコンテンツにアクセスしてよい。このとき、電子機器1(110)がアクセス可能な複数のコンテンツの種類は、第1領域(1110)に設定されたユーザインタフェースによって異なってよい。本実施形態では、複数のコンテンツが、電子機器1(110)にインストールされて電子機器1(110)で実行されたアルバムアプリケーションと関連してここ最近に保存された、予め設定された数のイメージまたはビデオを含む例を考慮する。 FIG. 11 is a diagram showing an example of a user long press-touching a user interface area for loading photos stored in an album according to another embodiment of the present invention. The embodiment of FIG. 11 is based on a messenger application installed on electronic device 1 (110) and running on electronic device 1 (110) in connection with a messaging service to display messaging on screen 310 of electronic device 1 (110). It shows an example where an interface is provided and shows an example where user input occurs in the first area (1110) set in the messaging interface. Electronic device 1 (110) may then access a plurality of content stored on electronic device 1 (110) in response to recognizing the user input. For example, the electronic device 1 (110) according to this embodiment may be a smart phone including a touch screen screen, and the user input may be a long press touch on the first area 1110. In this case, the electronic device 1 (110) may access a plurality of contents when the user's touch on the first area 1110 is maintained for a preset time or longer. At this time, the types of content accessible by the electronic device 1 (110) may differ depending on the user interface set in the first area (1110). In this embodiment, the plurality of content is a preset number of images recently saved in association with an album application installed on electronic device 1 (110) and running on electronic device 1 (110). Or consider an example that includes a video.

実施形態によって、第1領域1110に示されたユーザインタフェースは、ユーザのタッチ時に、アルバムに保存されたイメージまたはビデオを提供する機能を含んでよい。言い換えれば、ユーザが第1領域1110に示されたユーザインタフェースを単にタッチする場合には、アルバムに保存されたイメージやビデオを提供し、提供されたイメージやビデオのうちの1つをユーザが選択して送信できるようにする機能を提供してよい。この反面、ユーザが第1領域1110に示されたユーザインタフェースをロングプレスタッチする場合には、以下で説明するように、該当のロングプレスタッチが解除される前に、イメージやビデオを選択して送信することのできる機能が提供されてよい。 Depending on the embodiment, the user interface shown in the first area 1110 may include a function of providing images or videos stored in the album when touched by the user. In other words, if the user simply touches the user interface shown in the first area 1110, the images and videos stored in the album are provided and the user selects one of the provided images and videos. You may provide functionality that allows you to send On the other hand, when the user long-press touches the user interface shown in the first area 1110, an image or video is selected before releasing the long-press touch, as described below. A function may be provided that can be sent.

図12は、本発明の他の実施形態における、メッセージングサービスのためのメッセージングインタフェース上に、アルバムに保存された写真が表示される例を示した図である。電子機器1(110)は、ユーザ入力の認識が第2領域1220で維持されることに基づき、複数のコンテンツのうちの1つのコンテンツをメッセージングインタフェース上に表示してよい。図12の実施形態では、電子機器1(110)が、アルバムアプリケーションと関連してここ最近に保存された予め設定された数のイメージのうち、ここ最近のイメージである第1イメージ1210をメッセージングインタフェース上に表示した例を示している。このとき、メッセージングインタフェース上に表示されるイメージは、第2領域1220でユーザ入力が認識される位置に基づいて選択されてよい。 FIG. 12 is a diagram showing an example of displaying photos stored in an album on a messaging interface for a messaging service according to another embodiment of the present invention. Electronic device 1 110 may display one of the plurality of content on the messaging interface based on the recognition of user input maintained in second region 1220 . In the embodiment of FIG. 12, the electronic device 1 (110) sends the first image 1210, which is the most recent image among the preset number of images most recently saved in association with the album application, to the messaging interface. It shows the example displayed above. At this time, the image displayed on the messaging interface may be selected based on the location where the user input is recognized in the second area 1220 .

図13および図14は、本発明の他の実施形態における、ユーザ入力が認識される位置が移動することにより、メッセージングインタフェース上に表示される写真が順に変更される例を示した図である。図13および図14は、第2領域1220でユーザ入力が認識される位置が変更されることにより、メッセージングインタフェース上に表示されるイメージが、図12を参照しながら説明した最初の第1イメージ1210から第2イメージ1310に、第2イメージ1310から第3イメージ1410に、順に変更する様子を示している。 13 and 14 are diagrams showing an example of changing the order of pictures displayed on the messaging interface by moving the position where user input is recognized in another embodiment of the present invention. 13 and 14, the image displayed on the messaging interface is changed from the first image 1210 described with reference to FIG. 12 by changing the position where the user input is recognized in the second area 1220. to a second image 1310, and from the second image 1310 to a third image 1410, in order.

一実施形態として、電子機器1(110)は、第2領域1220に含まれた予め設定された数の領域に予め設定された数のイメージまたはビデオを順に対応させ、予め設定された数の領域のうち、ユーザ入力が認識される位置が含まれた領域に対応するイメージまたはビデオをメッセージングインタフェース上に表示してよい。例えば、5つのイメージに対応するように第2領域1220が5つの領域に区分されてよく、それぞれの領域でユーザ入力が認識されるたびに、該当の領域に対応するイメージがメッセージングインタフェース上に表示されてよい。 As an embodiment, the electronic device 1 (110) may sequentially correspond a preset number of images or videos to a preset number of areas included in the second area 1220, and the preset number of areas may be displayed. An image or video may be displayed on the messaging interface corresponding to the region of which the user input is recognized. For example, the second area 1220 may be divided into five areas corresponding to five images, and each time a user input is recognized in each area, an image corresponding to the corresponding area is displayed on the messaging interface. may be

また、電子機器1(110)は、第2領域1220でユーザ入力が認識される位置と関連する位置に該当するイメージを表示するが、ユーザ入力が認識される位置が第2領域で変更されることにより、該当するイメージが表示される位置を動的に変更してよい。図12~図14では、ユーザ入力が認識される位置が変更されることにより、表示されるイメージが変更されるだけでなく、イメージが表示される位置も変更されることを示している。 Also, the electronic device 1 (110) displays an image corresponding to a position related to the position where the user input is recognized in the second area 1220, but the position where the user input is recognized is changed to the second area. By doing so, the position at which the corresponding image is displayed may be dynamically changed. FIGS. 12 to 14 show that changing the position where user input is recognized not only changes the displayed image, but also changes the position where the image is displayed.

図15は、本発明の他の実施形態における、現在表示中の写真を送信する例を示した図である。図15の実施形態は、ユーザ入力が認識される位置が第2領域を逸脱することにより、メッセージングインタフェース上に表示中のイメージである第3イメージ1410がメッセージングサービスで送信される例を示している。また、図15の実施形態では、第3イメージ1410がメッセージングサービスで送信されることにより、メッセージングサービスによって送受信されるメッセージを表示する第3領域610に、第3イメージ1410が送信されたメッセージとして表示された例を示している。 FIG. 15 is a diagram showing an example of sending a currently displayed photograph in another embodiment of the present invention. The embodiment of FIG. 15 illustrates an example in which a third image 1410, which is the image being displayed on the messaging interface, is sent by the messaging service when the position where the user input is recognized deviates from the second area. . Further, in the embodiment of FIG. 15, the third image 1410 is displayed as a transmitted message in the third area 610 displaying the messages sent and received by the messaging service, as the third image 1410 is transmitted by the messaging service. example.

このように、ユーザは、一度のロングプレスタッチにより、タッチが解除される前に、ここ最近に保存された予め設定されたコンテンツのうちの1つを選択し、選択されたコンテンツをメッセージングサービスで送信することができるようになる。したがって、コンテンツの選択および送信のための過程を大幅に減らすことができ、ユーザの利便性を高めることができる。 In this way, a single long press touch allows the user to select one of the recently saved pre-set content before the touch is released and send the selected content to the messaging service. be able to send. Therefore, the processes for selecting and transmitting content can be greatly reduced, and user convenience can be improved.

図16~図20は、本発明の他の実施形態における、追加コンテンツを送信するためのユーザインタフェースの例を示した図である。 16 to 20 are diagrams showing examples of user interfaces for sending additional content according to other embodiments of the present invention.

図16の実施形態は、ユーザが追加機能のための追加機能領域1610に対してユーザ入力を発生させる例を示している。実施形態によって、ユーザ入力はロングプレスタッチであってよく、追加機能領域1610に対するユーザの一般的なタッチは、従来の追加機能を提供するために活用されてよい。 The embodiment of FIG. 16 illustrates an example where a user generates user input to additional functionality area 1610 for additional functionality. Depending on the embodiment, the user input may be a long press touch, and the user's general touch on additional functionality area 1610 may be leveraged to provide conventional additional functionality.

図17の実施形態は、追加機能領域1610に対するユーザ入力の認識に応答し、多様な追加機能を提供する例を示している。このような多様な追加機能は、ユーザのロングプレスタッチが維持されている間に提供されてよい。図17では、ユーザがここ最近にアクセスした予め設定された数のファイルまたはメディアを表示するためのユーザインタフェースである「Keep」インタフェース、ユーザがここ最近に利用した予め設定された数の地理的位置情報、またはユーザがここ最近に訪問した予め設定された数の地理的位置情報を表示するためのユーザインタフェースである「Location」インタフェース、およびユーザがここ最近にアクセスした予め設定された数のネットワークアドレスを表示するためのユーザインタフェースである「Address」インタフェースをそれぞれ示している。 The embodiment of FIG. 17 illustrates an example of providing a variety of additional functionality in response to recognizing user input to additional functionality area 1610 . Such various additional functions may be provided while the user's long press touch is maintained. In FIG. 17, a "Keep" interface, which is a user interface for displaying a preset number of files or media that a user has recently accessed, a preset number of geographic locations that a user has recently accessed. information, or a user interface for displaying a preset number of geographic location information that the user has recently visited, and a preset number of network addresses that the user has recently accessed; Each shows an "Address" interface, which is a user interface for displaying the .

図18の実施形態は、ユーザが、ロングプレスタッチを維持した状態でタッチ位置を移動させて「Keep」インタフェースを選択することにより、ユーザがここ最近に利用した3件のファイルが表示された例を示している。 The embodiment of FIG. 18 is an example in which the user selects the "Keep" interface by moving the touch position while keeping the long press touch, and the three files that the user has recently used are displayed. is shown.

図19の実施形態は、ユーザが、ロングプレスタッチを維持した状態でタッチ位置を移動させて「aaa.mp3」ファイルを選択する例を示している。このとき、「aaa.mp3」ファイルは、ロングプレスタッチの解除が認識される位置に基づいて選択されてよい。 The embodiment of FIG. 19 shows an example in which the user selects the "aaa.mp3" file by moving the touch position while maintaining the long press touch. At this time, the 'aaa.mp3' file may be selected based on the location where the release of the long press touch is recognized.

図20の実施形態は、図19の実施形態で「aaa.mp3」ファイルが選択されることにより、「aaa.mp3」ファイルがメッセージングサービスによって送信される例を示している。言い換えれば、図20の実施形態は、メッセージングサービスで送受信されるメッセージを表示する第3領域610に、「aaa.mp3」ファイルに対するメッセージ2010が表示された例を示している。 The embodiment of FIG. 20 shows an example of the 'aaa.mp3' file being sent by the messaging service by selecting the 'aaa.mp3' file in the embodiment of FIG. In other words, the embodiment of FIG. 20 shows an example in which the message 2010 for the "aaa.mp3" file is displayed in the third area 610 displaying messages sent and received through the messaging service.

このように、ユーザは、一度のロングプレスタッチにより、ここ最近にアクセスしたファイルを選択して送信することができるようになる。これは、ファイルだけでなく、ユーザがここ最近にアクセスしたメディア、ここ最近にアクセスしたネットワークアドレスや地理的位置情報などにも同じように適用されてよい。このとき、地理的位置情報は、GPS(Global Positioning System)座標を含んでよい。 Thus, the user can select and send recently accessed files with a single long press touch. This may equally apply not only to files, but also to media recently accessed by the user, recently accessed network addresses and geographic location information, and so on. At this time, the geographical location information may include GPS (Global Positioning System) coordinates.

このために、電子機器1(110)は、ユーザがここ最近にアクセスしたファイルに関する情報、ここ最近にアクセスしたメディアに関する情報、ここ最近に利用したネットワークアドレスに関する情報や地理的位置情報、および/またはここ最近に訪問した地理的位置情報をモニタリングして保存および管理してよい。 For this purpose, the electronic device 1 (110) stores information about files recently accessed by the user, information about media recently accessed, information about recently used network addresses and geographical location information, and/or You may monitor, store and manage recently visited geographic location information.

図21は、本発明の他の実施形態における、インタラクション方法の例を示したフローチャートである。本実施形態に係るインタラクション方法は、電子機器1(110)のようなコンピュータ装置によって実行されてよい。例えば、電子機器1(110)のプロセッサ212は、メモリ211が含むオペレーティングシステムのコードと、少なくとも1つのプログラムのコードとによる制御命令(instruction)を実行するように実現されてよい。ここで、プロセッサ212は、電子機器1(110)に記録されたコードが提供する制御命令に従って電子機器1(110)が図21のインタラクション方法に含まれる段階2110~段階2150を実行するように電子機器1(110)を制御してよい。 FIG. 21 is a flow chart showing an example of an interaction method according to another embodiment of the invention. The interaction method according to this embodiment may be executed by a computer device such as the electronic device 1 (110). For example, the processor 212 of the electronic device 1 (110) may be implemented to execute control instructions according to the code of the operating system and the code of at least one program that the memory 211 contains. Here, the processor 212 causes the electronic device 1 (110) to execute steps 2110 to 2150 included in the interaction method of FIG. 21 according to control instructions provided by the code recorded in the electronic device 1 (110). Device 1 (110) may be controlled.

段階2110において、電子機器1(110)は、メッセージングサービスと関連して電子機器1(110)にインストールされて電子機器1(110)で実行されたアプリケーションに基づき、コンピュータの画面上にメッセージングインタフェースを提供してよい。アプリケーションは、図11~図20の実施形態で説明したようにメッセンジャーアプリケーションを含んでよいが、これに限定されることはない。例えば、アプリケーションは、SMS(Short Messaging Service)やMMS(Multi-media Message Service)、または電子メールサービスなどのような多様なメッセージングサービスのためのアプリケーションのうちの1つであってもよい。メッセージングインタフェースは、該当のアプリケーションがメッセージの送受信のためにユーザに提供するユーザインタフェースを意味してよい。 At step 2110, the electronic device 1 (110) displays a messaging interface on the screen of the computer based on the application installed on the electronic device 1 (110) and executed on the electronic device 1 (110) in connection with the messaging service. may provide. Applications may include, but are not limited to, messenger applications as described in the embodiments of Figures 11-20. For example, the application may be one of applications for a variety of messaging services, such as SMS (Short Messaging Service), MMS (Multi-media Message Service), or an email service. A messaging interface may refer to a user interface that a corresponding application provides to a user for sending and receiving messages.

段階2120において、電子機器1(110)は、メッセージングインタフェースに設定された第1領域でユーザ入力が認識されることに応答し、コンピュータに保存された複数のコンテンツにアクセスしてよい。具体的な実施形態として、電子機器1(110)の画面は、タッチスクリーン画面を含んでよく、ユーザ入力は、このようなタッチスクリーン画面に対するタッチ入力を含んでよい。このとき、電子機器1(110)は、第1領域(一例として、図11を参照しながら説明した第1領域1110)でタッチ入力が予め設定された時間以上認識されることに応答し、複数のコンテンツにアクセスしてよい。一実施形態として、複数のコンテンツは、電子機器1(110)にインストールされて電子機器1(110)で実行されたアルバムアプリケーションと関連してここ最近に保存された、予め設定された数のイメージまたはビデオを含んでよい。 At step 2120, electronic device 1 (110) may access a plurality of content stored on the computer in response to recognizing user input in a first area set in the messaging interface. As a specific embodiment, the screen of electronic device 1 (110) may include a touch screen screen, and the user input may include touch input to such touch screen screen. At this time, the electronic device 1 (110) responds to the fact that the touch input is recognized in the first area (for example, the first area 1110 described with reference to FIG. 11) for a preset period of time or longer. You can access the content of In one embodiment, the plurality of contents is a preset number of images recently saved in association with an album application installed on electronic device 1 (110) and running on electronic device 1 (110). Or may include video.

段階2130において、電子機器1(110)は、メッセージングインタフェースに設定された第1領域でユーザ入力が認識されることに応答し、第2領域(一例として、図12、図13、および図14を参照しながら説明した第2領域1220)を視覚的に表示するためのユーザインタフェースをメッセージングインタフェースで提供してよい。このような第2領域は、第1領域を少なくとも含むようにメッセージングインタフェースに設定されてよく、第2領域には、ユーザがユーザ入力の位置を変更することにより、追加的なコンテンツの提供が可能であることを知らせるための情報が表示されてよい。 At step 2130, electronic device 1 (110) is responsive to user input being recognized in a first region configured in the messaging interface and displaying a second region (eg, FIGS. 12, 13, and 14). A messaging interface may provide a user interface for visually displaying the second region 1220) described with reference. Such a second region may be configured in the messaging interface to include at least the first region, and the second region may be provided with additional content by the user repositioning the user input. Information may be displayed to inform that the

段階2140において、電子機器1(110)は、ユーザ入力の認識が第2領域で維持されることに基づき、複数のコンテンツのうちの1つのコンテンツをメッセージングインタフェース上に表示するが、第2領域でユーザ入力が認識される位置に基づき、複数のコンテンツのうちから1つのコンテンツを選択して表示してよい。例えば、電子機器1(110)は、第2領域に含まれる予め設定された数の領域に予め設定された数のイメージまたはビデオを順に対応させ、予め設定された数の領域のうちでユーザ入力が認識される位置が含まれる領域に対応するイメージまたはビデオをメッセージングインタフェース上に表示してよい。また、電子機器1(110)は、第2領域でユーザ入力が認識される位置と関連する位置に選択された1つのコンテンツを表示するが、ユーザ入力が認識される位置が第2領域で変更されることにより、選択された1つのコンテンツが表示される位置を動的に変更してよい。言い換えれば、ユーザ入力が認識される位置が第2領域で変更されることに基づき、表示されるコンテンツと、表示されるコンテンツの位置が制御されてよく、これは、表示されるコンテンツと、表示されるコンテンツの位置を、ユーザがロングプレスタッチするだけで、その少なくとも一部分が制御されるようになることを意味してよい。 At stage 2140, electronic device 1 (110) displays on the messaging interface one content of the plurality of content based on the recognition of the user input being maintained in the second region, but in the second region: One of the multiple pieces of content may be selected for display based on the location where the user input is recognized. For example, the electronic device 1 (110) sequentially associates a preset number of images or videos with a preset number of areas included in the second area, and the user inputs one of the preset number of areas. An image or video may be displayed on the messaging interface corresponding to the region containing the location where the is recognized. Also, the electronic device 1 (110) displays the selected content at a position related to the position where the user input is recognized in the second area, but the position where the user input is recognized is changed in the second area. may dynamically change the position at which the selected piece of content is displayed. In other words, the displayed content and the position of the displayed content may be controlled based on the position where the user input is recognized is changed in the second region, which may be the content displayed and the position of the displayed content. It may mean that at least a part of the content is controlled by the user by simply long-pressing the position of the content to be displayed.

段階2150において、電子機器1(110)は、ユーザ入力が認識される位置が第2領域を逸脱することに基づき、複数のコンテンツのうち、メッセージングインタフェース上に表示中のコンテンツをメッセージングサービスで送信してよい。実施形態によって、第2領域は、第1領域を少なくとも含み、メッセージングインタフェースでメッセージングサービスによって送受信されるメッセージを表示する第3領域610に隣接するようにメッセージングインタフェースに設定されてよい。この場合、電子機器1(110)は、ユーザ入力が認識される位置が第2領域を逸脱して第3領域に移動する場合、表示中のコンテンツを送信してよい。 At step 2150, the electronic device 1 (110) transmits the content being displayed on the messaging interface among the plurality of contents through the messaging service based on the fact that the position where the user input is recognized deviates from the second area. you can Depending on the embodiment, the second area may be configured in the messaging interface to include at least the first area and be adjacent to the third area 610 displaying messages sent and received by the messaging service on the messaging interface. In this case, electronic device 1 (110) may transmit the content being displayed when the position where the user input is recognized deviates from the second area and moves to the third area.

実施形態によって、電子機器1(110)は、メッセージングインタフェースに設定された第4領域(一例として、図16を参照しながら説明した追加機能領域1610)に対するユーザ入力の認識に応答し、ユーザがここ最近にアクセスした予め設定された数のファイルまたはメディアを表示するためのユーザインタフェース(一例として、図17~図19を参照しながら説明した「Keep」インタフェース)を表示し、ユーザインタフェースに表示された予め設定された数のファイルまたはメディアのうち、ユーザによって選択されるファイルまたはメディアをメッセージングサービスで送信してよい。 Depending on the embodiment, electronic device 1 (110) responds to recognizing user input to a fourth area (as an example, the additional functionality area 1610 described with reference to FIG. 16) set in the messaging interface, and the user clicks here. display a user interface for displaying a preset number of recently accessed files or media (eg, the "Keep" interface described with reference to FIGS. 17-19), and Files or media selected by the user from a preset number of files or media may be sent over the messaging service.

他の実施形態として、電子機器1(110)は、メッセージングインタフェースに設定された第4領域に対するユーザ入力の認識に応答し、ユーザがここ最近にアクセスした予め設定された数のネットワークアドレスを表示するためのユーザインタフェース(一例として、図17~図19を参照しながら説明した「Address」インタフェース)を表示し、ユーザインタフェースに表示された予め設定された数のネットワークアドレスのうち、ユーザによって選択されたネットワークアドレスをメッセージングサービスで送信してよい。 In another embodiment, electronic device 1 (110) responds to recognizing user input to a fourth field configured in the messaging interface to display a preset number of network addresses that the user has recently accessed. display a user interface (for example, the “Address” interface described with reference to FIGS. 17 to 19) for A network address may be sent with a messaging service.

また他の実施形態として、電子機器1(110)は、メッセージングインタフェースに設定された第4領域に対するユーザ入力の認識に応答し、ユーザがここ最近に利用した予め設定された数の地理的位置情報、またはユーザがここ最近に訪問した予め設定された数の地理的位置情報を表示するためのユーザインタフェース(一例として、図17~図19を参照しながら説明した「Location」インタフェース)を表示し、ユーザインタフェースで表示された予め設定された数の地理的位置情報のうち、ユーザによって選択された地理的位置情報をメッセージングサービスで送信してよい。 In yet another embodiment, electronic device 1 (110) is responsive to recognizing user input to a fourth field configured in the messaging interface to display a preset number of recently used geographic location information by the user. , or display a user interface (eg, the "Location" interface described with reference to FIGS. 17-19) for displaying a preset number of geographic locations that the user has recently visited; Geographic location information selected by the user from the preset number of geographic location information displayed in the user interface may be transmitted by the messaging service.

このように、ユーザは、一度のロングプレスタッチを発生させ、該当のタッチを解除する前に、端末に保存されたイメージやビデオを選択して送信することができるようになり、一度のロングプレスタッチにより、ここ最近にアクセス/利用したファイル、メディア、ネットワークアドレス、地理的位置情報などを選択して送信することができるようになる。したがって、情報の選択や生成、送信のための過程を大幅に減らすことができ、ユーザの利便性を高めることができる。 In this way, the user can select and send an image or video stored in the terminal before releasing the touch after generating a long press touch once. With a touch, you can select and send recently accessed/used files, media, network addresses, geographical location information, and more. Therefore, the processes for selecting, generating, and transmitting information can be greatly reduced, and user convenience can be improved.

以上のように、本発明の実施形態によると、スマートフォンのようなカメラを含むコンピュータで提供されるメッセージングサービス環境において、ユーザが簡単にカメラで写真を撮影して共有することができる。また、コンピュータに保存された写真だけでなく、ユーザがアクセスしたファイルやメディア、ネットワークアドレス、または地理的位置情報などを、メッセージングサービス上で簡単に共有することができる。 As described above, according to the embodiments of the present invention, a user can easily take a picture with a camera and share the picture in a messaging service environment provided by a computer including a camera such as a smart phone. In addition to photos stored on a computer, users can easily share files and media accessed by users, network addresses, or geographic location information over messaging services.

上述したシステムまたは装置は、ハードウェア構成要素、ソフトウェア構成要素、またはハードウェア構成要素とソフトウェア構成要素との組み合わせによって実現されてよい。例えば、実施形態で説明された装置および構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令を実行して応答することができる様々な装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを利用して実現されてよい。処理装置は、オペレーティングシステム(OS)およびOS上で実行される1つ以上のソフトウェアアプリケーションを実行してよい。また、処理装置は、ソフトウェアの実行に応答し、データにアクセスし、データを記録、操作、処理、および生成してもよい。理解の便宜のために、1つの処理装置が使用されるとして説明される場合もあるが、当業者は、処理装置が複数個の処理要素および/または複数種類の処理要素を含んでもよいことが理解できるであろう。例えば、処理装置は、複数個のプロセッサまたは1つのプロセッサおよび1つのコントローラを含んでよい。また、並列プロセッサのような、他の処理構成も可能である。 The systems or devices described above may be realized by hardware components, software components, or a combination of hardware and software components. For example, the devices and components described in the embodiments may include, for example, processors, controllers, ALUs (arithmetic logic units), digital signal processors, microcomputers, FPGAs (field programmable gate arrays), PLUs (programmable logic units), microcontrollers, It may be implemented using one or more general purpose or special purpose computers, such as a processor or various devices capable of executing instructions and responding to instructions. The processing unit may run an operating system (OS) and one or more software applications that run on the OS. The processor may also access, record, manipulate, process, and generate data in response to executing software. For convenience of understanding, one processing device may be described as being used, but those skilled in the art will appreciate that the processing device may include multiple processing elements and/or multiple types of processing elements. You will understand. For example, a processing unit may include multiple processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.

ソフトウェアは、コンピュータプログラム、コード、命令、またはこれらのうちの1つ以上の組み合わせを含んでもよく、思うままに動作するように処理装置を構成したり、独立的または集合的に処理装置に命令したりしてよい。ソフトウェアおよび/またはデータは、処理装置に基づいて解釈されたり、処理装置に命令またはデータを提供したりするために、いかなる種類の機械、コンポーネント、物理装置、仮想装置、コンピュータ記録媒体または装置に具現化されてよい。ソフトウェアは、ネットワークによって接続されたコンピュータシステム上に分散され、分散された状態で記録されても実行されてもよい。ソフトウェアおよびデータは、1つ以上のコンピュータ読み取り可能な記録媒体に記録されてよい。 Software may include computer programs, code, instructions, or a combination of one or more of these, to configure a processor to operate at its discretion or to independently or collectively instruct a processor. You can Software and/or data may be embodied in any kind of machine, component, physical device, virtual device, computer storage medium or device for interpretation on or for providing instructions or data to a processing device. may be changed. The software may be stored and executed in a distributed fashion over computer systems linked by a network. Software and data may be recorded on one or more computer-readable recording media.

実施形態に係る方法は、多様なコンピュータ手段によって実行可能なプログラム命令の形態で実現されてコンピュータ読み取り可能な媒体に記録されてよい。コンピュータ読み取り可能な媒体は、プログラム命令、データファイル、データ構造などを単独でまたは組み合わせて含んでよい。コンピュータ読み取り可能な媒体に記録されるプログラム命令は、実施形態のために特別に設計されて構成されたものであっても、コンピュータソフトウェアの当業者に公知な使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピディスク、磁気テープのような磁気媒体、CD-ROM、DVDのような光媒体、フロプティカルディスク(floptical disk)のような光磁気媒体、およびROM、RAM、フラッシュメモリなどのようなプログラム命令を記録して実行するように特別に構成されたハードウェア装置が含まれる。このような記録媒体は、単一または複数のハードウェアが結合した形態の多様な記録手段または格納手段であってよく、あるコンピュータシステムに直接接続する媒体に限定されることはなく、ネットワーク上に分散して存在するものであってもよい。プログラム命令の例は、コンパイラによって生成されるもののような機械語コードだけではなく、インタプリタなどを使用してコンピュータによって実行される高級言語コードを含む。 The method according to the embodiments may be embodied in the form of program instructions executable by various computer means and recorded on a computer-readable medium. Computer-readable media may include program instructions, data files, data structures, etc. singly or in combination. The program instructions recorded on the computer readable medium may be those specially designed and constructed for an embodiment, or they may be of the kind known and available to those of skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Such a recording medium may be a variety of recording means or storage means in the form of a combination of single or multiple hardware, and is not limited to a medium directly connected to a computer system, and can be used on a network. It may exist dispersedly. Examples of program instructions include high-level language code that is executed by a computer, such as using an interpreter, as well as machine language code, such as that produced by a compiler.

以上のように、実施形態を、限定された実施形態および図面に基づいて説明したが、当業者であれば、上述した記載から多様な修正および変形が可能であろう。例えば、説明された技術が、説明された方法とは異なる順序で実行されたり、かつ/あるいは、説明されたシステム、構造、装置、回路などの構成要素が、説明された方法とは異なる形態で結合されたりまたは組み合わされたり、他の構成要素または均等物によって代替されたり置換されたとしても、適切な結果を達成することができる。 As described above, the embodiments have been described based on the limited embodiments and drawings, but those skilled in the art will be able to make various modifications and variations based on the above description. For example, the techniques described may be performed in a different order than in the manner described and/or components such as systems, structures, devices, circuits, etc. described may be performed in a manner different from the manner described. Any combination or combination, substitution or replacement by other elements or equivalents may achieve suitable results.

したがって、異なる実施形態であっても、特許請求の範囲と均等なものであれば、添付される特許請求の範囲に属する。 Accordingly, different embodiments that are equivalent to the claims should still fall within the scope of the appended claims.

Claims (7)

メッセージサービスを提供するためのプログラムであって、
端末を、
前記端末に表示されたメッセージングインタフェースに対するタッチ入力に基づき、前記端末のカメラによるコンテンツの入力を開始する手段、
前記タッチ入力が維持されることに基づき、前記カメラによりコンテンツが入力されていることを前記メッセージングインタフェース上に表示する手段、および
前記タッチ入力の位置が特定の領域から逸脱することに基づき、前記コンテンツをメッセージサービスにおいて送信する手段
として機能させ、
前記表示する手段は、前記タッチ入力の位置に基づいた位置に、前記カメラによりコンテンツが入力されていることを表示する、プログラム。
A program for providing a message service, comprising:
terminal,
means for initiating input of content with a camera of the terminal based on touch input to a messaging interface displayed on the terminal;
means for displaying on the messaging interface that content is being input by the camera based on the sustained touch input ; as a means of sending in a message service,
A program according to claim 1, wherein said means for displaying displays that content is being input by said camera at a position based on said position of said touch input.
前記特定の領域は、前記タッチ入力が行われたアイコンとは異なる位置を含む領域である、請求項1に記載のプログラム。 2. The program according to claim 1, wherein said specific area is an area including a position different from the icon on which said touch input is performed. 前記表示する手段は、
前記カメラから入力される映像を前記メッセージングインタフェース上にリアルタイムに表示する、
請求項1または2に記載のプログラム。
The means for displaying
displaying video input from the camera on the messaging interface in real time;
3. A program according to claim 1 or 2.
前記カメラは、インカメラおよびアウトカメラを含み、
前記表示する手段は、
前記タッチ入力が認識される位置に応じて、前記インカメラおよび前記アウトカメラのいずれかからの入力を表示する、
請求項1~3のいずれか一項に記載のプログラム。
The cameras include an in-camera and an out-camera,
The means for displaying
displaying input from either the in-camera or the out-camera according to the position where the touch input is recognized;
A program according to any one of claims 1-3.
前記タッチ入力は、前記端末のタッチスクリーン画面に対するタッチ入力を含み、
前記コンテンツの入力を開始する手段は、
前記タッチ入力が予め設定された時間以上認識されることに応答し、前記端末のカメラによるコンテンツの入力を開始する、
請求項1~4のいずれか一項に記載のプログラム。
the touch input includes touch input to a touch screen screen of the terminal;
The means for initiating input of said content comprises:
Initiating input of content by a camera of the terminal in response to the touch input being recognized for a preset period of time.
A program according to any one of claims 1-4.
端末により実行されるメッセージサービスの方法であって、
前記端末に表示されたメッセージングインタフェースに対するタッチ入力に基づき、前記端末のカメラによるコンテンツの入力を開始する段階、
前記タッチ入力が維持されることに基づき、前記カメラによりコンテンツが入力されていることを前記メッセージングインタフェース上に表示する段階、および
前記タッチ入力の位置が特定の領域から逸脱することに基づき、前記コンテンツをメッセージサービスにおいて送信する段階
を含み、
前記表示する段階は、前記タッチ入力の位置に基づいた位置に、前記カメラによりコンテンツが入力されていることを表示する、方法。
A method of message service performed by a terminal, comprising:
initiating input of content with a camera of the terminal based on touch input to a messaging interface displayed on the terminal;
displaying on the messaging interface that content is being input by the camera based on the sustained touch input; and based on the location of the touch input deviating from a specific area , the content in the message service;
The method, wherein the displaying step displays content being input by the camera at a location based on the location of the touch input.
メッセージサービスを提供するための端末であって、
前記端末に表示されたメッセージングインタフェースに対するタッチ入力に基づき、前記端末のカメラによるコンテンツの入力を開始する手段、
前記タッチ入力が維持されることに基づき、前記カメラによりコンテンツが入力されていることを前記メッセージングインタフェース上に表示する手段、および
前記タッチ入力の位置が特定の領域から逸脱することに基づき、前記コンテンツをメッセージサービスにおいて送信する手段
を含み、
前記カメラは、前記タッチ入力の位置に基づいた位置に、前記カメラによりコンテンツが入力されていることを表示する、端末。
A terminal for providing a message service,
means for initiating input of content with a camera of the terminal based on touch input to a messaging interface displayed on the terminal;
means for displaying on the messaging interface that content is being input by the camera based on the sustained touch input ; in the message service;
The terminal, wherein the camera displays that content is being input by the camera at a position based on the position of the touch input.
JP2021189148A 2017-12-14 2021-11-22 Interaction method and system for content sharing in messaging service environment Active JP7165251B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021189148A JP7165251B2 (en) 2017-12-14 2021-11-22 Interaction method and system for content sharing in messaging service environment

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020532600A JP6983320B2 (en) 2017-12-14 2017-12-14 Interaction methods and systems for content sharing in a messaging service environment
PCT/KR2017/014723 WO2019117359A1 (en) 2017-12-14 2017-12-14 Interaction method and system for content sharing in messaging service environment
JP2021189148A JP7165251B2 (en) 2017-12-14 2021-11-22 Interaction method and system for content sharing in messaging service environment

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020532600A Division JP6983320B2 (en) 2017-12-14 2017-12-14 Interaction methods and systems for content sharing in a messaging service environment

Publications (2)

Publication Number Publication Date
JP2022028842A JP2022028842A (en) 2022-02-16
JP7165251B2 true JP7165251B2 (en) 2022-11-02

Family

ID=87885345

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021189148A Active JP7165251B2 (en) 2017-12-14 2021-11-22 Interaction method and system for content sharing in messaging service environment

Country Status (1)

Country Link
JP (1) JP7165251B2 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003084884A (en) 2001-09-11 2003-03-19 Sony Corp Information processing unit and method, and program
JP2012058979A (en) 2010-09-08 2012-03-22 Nintendo Co Ltd Information processing program, information processor, information processing system, and information processing method
US20130072262A1 (en) 2011-09-16 2013-03-21 Lg Electronics Inc. Mobile terminal and method for controlling the same
JP2014115971A (en) 2012-06-14 2014-06-26 Hiroyuki Ikeda Portable terminal
US20140372540A1 (en) 2013-06-13 2014-12-18 Evernote Corporation Initializing chat sessions by pointing to content
JP2016045854A (en) 2014-08-26 2016-04-04 シャープ株式会社 Information processing device, information processing program, and information processing method
US20160205049A1 (en) 2015-01-08 2016-07-14 Lg Electronics Inc. Mobile terminal and controlling method thereof
WO2016200588A1 (en) 2015-06-10 2016-12-15 Apple Inc. Devices and methods for manipulating user interfaces with a stylus

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003084884A (en) 2001-09-11 2003-03-19 Sony Corp Information processing unit and method, and program
JP2012058979A (en) 2010-09-08 2012-03-22 Nintendo Co Ltd Information processing program, information processor, information processing system, and information processing method
US20130072262A1 (en) 2011-09-16 2013-03-21 Lg Electronics Inc. Mobile terminal and method for controlling the same
JP2014115971A (en) 2012-06-14 2014-06-26 Hiroyuki Ikeda Portable terminal
US20140372540A1 (en) 2013-06-13 2014-12-18 Evernote Corporation Initializing chat sessions by pointing to content
JP2016045854A (en) 2014-08-26 2016-04-04 シャープ株式会社 Information processing device, information processing program, and information processing method
US20160205049A1 (en) 2015-01-08 2016-07-14 Lg Electronics Inc. Mobile terminal and controlling method thereof
WO2016200588A1 (en) 2015-06-10 2016-12-15 Apple Inc. Devices and methods for manipulating user interfaces with a stylus

Also Published As

Publication number Publication date
JP2022028842A (en) 2022-02-16

Similar Documents

Publication Publication Date Title
US20240039752A1 (en) FACILITATING PORTABLE, REUSABLE, AND SHARABLE INTERNET OF THINGS (IoT)-BASED SERVICES AND RESOURCES
KR101872751B1 (en) Method and apparatus for displaying application interface, and electronic device
US9406103B1 (en) Inline message alert
US10924519B2 (en) Method, apparatus, system, and non-transitory computer readable medium for interworking between applications of devices
US10114543B2 (en) Gestures for sharing data between devices in close physical proximity
US20140078178A1 (en) Adaptive Display Of A Visual Object On A Portable Device
JP6877149B2 (en) Shooting position recommendation method, computer program and shooting position recommendation system
US10884601B2 (en) Animating an image to indicate that the image is pannable
KR20160140932A (en) Expandable application representation and sending content
JP2020119565A (en) Method, system, and computer program for sharing information in chatroom using application added to platform in messenger
JP7393487B2 (en) Method and system for recommending profile pictures and non-transitory computer-readable storage medium
JP7335109B2 (en) A method, system, and non-transitory computer-readable recording medium for searching non-text using text from conversation content
US9256358B2 (en) Multiple panel touch user interface navigation
CN109313529B (en) Carousel between documents and pictures
JP7165251B2 (en) Interaction method and system for content sharing in messaging service environment
JP7127138B2 (en) A method, system, and non-transitory computer-readable recording medium for providing a chat room in three-dimensional form
KR102309243B1 (en) Method, system, and computer program for sharing content to chat room in picture-in-picture mode
JP6983320B2 (en) Interaction methods and systems for content sharing in a messaging service environment
JP7016956B2 (en) Interaction methods and systems in a messaging service environment
KR20210081935A (en) Method, system, and computer program for expressing emotion to conversation message using gesture
CN116931773A (en) Information processing method and device and electronic equipment
KR20210000140A (en) Method and system for providing content composed of spatial unit
JP2023003489A (en) Video processing system, video processing program and video processing method
CN116610396A (en) Method and device for sharing shooting of native content and meta-universe content and electronic equipment
JP2020077376A (en) System having camera application comprising multiple camera packages, and camera function control method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211222

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211222

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20211222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220125

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221021

R150 Certificate of patent or registration of utility model

Ref document number: 7165251

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350