WO2016108544A1 - 대화 서비스 제공 방법 및 대화 서비스 제공 디바이스 - Google Patents

대화 서비스 제공 방법 및 대화 서비스 제공 디바이스 Download PDF

Info

Publication number
WO2016108544A1
WO2016108544A1 PCT/KR2015/014340 KR2015014340W WO2016108544A1 WO 2016108544 A1 WO2016108544 A1 WO 2016108544A1 KR 2015014340 W KR2015014340 W KR 2015014340W WO 2016108544 A1 WO2016108544 A1 WO 2016108544A1
Authority
WO
WIPO (PCT)
Prior art keywords
visual signs
visual
signs
displayed
received
Prior art date
Application number
PCT/KR2015/014340
Other languages
English (en)
French (fr)
Inventor
문영민
Original Assignee
라인 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 라인 가부시키가이샤 filed Critical 라인 가부시키가이샤
Priority to JP2017535432A priority Critical patent/JP2018509673A/ja
Publication of WO2016108544A1 publication Critical patent/WO2016108544A1/ko

Links

Images

Classifications

    • G06Q50/50
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • G06Q50/40
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • H04L51/043Real-time or near real-time messaging, e.g. instant messaging [IM] using or handling presence information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/21Monitoring or handling of messages
    • H04L51/216Handling conversation history, e.g. grouping of messages in sessions or threads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/42Mailbox-related aspects, e.g. synchronisation of mailboxes

Definitions

  • Embodiments of the present invention relate to a chat service providing method and a chat service providing device.
  • a device means a personal computer, a portable terminal, or the like.
  • the device can be installed and deleted as desired by the user, and can be directly connected to a communication network using the wireless Internet.
  • a conversation service through multilateral visual signs is actively developed and used through a method of transmitting and receiving visual signs created in each of the plurality of devices between the plurality of devices and displaying the corresponding visual signs on the plurality of devices.
  • the background art described above is technical information possessed by the inventors for the derivation of the present invention or acquired during the derivation process of the present invention, and is not necessarily a publicly known technique disclosed to the general public before the application of the present invention.
  • Embodiments of the present invention provide a method of providing a conversation service that can edit the contents of a conversation according to the contents or importance of the conversation by editing the order of the displayed visual symbols or deleting some of the visual symbols during the multi-party conversation through the visual symbols. And a conversation service providing device.
  • Embodiments of the present invention provide a chat service providing method and a chat service providing device that can notify others of their edited content by transmitting and receiving information on the edited visual signs between a plurality of devices.
  • An embodiment of the present invention provides a chat service providing method of providing a conversation through a visual sign with one or more external devices to a device including a display unit, the plurality of visual signs transmitted and received between the device and the one or more external devices.
  • the communication unit for transmitting and receiving a plurality of visual signs with one or more external devices;
  • a display unit configured to display the plurality of visual signs;
  • a user input unit for receiving an input of a command to enter an editing mode for editing the plurality of visual signs, and a selection command for selecting one or more visual signs among the plurality of visual signs; And displaying the plurality of visual signs sequentially on the display unit according to a time at which the plurality of visual signs are transmitted and received, and moving the one or more visual signs selected according to the selection command to a predetermined position.
  • a control unit for changing the order in which they are displayed.
  • a chat service that can edit the content of the conversation according to the content and importance of the conversation, etc. Can provide.
  • FIG. 1 is a view schematically showing the configuration of a chat service providing system according to an embodiment of the present invention.
  • FIG. 2 is a block diagram schematically illustrating a chat service providing device and an internal configuration of the device of the chat service providing system of FIG. 1.
  • FIG. 3 is a flowchart schematically illustrating a chat service providing method according to an exemplary embodiment of the present invention.
  • 4 to 8 are screens schematically illustrating a process of providing a chat service on a device according to the method of FIG. 3.
  • FIG. 9 is a diagram schematically illustrating a process of transmitting and receiving information generated during a chat service between a plurality of devices.
  • FIG. 1 is a view schematically showing the configuration of a chat service providing system according to an embodiment of the present invention.
  • the chat service providing system 10 includes a first device 100 and a second device 200.
  • it includes a communication network 400 for interconnecting the first device 100 and the second device 200.
  • the server 300 may be connected to the first device 100 or the second device 200 through the communication network 400.
  • the first device 100 is a chat service providing device of the chat service providing system 10 according to an embodiment of the present invention.
  • the second device 200 may also be a chat service providing device of the chat service providing system 10 according to an embodiment of the present invention.
  • the first device 100 refers to a communication terminal capable of transmitting and receiving data with other devices in a wired or wireless communication environment.
  • the second device 200 may also be a communication terminal capable of transmitting and receiving data with other devices in a wired or wireless communication environment.
  • FIG. 1 although the first device 100 and the second device 200 are illustrated as smart phones, the spirit of the present invention is not limited thereto. As described above, the first device 100 and the second device 200 are not limited thereto. Devices that can transmit and receive can be borrowed without limitation.
  • the first device 100 and the second device 200 may be, for example, a smartphone, a PC, a tablet PC, a smart TV, a mobile phone, a personal digital assistant (PDA), a laptop, a media player, Micro servers, global positioning system (GPS) devices, e-book terminals, digital broadcasting terminals, navigation, kiosks, MP3 players, digital cameras, wearable devices, and other mobile or non-mobile computing devices, but the present invention is not limited thereto. no.
  • PDA personal digital assistant
  • Micro servers global positioning system (GPS) devices, e-book terminals, digital broadcasting terminals, navigation, kiosks, MP3 players, digital cameras, wearable devices, and other mobile or non-mobile computing devices, but the present invention is not limited thereto. no.
  • GPS global positioning system
  • first device 100 and the second device 200 may include various devices capable of receiving a touch input, such as an electronic blackboard, a touch table, or the like.
  • first device 100 and the second device 200 may be accessories such as watches, glasses, hair bands and rings having a communication function and a data processing function, but the present invention is not limited thereto.
  • the first device 100 may perform a conversation with the second device 200 through a visual sign. Although one second device 200 is displayed in FIG. 1, the plurality of second devices 200 and the first device 100 may communicate with each other through visual signs. That is, the first device 100 may exchange visual signs with the second devices 200, and the first device 100 may indicate a conversation between users on the display unit of the first device 100. Visual signs can be displayed. In addition, each of the second devices 200 may also display visual signs indicating a dialogue between users on the display unit of each second device 200.
  • the visual symbol refers to an object or a set of objects that can be visually recognized, such as an alphabet, a picture, and a picture, and can convey information in a visual form to the counterpart.
  • the visual sign may include a text message, a picture, a picture, or a sentence or an emoticon that may be generated by combining them, which may be displayed on the display unit of the first device 100.
  • the invention is not limited thereto.
  • the server 300 may be a server that provides a chat service. Although one server is displayed in FIG. 1, a plurality of servers may exist according to the amount of access or the amount of data.
  • the server 300 may also provide a general search service and various services that enhance convenience of other users. That is, the server 300 may provide various services such as search, email, blog, social network service, news, and shopping information in addition to the conversation service.
  • the server 300 is connected to a server that provides portal services such as search, email, news, and shopping, and portals to the first device 100 that requests information from the portal service. It may be a server that provides a web page provided by the service.
  • the server 300 and the portal service providing server may be separate servers that are physically separated, or may be identical servers that are conceptually separated.
  • the server 300 may store the conversation content between the first device 100 and the second device 200.
  • the first device 100 is displayed as being directly connected to the second device 200 through the communication network 400 to transmit and receive data
  • the first device 100 is connected between the first device 100 and the second device 200.
  • Data transmission and reception may be performed via the server 300. That is, for example, a visual symbol transmitted as an electronic signal from the first device 100 is transmitted to the server 300 through the communication network 400, and thereafter, the server 300 transmits a visual symbol to the server 300 through the communication network 400.
  • the visual sign may be transmitted to the second device 200.
  • the communication network 400 connects the first device 100 and the second device 200.
  • the communication network 400 may serve to connect the first device 100 and the second device 200 with the server 300. That is, the communication network 400 refers to a communication network that provides a connection path to transmit and receive data including visual signs between the first device and the second device 200.
  • the communication network 400 may be, for example, wired networks such as local area networks (LANs), wide area networks (WANs), metropolitan area networks (MANs), integrated service digital networks (ISDNs), wireless LANs, CDMA, Bluetooth, satellite communications, and the like. Although it may encompass a wireless network, the scope of the present invention is not limited thereto.
  • FIG. 2 is a block diagram schematically illustrating a chat service providing device and an internal configuration of the device of the chat service providing system of FIG. 1.
  • the first device 100 which is a chat service providing device of the chat service providing system according to an exemplary embodiment, may include a communication unit 110, a display unit 120, a user input unit 130, and a controller. 140 may be included.
  • the communication unit 110 may perform wired or wireless communication with at least one of the plurality of second devices 200 or the server 300.
  • the communication unit 110 may include a Bluetooth communication unit, a BLE (Bluetooth Low Energy) communication unit, a near field communication unit (Near Field Communication unit), a WLAN (Wi-Fi) communication unit, a Zigbee communication unit, an infrared ray (IrDA) infrared communication unit, a WFD ( Wi-Fi Direct communication unit, UWB (ultra wideband) communication unit, Ant + communication unit and the like, but is not limited thereto.
  • a Bluetooth communication unit a BLE (Bluetooth Low Energy) communication unit, a near field communication unit (Near Field Communication unit), a WLAN (Wi-Fi) communication unit, a Zigbee communication unit, an infrared ray (IrDA) infrared communication unit, a WFD ( Wi-Fi Direct communication unit, UWB (ultra wideband) communication unit, Ant + communication unit and the like,
  • the communication unit 110 may transmit / receive a radio signal with at least one of the base station, the second devices 200, or the server 300 on the communication network 400.
  • the wireless signal may include various types of data, including visual signs. That is, the communicator 110 may transmit the visual sign to the second device 200 and may receive the visual sign transmitted from the second device 200.
  • the display 120 may display information processed by the first device 100.
  • the display 120 may display visual signs transmitted and received between the first device 100 and the second device 200.
  • the display 120 may display a chat window including conversation contents between the user of the first device 100 and the users of the plurality of second devices 200. Visual signs can be displayed.
  • the display unit 120 may include a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, and a three-dimensional display. 3D display, an electrophoretic display may include at least one, but the scope of the present invention is not limited thereto. According to the implementation form of the first device 100, the first device 100 may include two or more display units 120.
  • the user input unit 130 may mean a means for a user to input data for controlling the first device 100.
  • the user input unit 130 may include a key pad, a dome switch, a touch pad (contact capacitive type, pressure resistive layer type, infrared sensing type, surface ultrasonic conduction type, and integral type). Tension measurement method, piezo effect method, etc.), a jog wheel, a jog switch, and the like, but are not limited thereto.
  • the user input unit 130 may receive a user input for a chat service through a visual sign.
  • the user input unit 130 may receive a user's voice input, a user's text input, or a user's touch input, but the scope of the present invention is not limited thereto.
  • the user input unit 130 may form a layer structure with the display unit 120 and may be configured as a single touch screen. In this case, the display 120 and the user input unit 130 may form a single physical form.
  • the controller 140 may typically control the overall operation of the first device 100.
  • the controller 140 may control the communication unit 110, the display unit 120, and the user input unit 130 by executing programs stored in a memory included in the first device 100. Can be.
  • the controller 140 may generally control the communicator 110, the display 120, the user input 130, and the like to perform the operation of the first device 100 of FIGS. 1 to 10B. .
  • the controller 140 may display the visual symbols received through the communication unit 110 or the visual symbols input through the user input unit 130 on the display unit 120.
  • the controller 140 may sequentially display the visual signs on the display 120 in the order in which the corresponding visual signs are written or in accordance with the time when the corresponding visual signs are transmitted and received.
  • the controller 140 may display the visual signs such that the visual signs are sequentially arranged in the first direction. For example, when the first direction is a direction from top to bottom, the controller 140 may display a visual symbol, which is transmitted and received relatively earlier, at a first position of the display 120, and visually transmitted and received later. The symbol may be displayed in a second position located below the first position of the display unit 120.
  • the controller 140 may activate an edit mode for editing the visual symbols displayed on the display 120.
  • the controller 140 may activate the edit mode when a command to enter the edit mode is input through the user input unit 130.
  • the command to enter the edit mode may be various types of inputs that a user of the first device 100 may input to the first device 100 through the user input unit 130.
  • the user input unit 130 may detect a click or touch operation on a UI existing at a specific position of the display unit 120. In this case, the controller 140 may determine whether the detected operation corresponds to an entry command to the edit mode. If it is determined that the detected operation is an entry command into the edit mode, the controller 140 may activate the edit mode.
  • the entry command may be clicked or double-clicked on a UI existing at a specific position of the display 120. It may be a click, dragging, or air gesture operation, but is not limited thereto.
  • the entry command may be a short tap, a long tap, a double tap, or a dragging operation in a specific direction after a touch on a UI existing at a specific position of the display 120. It is not limited to this.
  • the controller 140 may select one or more visual signs from the visual signs displayed on the display 120 while the edit mode is activated.
  • the controller 140 may select corresponding visual signs when a selection command for selecting visual signs is input through the user input unit 130.
  • the selection command may be various types of inputs that a user of the first device 100 may input to the first device 100.
  • the selection command may be a click, double click, or dragging operation on a position corresponding to the visual signs on the display 120, but is not limited thereto.
  • the selection command may include a short tap, a long tap, a double tap, a dragging in a specific direction, or an air gesture operation for a position corresponding to the visual symbols on the display 120. It may be, but is not limited thereto.
  • the location corresponding to the visual signs may be the location itself at which the corresponding visual signs are displayed, or the location at which the UI representing the particular visual sign is displayed.
  • a UI such as a check box may be displayed next to, above, or below the respective visual signs.
  • the position where the UI such as the corresponding check box is displayed may be a position corresponding to the specific visual sign.
  • the user input unit 130 may detect a click or touch operation on a UI such as a corresponding check box.
  • the controller 140 may determine the detected motion as an operation of selecting a specific visual sign.
  • the controller 140 may determine the selection command for selecting the visual symbols as the selection command and the entry command to the edit mode. For example, when a selection command for a position corresponding to visual signs is input on the display 120 in a non-edit mode, the controller 140 may select the corresponding visual signs while activating the edit mode.
  • the controller 140 may move the selected visual signs to a predetermined position on the display 120 to edit the order in which the visual signs are displayed.
  • the predetermined position may be various types of inputs that may indicate a specific position on the display 120. For example, when the user selects a UI indicating the end of editing on the display 120, the controller 140 moves the selected visual signs to a position where the most recently received visual signs are displayed on the display 120. You can. As another example, when the user selects a specific visual symbol through a click or a touch, drags while maintaining the click or touch, and ends the click or touch after dragging, the controller 140 determines that the dragging is performed. The visual sign can be moved to the finished position.
  • the controller 140 may delete the selected visual signs on the display 120. For example, when the user selects a UI indicating deletion on the display 120, the controller 140 may delete the selected visual signs on the display 120. In another example, the user selects a specific visual symbol through a click or a touch, and drags it to a position where the UI indicating deletion exists or the edge of the display unit 120 while maintaining the click or touch. When the click or the touch is terminated, the controller 140 may delete the selected visual signs.
  • the controller 140 may initialize the edited content of the visual signs, and may return the visual signs to the state in which the visual signs are sequentially displayed according to the time of transmission and reception. For example, when the user inputs a command to initialize the edits, the controller 140 returns the order in which the visual symbols are displayed to the state before the order is edited, and to the state of displaying the deleted conversations again. Can be.
  • FIG. 3 is a flowchart schematically illustrating a chat service providing method according to an exemplary embodiment of the present invention.
  • the flowchart shown in FIG. 3 is composed of steps that are processed in time series in the first device 100, which is the conversation service providing device shown in FIG. 2. Therefore, even if omitted below, it can be seen that the above description of the components shown in FIG. 2 also applies to the flowchart shown in FIG. 3.
  • a method of providing a chat service may include sequentially displaying a plurality of visual signs transmitted and received between devices according to time (S100), and editing a plurality of visual signs. Entering the edit mode (S200), selecting one or more visual symbols among the plurality of visual symbols (S300), and moving or deleting the selected one or more visual symbols to a predetermined position ( S400 step).
  • the step of entering the edit mode (step S200) and the step of selecting one or more visual signs (step S300) may be merged with each other to proceed as one step. That is, when the user selects one or more visual signs, the editing mode may be activated while the corresponding visual signs are selected.
  • step S300 the step of selecting one or more visual signs
  • step S400 the step of moving or deleting to a predetermined position
  • 4 to 8 are screens schematically illustrating a process of providing a chat service on a device according to the method of FIG. 3.
  • the method of providing a chat service may sequentially display visual signs indicating multi-party chat contents according to input time or transmitted / received time.
  • visual signs indicating multi-party conversation contents may be sequentially displayed on the display unit of the first device 100.
  • the visual signs created directly through the first device 100 may be displayed aligned with one side of the display unit of the first device 100, and the visual signs received from the second devices 200 may be displayed.
  • the second devices 200 which have transmitted the contents of the conversation may be classified and displayed on the opposite side of the one side.
  • each of the second devices 200 may be distinguished from each other through a UI representing different characters, pictures, or photos.
  • the first device 100 may receive a user input for selecting one of the visual signs. For example, as illustrated in FIG. 4A, the first device 100 may detect a touch on a position 150 on which a visual symbol desired to be selected by a user is displayed. As a user input for selecting one visual sign is received, the device 100 may display the visual sign to be distinguished from other visual signs. For example, as illustrated in FIG. 4B, the first device 100 may display a background color of the area 152 in which the selected visual sign is located differently from a background color of the area in which other visual signs are located. .
  • the first device 100 may receive a user input for moving the selected visual sign to a specific position. For example, as illustrated in FIG. 4B, the first device 100 may detect an operation in which the user touches and drags a visual sign. As a user input for moving the selected visual sign is received, the device 100 may move the visual sign to a predetermined position. For example, as shown in FIG. 4C, the first device 100 may edit the order in which the visual signs are displayed by moving the selected visual sign to a position where dragging is terminated. Through this, the user can freely edit the order of conversations in the chat window. At this time, the moved visual sign can be displayed to be distinguished from other visual signs. For example, as shown in FIG. 4C, the first device 100 may display a background color of the area 154 in which the moved visual sign is located different from a background color of the area in which other visual signs are located. have. Through this, the user can easily check which visual symbols are edited in order.
  • the first device 100 may receive a user input for deleting the selected visual sign. For example, when the user touches the UI indicating deletion, the first device 100 may delete the selected visual sign so that it is not displayed. Through this, the user may delete a conversation that he does not want to display, among the conversation contents of the chat window.
  • the first device 100 may receive a user input for selecting at least some of the visual signs among the plurality of visual signs. For example, as shown in FIG. 5A, the first device 100 may detect a multi-touch at a position where the visual signs 156a and 156b to be selected by the user are displayed. In this case, the first device 100 may receive a user input for moving the selected visual sign to a predetermined position. For example, as illustrated in FIG. 5B, the first device 100 may detect an operation in which the user touches and drags a specific visual sign. As a user input for moving the selected visual sign is received, the first device 100 may move the visual sign to a predetermined position. For example, as shown in FIG. 5C, the first device 100 may edit the order in which the visual signs are displayed by moving the selected visual sign to a position where dragging is terminated. Through this, the user can collectively edit the order of several conversations in the chat window.
  • multi-touch is illustrated as a method of selecting some visual signs, but the present invention is not limited thereto. That is, a method of sequentially clicking or touching some of the positions corresponding to the visual symbols in the editing mode, and clicking or touching the visual symbol located at the front among the visual symbols to select, Various types of methods that can be recognized as a command for selecting at least some of the plurality of visual signs in the first device 100, such as a method of clicking or touching, may be used as the selection method.
  • the first device 100 may display a UI for terminating the edit mode on the display unit of the first device 100.
  • the first device 100 may display a UI 158 for terminating the edit mode on the display unit of the first device 100.
  • the first device 100 may move the selected visual signs to a predetermined position while receiving a user input for terminating the edit mode.
  • FIG. 6B when the first device 100 detects a touch on the UI 158 that terminates the editing mode, as shown in FIG.
  • the first device 100 may move the selected visual signs to a position where the transmitted and received visual signs are displayed. Through this, the user may edit the order of the conversations in the chat window so that the conversation contents transmitted and received in the past may be viewed together with the contents of the transmission / reception conversations recently.
  • FIG 4 to 6 illustrate only one example of editing displayed conversation contents.
  • the first device 100 may edit the displayed conversation contents in various ways.
  • the intervals between the visual signs may be rearranged.
  • the first device 100 receives a user input for moving the selected visual symbol to a predetermined position, as shown in FIG. 7A, the first device 100 moves to the corresponding position at the predetermined position. You can move the symbol.
  • the first device 100 may move the visual signs located in the first direction from the position where the selected visual sign is moved in the first direction.
  • the first device 100 moves all the visual signs located between the position where the selected visual sign originally exists and the position where the selected visual sign is moved upward. You can move it.
  • the visual signs are sufficiently moved so that the interval between all the visual signs is constantly rearranged.
  • the first device 100 may display such a realignment process through an animation or may immediately display a state in which realignment is completed without smooth animation.
  • the first device 100 may receive a user input for moving some of the visual signs to a predetermined position.
  • the first device 100 may detect an operation in which the user touches a specific visual sign and drags it to a predetermined position.
  • the first device 100 may fix the dragged visual sign at the predetermined position.
  • the first device 100 distinguishes the predetermined position 160 from an area in which other visual symbols are located, and classifies the dragged visual symbol. It may be fixed at position 160.
  • the fixed visual sign may be displayed at the predetermined position 160 until the first device 100 releases the fixation. For example, as shown in FIG.
  • the first device 100 may be used even when the visual symbols that are sequentially displayed according to time are transmitted and received between 9:47 and 10: 7. May keep the visual sign received at 8:32 always displayed in a fixed position. In this way, the user can always be displayed in the chat window, such as visual symbols containing important information.
  • FIG. 9 is a diagram schematically illustrating a process of transmitting and receiving information generated during a chat service between a plurality of devices.
  • the method of providing a chat service may transmit edit information in which visual signs are edited to external devices.
  • the first device 100 may transmit edit information, in which visual symbols are edited, to the second devices 200 through the communication network 400.
  • the first device 100 may transmit all or a part of data about the edited multi-party conversation contents itself to the communication network 400, and only data about a change in which some visual symbols have been edited. Can also be sent as Through this, the user can share the changes of the visual signs that he edited with others.
  • the first device 100 may transmit corresponding edit information only to the second devices 200 selected by the user.
  • the first device 100 is in conversation with three second devices 200a, 200b, and 200c through a visual symbol, and the user of the first device 100 is connected to the second device 200a.
  • the second device 200c are allowed to transmit the edited information
  • the second device 200b may be allowed to transmit the edited information.
  • the corresponding edit information transmitted from the first device 100 to the communication network 400 may be transmitted only to the second device 200a and the second device 200c. Through this, the user can share the changes of the visual signs that he changes only to others who he / she wishes to share.
  • the first device 100 may transmit corresponding edit information only to the second devices 200 that transmit the edited visual signs among the entire visual signs.
  • the first device 100 is in conversation with three second devices 200a, 200b, and 200c through visual signs, and the visual signs edited by the first device 100 are displayed in a second manner.
  • the visual signs transmitted from the device 200a and the second device 200c are not edited, and the visual signs transmitted from the second device 200b are not edited.
  • the corresponding edit information transmitted from the first device 100 to the communication network 400 may be transmitted only to the second device 200a and the second device 200c. Through this, the user can share the changes of the visual signs that he changes, only to others who have created the visual signs.
  • the second device 200a and the second device 200c allow the users of each of the second device 200a and the second device 200c to receive the edit information from the first device 100. Only the editing information from the first device 100 may be received.
  • a user of the second device 200a allows the reception of the edit information from the first device 100, and a user of the second device 200c receives the edit information from the first device 100. You can think of the case as not allowed. In this case, the second device 200a may receive corresponding edit information.
  • the second device 200c may not receive the corresponding edit information or may not use the edit information even if it receives the edited information. Through this, the user can share the edited information only from others who he wishes to share.
  • the second device 200 may automatically change the order of visual signs displayed on the second device 200 according to information shared from the first device 100, and the user of the second device 200
  • the order of the visual signs displayed on the second device 200 may be changed only when the order of the visual signs is desired.
  • the second device 200 may output a notification.
  • the second device 200 may output a notification through a method of displaying a specific UI, a method of outputting a specific sound to a speaker, or a method of sounding a vibration. Through this, the user may be notified of the change when the order of the visual signs is changed without the user's direct involvement.
  • the first device 100 or the second device 200 may generate an electronic file describing the contents of the conversation between the first device 100 and the second device 200.
  • the first device 100 or the second device 200 may generate an electronic file in which the conversation contents of the edited state are described.
  • Each of the first device 100 or the second device 200 may receive a user input for generating an electronic file.
  • the first device 100 may display a UI for storing conversation contents on the display 120.
  • the first device 100 may detect an operation of selecting a corresponding UI. When the operation of selecting the corresponding UI is detected, the first device 100 may generate an electronic file in which the contents of the conversation are described.
  • Embodiments according to the present invention described above may be implemented in the form of a computer program that can be executed through various components on a computer, such a computer program may be recorded on a computer readable medium.
  • the media may be magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, and ROMs.
  • Hardware devices specifically configured to store and execute program instructions such as memory, RAM, flash memory, and the like.
  • the medium may include an intangible medium implemented in a form that can be transmitted on a network.
  • the medium may be a form of a software or an application that can be transmitted and distributed through a network.
  • the computer program may be specially designed and configured for the present invention, or may be known and available to those skilled in the computer software field.
  • Examples of computer programs may include not only machine code generated by a compiler, but also high-level language code executable by a computer using an interpreter or the like.
  • connection or connection members of the lines between the components shown in the drawings by way of example shows a functional connection and / or physical or circuit connections, in the actual device replaceable or additional various functional connections, physical It may be represented as a connection, or circuit connections.
  • 'essential', 'important' and the like may not be a necessary component for the application of the present invention.
  • Embodiments of the present invention relate to a method of providing a chat service and a device for providing a chat service.
  • the present invention provides a method of providing a chat service by editing a sequence of visual signs displayed in a multi-party chat through visual signs or deleting some of the visual signs. Thus, you can edit the conversation.
  • the present invention can be used in a chat service providing method and a chat service providing device that can increase the convenience of using a chat service by allowing a person using a chat service to change chat contents according to his or her intention.

Abstract

본 발명의 일 실시예는 디스플레이부를 포함하는 디바이스에게 하나 이상의 외부 디바이스들과 시각적 기호를 통한 대화를 제공하는 대화 서비스 제공 방법에 있어서, 상기 디바이스 및 상기 하나 이상의 외부 디바이스들 간에 송수신되는 복수의 시각적 기호들을 상기 복수의 시각적 기호들이 송수신된 시간에 따라 순차적으로 상기 디스플레이부에 디스플레이하는 단계; 상기 복수의 시각적 기호들을 편집할 수 있는 편집 모드로의 진입 명령을 입력 받는 단계; 상기 복수의 시각적 기호들 중 하나 이상의 시각적 기호들을 선택하는 선택 명령을 입력 받는 단계; 및 상기 선택된 하나 이상의 시각적 기호들을 소정의 위치로 이동시켜서 상기 복수의 시각적 기호들이 디스플레이되는 순서를 변경하는 단계;를 포함하는, 대화 서비스 제공 방법을 개시한다.

Description

대화 서비스 제공 방법 및 대화 서비스 제공 디바이스
본 발명의 실시예들은 대화 서비스 제공 방법 및 대화 서비스 제공 디바이스에 관한 것이다.
전자 통신 기술이 발전함에 따라, 사용자는 전자 통신을 수행할 수 있는 디바이스로 다양한 기능을 이용할 수 있게 되었다. 디바이스는 퍼스널 컴퓨터, 또는 휴대용 단말기 등을 의미한다. 디바이스는 다양한 프로그램을 사용자가 원하는 대로 설치 및 삭제할 수 있고, 무선 인터넷을 이용하여 통신망에 직접 접속할 수 있어서 활용도가 높다.
다수의 디바이스들이 통신망을 통하여 서로 간에 데이터를 송수신할 수 있다. 이에 따라 다수의 디바이스들 각각에서 작성된 시각적 기호들을 다수의 디바이스들 간에 송수신하고, 해당 시각적 기호들을 해당 다수의 디바이스들에 디스플레이하는 방법을 통하여 다자간 시각적 기호를 통한 대화 서비스가 활발하게 개발 및 사용되고 있다.
전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.
본 발명의 실시예들은 시각적 기호를 통한 다자간의 대화 시 디스플레이되는 시각적 기호들의 순서를 편집하거나 시각적 기호들 중 일부를 삭제함으로써, 대화의 내용 또는 중요도 등에 따라서 대화 내용을 편집할 수 있는 대화 서비스 제공 방법 및 대화 서비스 제공 디바이스를 제공한다.
본 발명의 실시예들은 편집한 시각적 기호들에 대한 정보를 다수의 디바이스들 간에 송수신함으로써, 타인에게도 자신이 편집한 내용을 알릴 수 있는 대화 서비스 제공 방법 및 대화 서비스 제공 디바이스를 제공한다.
본 발명의 일 실시예는 디스플레이부를 포함하는 디바이스에게 하나 이상의 외부 디바이스들과 시각적 기호를 통한 대화를 제공하는 대화 서비스 제공 방법에 있어서, 상기 디바이스 및 상기 하나 이상의 외부 디바이스들 간에 송수신되는 복수의 시각적 기호들을 상기 복수의 시각적 기호들이 송수신된 시간에 따라 순차적으로 상기 디스플레이부에 디스플레이하는 단계; 상기 복수의 시각적 기호들을 편집할 수 있는 편집 모드로의 진입 명령을 입력 받는 단계; 상기 복수의 시각적 기호들 중 하나 이상의 시각적 기호들을 선택하는 선택 명령을 입력 받는 단계; 및 상기 선택된 하나 이상의 시각적 기호들을 소정의 위치로 이동시켜서 상기 복수의 시각적 기호들이 디스플레이되는 순서를 변경하는 단계;를 포함하는, 대화 서비스 제공 방법을 개시한다.
본 발명의 다른 실시예는 하나 이상의 외부 디바이스들과 복수의 시각적 기호들을 송수신하는 통신부; 상기 복수의 시각적 기호들을 디스플레이하는 디스플레이부; 상기 디스플레이부에서 상기 복수의 시각적 기호들을 편집할 수 있는 편집 모드로의 진입 명령을 입력 받고, 상기 복수의 시각적 기호들 중 하나 이상의 시각적 기호들을 선택하는 선택 명령을 입력 받는 사용자입력부; 및 상기 복수의 시각적 기호들을 상기 복수의 시각적 기호들이 송수신된 시간에 따라 순차적으로 상기 디스플레이부에 디스플레이하다가, 상기 선택 명령에 따라 선택된 상기 하나 이상의 시각적 기호들을 소정의 위치로 이동시켜서 상기 복수의 시각적 기호들이 디스플레이되는 순서를 변경하는 제어부;를 포함하는, 대화 서비스 제공 디바이스를 개시한다.
전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.
이러한 일반적이고 구체적인 측면이 시스템, 방법, 컴퓨터 프로그램, 또는 어떠한 시스템, 방법, 컴퓨터 프로그램의 조합을 사용하여 실시될 수 있다.
이와 같은 본 발명에 의해서, 시각적 기호를 통한 다자간의 대화 시 디스플레이되는 시각적 기호들의 순서를 편집하거나 시각적 기호들 중 일부를 삭제함으로써, 대화의 내용 및 중요도 등에 따라서 대화 내용을 편집할 수 있는 대화 서비스를 제공할 수 있다.
또한, 편집한 시각적 기호들에 대한 정보를 다수의 디바이스들 간에 송수신함으로써, 타인에게도 자신이 편집한 내용을 알릴 수 있는 대화 서비스를 제공할 수 있다.
도 1은 본 발명의 일 실시예에 따른 대화 서비스 제공 시스템의 구성을 개략적으로 도시한 도면이다.
도 2는 도 1의 대화 서비스 제공 시스템의 대화 서비스 제공 디바이스와 디바이스의 내부 구성을 개략적으로 도시한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 대화 서비스 제공 방법을 개략적으로 도시한 흐름도이다.
도 4 내지 도 8은 도 3의 방법에 따라 디바이스 상에서 대화 서비스가 제공되는 과정을 개략적으로 도시한 화면이다.
도 9는 대화 서비스 도중 발생된 정보를 다수의 디바이스들 간에 송수신하는 과정을 개략적으로 도시한 도면이다.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. 이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 또한, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. 또한, 도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
도 1은 본 발명의 일 실시예에 따른 대화 서비스 제공 시스템의 구성을 개략적으로 도시한 도면이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 대화 서비스 제공 시스템(10)은 제1 디바이스(100) 및 제2 디바이스(200)를 포함한다. 또한, 제1 디바이스(100)와 제2 디바이스(200)를 상호 연결하는 통신망(400)을 포함한다. 또한, 통신망(400)을 통하여 제1 디바이스(100) 또는 제2 디바이스(200)와 연결될 수 있는 서버(300)를 포함할 수 있다.
제1 디바이스(100)는 본 발명의 일 실시예에 따른 대화 서비스 제공 시스템(10)의 대화 서비스 제공 디바이스이다. 제2 디바이스(200) 또한 본 발명의 일 실시예에 따른 대화 서비스 제공 시스템(10)의 대화 서비스 제공 디바이스일 수 있다. 제1 디바이스(100)는 유무선 통신 환경에서 타 디바이스와 데이터를 송수신할 수 있는 통신 단말기를 의미한다. 제2 디바이스(200) 또한 유무선 통신 환경에서 타 디바이스와 데이터를 송수신할 수 있는 통신 단말기일 수 있다. 도 1에서는 제1 디바이스(100) 및 제2 디바이스(200)가 스마트폰(smart phone)으로 도시되었지만, 본 발명의 사상은 이에 제한되지 아니하며, 상술한 바와 같이 유무선 통신 환경에서 타 디바이스와 데이터를 송수신할 수 있는 디바이스는 제한 없이 차용될 수 있다.
이를 더욱 상세히 설명하면, 제1 디바이스(100) 및 제2 디바이스(200)는, 예를 들어, 스마트폰, PC, 태블릿 PC, 스마트 TV, 휴대폰, PDA(personal digital assistant), 랩톱, 미디어 플레이어, 마이크로 서버, GPS(global positioning system) 장치, 전자책 단말기, 디지털방송용 단말기, 네비게이션, 키오스크, MP3 플레이어, 디지털 카메라, 웨어러블 디바이스 및 기타 모바일 또는 비모바일 컴퓨팅 장치일 수 있으나, 본 발명이 이에 한정되는 것은 아니다.
또한, 제1 디바이스(100) 및 제2 디바이스(200)는 전자 칠판, 터치 테이블 등과 같이 터치 입력을 수신할 수 있는 다양한 장치를 포함할 수 있다. 또한, 제1 디바이스(100) 및 제2 디바이스(200)는 통신 기능 및 데이터 프로세싱 기능을 구비한 시계, 안경, 헤어 밴드 및 반지 등의 악세서리일 수 있으나, 본 발명이 이에 한정되는 것은 아니다.
제1 디바이스(100)는 제2 디바이스(200)와 시각적 기호(visual sign)를 통한 대화를 수행할 수 있다. 도 1에서는 하나의 제2 디바이스(200)를 디스플레이하였지만, 복수의 제2 디바이스(200)들과 제1 디바이스(100)가 시각적 기호를 통한 대화를 수행할 수도 있다. 즉, 제1 디바이스(100)는 제2 디바이스(200)들과 서로 시각적 기호를 주고 받을 수 있으며, 제1 디바이스(100)는 제1 디바이스(100)의 디스플레이부 상에 사용자들 간의 대화를 나타내는 시각적 기호들을 디스플레이할 수 있다. 또한, 제2 디바이스(200)들 각각도 각각의 제2 디바이스(200)의 디스플레이부 상에 사용자들 간의 대화를 나타내는 시각적 기호들을 디스플레이할 수 있다.
본 명세서에서 시각적 기호는 문자(alphabet), 그림, 및 사진 등 시각적으로 인지될 수 있고, 상대방에게 시각적인 형태로 정보를 전달할 수 있는 객체 또는 해당 객체들의 집합을 의미한다. 예를 들어, 시각적 기호는 제1 디바이스(100)의 디스플레이부에 디스플레이될 수 있는 텍스트 메시지, 그림, 사진, 또는 이들을 조합하여 생성될 수 있는 문장(sentence)이나 이모티콘 등을 포함할 수 있으나, 본 발명이 이에 한정되는 것은 아니다.
서버(300)는 대화 서비스를 제공하는 서버일 수 있다. 도 1에는 하나의 서버를 디스플레이하였지만, 접속량 혹은 데이터 양에 따라 복수 개의 서버가 존재할 수 있다.
서버(300)는 대화 서비스를 제공하는 외에도 일반적인 검색 서비스 및 기타 사용자의 편의를 증진시키는 다양한 서비스를 제공할 수도 있다. 즉, 서버(300)는 대화 서비스 외에도 검색, 이메일, 블로그, 소셜 네트워크 서비스(social network service), 뉴스, 쇼핑 정보 제공과 같은 다양한 서비스들을 제공할 수 있다.
또는, 서버(300)는 검색, 이메일, 뉴스, 쇼핑과 같은 포털(portal) 서비스를 제공하는 서버에 연결되어, 포털(portal) 서비스에 정보 제공을 요청하는 제1 디바이스(100)로 포털(portal) 서비스가 제공하는 웹 페이지를 제공하는 서버일 수 있다. 여기서 서버(300)와 포털 서비스 제공 서버는 물리적으로 분리된 별도의 서버일 수도 있고, 개념적으로만 분리된 동일한 서버일 수도 있다.
서버(300)는 제1 디바이스(100) 및 제2 디바이스(200) 간의 대화 내용을 저장할 수 있다. 도 1에서는 제1 디바이스(100)가 통신망(400)을 통하여 제2 디바이스(200)와 직접적으로 데이터를 송수신할 수 있도록 연결된 것으로 디스플레이하였지만, 제1 디바이스(100) 및 제2 디바이스(200) 간의 데이터 송수신이 서버(300)를 거쳐서 수행될 수도 있다. 즉, 예를 들어, 제1 디바이스(100)에서 전자적 신호로 송신된 시각적 기호가 통신망(400)을 통하여 서버(300)로 전달이 되고, 그 후 서버(300)에서 통신망(400)을 통하여 제2 디바이스(200)로 해당 시각적 기호를 송신할 수도 있다.
통신망(400)은 제1 디바이스(100) 및 제2 디바이스(200)를 연결하는 역할을 수행한다. 또한, 통신망(400)은 제1 디바이스(100) 및 제2 디바이스(200)를 서버(300)와 연결하는 역할을 수행할 수 있다. 즉, 통신망(400)은 제1 디바이스 및 제2 디바이스(200) 간에 시각적 기호를 포함하는 데이터를 송수신할 수 있도록 접속 경로를 제공하는 통신망을 의미한다. 통신망(400)은 예컨대 LANs(Local Area Networks), WANs(Wide Area Networks), MANs(Metropolitan Area Networks), ISDNs(Integrated Service Digital Networks) 등의 유선 네트워크나, 무선 LANs, CDMA, 블루투스, 위성 통신 등의 무선 네트워크를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
도 2는 도 1의 대화 서비스 제공 시스템의 대화 서비스 제공 디바이스와 디바이스의 내부 구성을 개략적으로 도시한 블록도이다.
도 2를 참조하면, 본 발명의 일 실시예에 따른 대화 서비스 제공 시스템의 대화 서비스 제공 디바이스인 제1 디바이스(100)는 통신부(110), 디스플레이부(120), 사용자입력부(130), 및 제어부(140)를 포함할 수 있다.
통신부(110)는 복수의 제2 디바이스(200)들 또는 서버(300) 중 적어도 하나와 유무선 통신을 수행할 수 있다. 통신부(110)는 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등일 수 있으나, 이에 한정되는 것은 아니다.
통신부(110)는 통신망(400) 상에서 기지국, 제2 디바이스(200)들, 또는 서버(300) 중 적어도 하나와 무선 신호를 송수신할 수 있다. 무선 신호는, 시각적 기호를 포함하는 다양한 형태의 데이터를 포함할 수 있다. 즉, 통신부(110)는 시각적 기호를 제2 디바이스(200)로 송신할 수 있고, 제2 디바이스(200)로부터 송신되는 시각적 기호를 수신할 수 있다.
디스플레이부(120)는 제1 디바이스(100)에서 처리되는 정보를 디스플레이할 수 있다. 디스플레이부(120)는 제1 디바이스(100)와 제2 디바이스(200) 간에 송수신된 시각적 기호를 디스플레이할 수 있다. 예를 들어, 디스플레이부(120)는 제1 디바이스(100)의 사용자 및 복수의 제2 디바이스(200)들의 사용자들 간의 대화 내용을 포함하는 채팅창을 디스플레이할 수 있고, 해당 채팅창에는 송수신된 시각적 기호가 디스플레이될 수 있다.
디스플레이부(120)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다. 제1 디바이스(100)의 구현 형태에 따라 제1 디바이스(100)는 디스플레이부(120)를 2개 이상 포함할 수도 있다.
사용자입력부(130)는 사용자가 제1 디바이스(100)를 제어하기 위한 데이터를 입력하는 수단을 의미할 수 있다. 예를 들어, 사용자입력부(130)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나, 이에 한정되는 것은 아니다.
사용자입력부(130)는 시각적 기호를 통한 대화 서비스를 위한 사용자 입력을 수신할 수 있다. 예를 들어, 사용자입력부(130)는, 사용자의 음성 입력, 사용자의 문자 입력, 또는 사용자의 터치 입력을 수신할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
사용자입력부(130)는 디스플레이부(120)와 레이어 구조를 이루어 하나의 터치 스크린으로 구성될 수 있다. 이 경우, 디스플레이부(120)와 사용자입력부(130)가 하나의 물리적인 형태를 이룰 수 있다.
제어부(140)는 통상적으로 제1 디바이스(100)의 전반적인 동작을 제어할 수 있다. 예를 들어, 제어부(140)는, 제1 디바이스(100)에 포함되는 메모리에 저장된 프로그램들을 실행함으로써, 통신부(110), 디스플레이부(120), 및 사용자입력부(130) 등을 전반적으로 제어할 수 있다. 제어부(140)는 도 1 내지 도 10b에서의 제1 디바이스(100)의 동작을 수행하기 위하여, 통신부(110), 디스플레이부(120), 및 사용자입력부(130) 등을 전반적으로 제어할 수 있다.
구체적으로, 제어부(140)는 통신부(110)를 통하여 수신되는 시각적 기호들 또는 사용자입력부(130)를 통하여 입력되는 시각적 기호들을 디스플레이부(120)에 디스플레이할 수 있다. 또한, 제어부(140)는 해당 시각적 기호들이 작성된 순서에 따라서, 또는 해당 시각적 기호들이 송수신된 시간에 따라서 순차적으로 해당 시각적 기호들을 디스플레이부(120)에 디스플레이할 수 있다. 이 경우, 제어부(140)는 해당 시각적 기호들이 디스플레이부(120)에 순차적으로 제1 방향으로 나열되도록 디스플레이할 수 있다. 예를 들어, 제1 방향이 위에서 아래로 향하는 방향인 경우, 제어부(140)는 상대적으로 먼저 송수신된 시각적 기호를 디스플레이부(120)의 제1 위치에 디스플레이할 수 있고, 상대적으로 나중에 송수신된 시각적 기호를 디스플레이부(120)의 제1 위치보다 하단에 위치하는 제2 위치에 디스플레이할 수 있다.
또한, 제어부(140)는 디스플레이부(120)에 디스플레이 되어 있는 시각적 기호들을 편집할 수 있는 편집 모드를 활성화할 수 있다. 제어부(140)는 사용자입력부(130)를 통하여 편집 모드로의 진입 명령이 입력될 때 편집 모드를 활성화할 수 있다. 편집 모드로의 진입 명령은 제1 디바이스(100)의 사용자가 사용자입력부(130)를 통하여 제1 디바이스(100)에 입력할 수 있는 다양한 종류의 입력일 수 있다. 상세히, 사용자입력부(130)는 디스플레이부(120)의 특정 위치에 존재하는 UI에 대한 클릭 또는 터치 동작을 검출할 수 있다. 이 경우, 제어부(140)는 검출한 동작이 편집 모드로의 진입 명령에 대응하는지 판단할 수 있다. 검출한 동작이 편집 모드로의 진입 명령으로 판단되면, 제어부(140)는 편집 모드를 활성화할 수 있다.이와 같이, 진입 명령은 디스플레이부(120)의 특정 위치에 존재하는 UI에 대한 클릭, 더블 클릭, 드래깅, 또는 에어 제스쳐 동작일 수 있으나, 이에 한정되는 것은 아니다. 디스플레이부(120)가 터치 감지 디스플레이부인 경우, 진입 명령은 디스플레이부(120)의 특정 위치에 존재하는 UI에 대한 쇼트탭, 롱탭, 더블탭, 또는 터치 후 특정 방향으로의 드래깅 동작일 수 있으나, 이에 한정되는 것은 아니다.
또한, 제어부(140)는 편집 모드가 활성화된 상태에서 디스플레이부(120)에 디스플레이 되어 있는 시각적 기호들 중 하나 이상의 시각적 기호들을 선택할 수 있다. 제어부(140)는 사용자입력부(130)를 통하여 시각적 기호들을 선택하는 선택 명령이 입력될 때 해당 시각적 기호들을 선택할 수 있다. 선택 명령은 제1 디바이스(100)의 사용자가 제1 디바이스(100)에 입력할 수 있는 다양한 종류의 입력일 수 있다. 예를 들어, 선택 명령은 디스플레이부(120)에서 시각적 기호들에 대응하는 위치에 대한 클릭, 더블 클릭, 또는 드래깅 동작일 수 있으나, 이에 한정되는 것은 아니다. 디스플레이부(120)가 터치 감지 디스플레이부인 경우, 선택 명령은 디스플레이부(120)에서 시각적 기호들에 대응하는 위치에 대한 쇼트탭, 롱탭, 더블탭, 터치 후 특정 방향으로의 드래깅, 또는 에어 제스쳐 동작일 수 있으나, 이에 한정되는 것은 아니다.
시각적 기호들에 대응하는 위치는, 해당 시각적 기호들이 디스플레이된 위치 자체일 수도 있고, 특정 시각적 기호를 나타내는 UI가 디스플레이된 위치일 수도 있다. 상세히, 편집 모드에서는 각각의 시각적 기호들의 옆, 위, 또는 아래 방향에 체크 박스 등의 UI가 표시될 수 있다. 해당 체크 박스 등의 UI가 표시되는 위치가 특정 시각적 기호에 대응하는 위치일 수 있다. 사용자입력부(130)는 해당 체크 박스 등의 UI에 대한 클릭 또는 터치 동작을 검출할 수 있다. 제어부(140)는 검출된 동작을 특정 시각적 기호를 선택하는 동작으로 판단할 수 있다.
또한, 제어부(140)는 시각적 기호들을 선택하는 선택 명령을, 선택 명령인 동시에 편집 모드로의 진입 명령으로 판단할 수 있다. 예를 들어, 편집 모드가 아닌 상태에서 디스플레이부(120)에서 시각적 기호들에 대응하는 위치에 대한 선택 명령이 입력되는 경우, 제어부(140)는 편집 모드를 활성화하면서 해당 시각적 기호들을 선택할 수 있다.
또한, 제어부(140)는 선택된 시각적 기호들을 디스플레이부(120) 상 소정의 위치로 이동시켜서, 시각적 기호들이 디스플레이되는 순서를 편집할 수 있다. 소정의 위치는 디스플레이부(120) 상 특정 위치를 나타낼 수 있는 다양한 종류의 입력일 수 있다. 예를 들어, 사용자가 디스플레이부(120) 상에서 편집 종료를 나타내는 UI를 선택하는 경우, 제어부(140)는 선택된 시각적 기호들을 디스플레이부(120) 상에서 가장 최근에 수신된 시각적 기호가 디스플레이되는 위치로 이동시킬 수 있다. 다른 예시로, 사용자가 특정 시각적 기호를 클릭이나 터치를 통하여 선택하고, 해당 클릭이나 터치를 유지한 상태에서 드래깅을 하고, 드래깅 후에 해당 클릭이나 터치를 종료하는 경우, 제어부(140)는 해당 드래깅이 종료된 위치로 해당 시각적 기호를 이동시킬 수 있다.
또한, 제어부(140)는 선택된 시각적 기호들을 디스플레이부(120) 상에서 삭제시킬 수 있다. 예를 들어, 사용자가 디스플레이부(120) 상에서 삭제를 나타내는 UI를 선택하는 경우, 제어부(140)는 선택된 시각적 기호들을 디스플레이부(120) 상에서 삭제할 수 있다. 다른 예시로, 사용자가 특정 시각적 기호를 클릭이나 터치를 통하여 선택하고, 해당 클릭이나 터치를 유지한 상태에서 삭제를 나타내는 UI가 존재하는 위치 또는 디스플레이부(120)의 에지(edge)로 드래깅 후에 해당 클릭이나 터치를 종료하는 경우, 제어부(140)는 선택된 시각적 기호들을 삭제할 수 있다.
또한, 제어부(140)는 시각적 기호들의 편집 내용을 초기화하여, 시각적 기호들이 송수신된 시간에 따라 순차적으로 디스플레이되는 상태로 되돌릴 수 있다. 예를 들어, 사용자가 편집 내용을 초기화하라는 명령을 입력하는 경우, 제어부(140)는 시각적 기호들이 디스플레이 되는 순서를, 순서가 편집되기 전 상태로 되돌리고, 삭제되었던 대화 내용들을 다시 표시하는 상태로 되돌릴 수 있다.
도 3은 본 발명의 일 실시예에 따른 대화 서비스 제공 방법을 개략적으로 도시한 흐름도이다.
도 3에 도시된 흐름도는, 도 2에 도시된 대화 서비스 제공 디바이스인 제1 디바이스(100)에서 시계열적으로 처리되는 단계들로 구성된다. 따라서, 이하에서 생략된 내용이라 하더라도, 도 2에서 도시된 구성들에 관하여 이상에서 기술된 내용은 도 3에 도시된 흐름도에도 적용됨을 알 수 있다.
도 3을 참조하면, 본 발명의 일 실시예에 따른 대화 서비스 제공 방법은, 디바이스들 간에 송수신되는 복수의 시각적 기호들을 시간에 따라 순차적으로 디스플레이 하는 단계(S100 단계), 복수의 시각적 기호들을 편집할 수 있는 편집 모드로 진입하는 단계(S200 단계), 복수의 시각적 기호들 중 하나 이상의 시각적 기호들을 선택하는 단계(S300 단계), 및 선택된 하나 이상의 시각적 기호들을 소정의 위치로 이동시키거나 삭제하는 단계(S400 단계)를 포함한다. 여기서, 편집 모드로 진입하는 단계(S200 단계) 및 하나 이상의 시각적 기호들을 선택하는 단계(S300 단계)는 서로 병합되어 하나의 단계로 진행될 수 있다. 즉, 사용자가 하나 이상의 시각적 기호들을 선택하면, 해당 시각적 기호들이 선택되면서 편집 모드가 활성화될 수 있다. 또한, 하나 이상의 시각적 기호들을 선택하는 단계(S300 단계) 및 소정의 위치로 이동시키거나 삭제하는 단계(S400 단계)는 서로 병합되어 하나의 단계로 진행될 수 있다. 즉, 사용자가 편집 모드에서 하나 이상의 시각적 기호들을 선택하면, 해당 시각적 기호들이 선택되면서 소정의 위치로 해당 시각적 기호들이 이동되거나 삭제될 수 있다.
도 4 내지 도 8은 도 3의 방법에 따라 디바이스 상에서 대화 서비스가 제공되는 과정을 개략적으로 도시한 화면이다.
도 4를 참조하면, 본 발명의 일 실시예에 따른 대화 서비스 제공 방법은, 다자간의 대화 내용을 나타내는 시각적 기호들을, 해당 시각적 기호들이 입력된 시간 또는 송수신된 시간에 따라 순차적으로 디스플레이할 수 있다. 이 경우, 제1 디바이스(100)의 디스플레이부에는 다자간의 대화 내용을 나타내는 시각적 기호들이 순차적으로 디스플레이될 수 있다. 또한, 제1 디바이스(100)를 통해 직접 작성된 시각적 기호들은 제1 디바이스(100)의 디스플레이부의 일 측으로 정렬되어 디스플레이 될 수 있고, 제2 디바이스(200)들로부터 통해 수신된 시각적 기호들은, 각각의 대화 내용을 송신한 제2 디바이스(200)들을 구분하여 상기 일 측의 반대측으로 정렬되어 디스플레이 될 수 있다. 이 경우, 각각의 제2 디바이스(200)들은 서로 다른 문자, 그림, 또는 사진 등을 나타내는 UI를 통하여 서로 구분될 수 있다.
이 때, 제1 디바이스(100)는 시각적 기호들 중 하나를 선택하는 사용자 입력을 수신할 수 있다. 예를 들어, 도 4(a)에 도시된 바와 같이, 제1 디바이스(100)는 사용자가 선택하고자 하는 시각적 기호가 디스플레이 된 위치(150)에 대한 터치를 검출할 수 있다. 하나의 시각적 기호를 선택하는 사용자 입력이 수신됨에 따라, 디바이스(100)는 해당 시각적 기호를 다른 시각적 기호들과 구별되게 디스플레이할 수 있다. 예를 들어, 도 4(b)에 도시된 바와 같이, 제1 디바이스(100)는 선택된 시각적 기호가 위치하는 영역(152)의 배경색을 다른 시각적 기호들이 위치하는 영역의 배경색과 다르게 디스플레이할 수 있다.
이 때, 제1 디바이스(100)는 선택된 시각적 기호를 특정 위치로 이동시키는 사용자 입력을 수신할 수 있다. 예를 들어, 도 4(b)에 도시된 바와 같이, 제1 디바이스(100)는 사용자가 시각적 기호를 터치하고 드래깅하는 동작을 검출할 수 있다. 선택된 시각적 기호를 이동시키는 사용자 입력이 수신됨에 따라, 디바이스(100)는 소정의 위치로 해당 시각적 기호를 이동시킬 수 있다. 예를 들어, 도 4(c)에 도시된 바와 같이, 제1 디바이스(100)는 드래깅이 종료된 위치로 선택된 시각적 기호를 이동시켜서 시각적 기호들이 디스플레이 되는 순서를 편집할 수 있다. 이를 통하여, 사용자는 채팅창에서 대화의 순서를 마음대로 편집할 수 있다. 이 때, 이동시킨 시각적 기호를 다른 시각적 기호들과 구별되게 디스플레이할 수 있다. 예를 들어, 도 4(c)에 도시된 바와 같이, 제1 디바이스(100)는 이동시킨 시각적 기호가 위치하는 영역(154)의 배경색을 다른 시각적 기호들이 위치하는 영역의 배경색과 다르게 디스플레이할 수 있다. 이를 통하여, 사용자는 어떤 시각적 기호가 순서가 편집된 것인지 쉽게 확인할 수 있다.
또한, 제1 디바이스(100)는 선택된 시각적 기호를 삭제하는 사용자 입력을 수신할 수 있다. 예를 들어, 사용자가 삭제를 나타내는 UI를 터치하는 경우, 제1 디바이스(100)는 선택된 시각적 기호를 삭제하여, 디스플레이되지 않도록 할 수 있다. 이를 통하여, 사용자는 채팅창의 대화 내용 중, 표시하고 싶지 않은 대화를 삭제할 수 있다.
여기서, 제1 디바이스(100)는 복수의 시각적 기호들 중 적어도 일부의 시각적 기호들을 선택하는 사용자 입력을 수신할 수도 있다. 예를 들어, 도 5(a)에 도시된 바와 같이, 제1 디바이스(100)는 사용자가 선택하고자 하는 시각적 기호들(156a 및 156b)이 디스플레이 된 위치의 멀티-터치를 검출할 수 있다. 이 때, 제1 디바이스(100)는 선택된 시각적 기호를 소정의 위치로 이동시키는 사용자 입력을 수신할 수 있다. 예를 들어, 도 5(b)에 도시된 바와 같이, 제1 디바이스(100)는 사용자가 특정 시각적 기호를 터치하고 드래깅하는 동작을 검출할 수 있다. 선택된 시각적 기호를 이동시키는 사용자 입력이 수신됨에 따라, 제1 디바이스(100)는 소정의 위치로 해당 시각적 기호를 이동시킬 수 있다. 예를 들어, 도 5(c)에 도시된 바와 같이, 제1 디바이스(100)는 드래깅이 종료된 위치로 선택된 시각적 기호를 이동시켜서 시각적 기호들이 디스플레이 되는 순서를 편집할 수 있다. 이를 통하여, 사용자는 채팅창에서 여러 개의 대화들의 순서를 일괄적으로 편집할 수 있다.
도 5에서는, 일부의 시각적 기호들을 선택하는 방법으로 멀티-터치가 도시되어 있으나, 본 발명은 이에 한정되지 않는다. 즉, 편집 모드에서 시각적 기호들에 대응하는 위치들 중 일부를 순차적으로 클릭 또는 터치하는 방법, 선택하고자 하는 시각적 기호들 중 가장 앞에 위치하는 시각적 기호를 클릭 또는 터치한 후 가장 뒤에 위치하는 시각적 기호를 클릭 또는 터치하는 방법 등, 제1 디바이스(100)에서 복수의 시각적 기호들 중 적어도 일부를 선택하라는 명령으로 인식할 수 있는 다양한 종류의 방법이 선택 방법으로 사용될 수 있다.
또한, 제1 디바이스(100)는 편집 모드를 종료시키는 UI를 제1 디바이스(100)의 디스플레이부에 디스플레이할 수 있다. 예를 들어, 도 6(a)에 도시된 바와 같이, 제1 디바이스(100)는 편집 모드를 종료시키기 위한 UI(158)를 제1 디바이스(100)의 디스플레이부에 디스플레이할 수 있다. 이 때, 제1 디바이스(100)는 편집 모드를 종료시키는 사용자 입력을 수신하면서, 선택된 시각적 기호들을 소정의 위치로 이동시킬 수 있다. 예를 들어, 도 6(b)에 도시된 바와 같이 제1 디바이스(100)가 편집 모드를 종료시키는 UI(158)에 대한 터치를 검출하면, 도 6(c)에 도시된 바와 같이 가장 최근에 송수신된 시각적 기호가 디스플레이되는 위치로 제1 디바이스(100)가 선택된 시각적 기호들을 이동시킬 수 있다. 이를 통하여, 사용자는 과거에 송수신된 대화 내용을 최근에 송수신 대화 내용과 함께 살펴볼 수 있도록 채팅창에서의 대화들의 순서를 편집할 수 있다.
도 4 내지 도 6은 디스플레이 되는 대화 내용들을 편집하는 하나의 예시를 나타낸 것에 불과하고, 이 외에 다양한 방법으로 제1 디바이스(100)는 디스플레이 되는 대화 내용들을 편집할 수 있다.
본 발명의 일 실시예에 따른 대화 서비스 제공 방법을 통하여 시각적 기호들이 디스플레이 되는 순서가 편집될 때, 시각적 기호들 간의 간격이 재정렬될 수 있다. 예를 들어, 도 7(a)에 도시된 바와 같이 선택된 시각적 기호를 소정의 위치로 이동시키는 사용자 입력을 제1 디바이스(100)가 수신하면, 제1 디바이스(100)는 소정의 위치로 해당 시각적 기호를 이동시킬 수 있다. 이 때, 제1 디바이스(100)는 선택된 시각적 기호가 이동된 위치에서 제1 방향에 위치하는 시각적 기호들을 해당 제1 방향으로 이동시킬 수 있다. 예를 들어, 도 7(b)에 도시된 바와 같이, 제1 디바이스(100)는, 선택된 시각적 기호가 원래 존재하던 위치에서부터 선택된 시각적 기호가 이동된 위치 사이에 위치하는 모든 시각적 기호들을, 위쪽으로 이동시킬 수 있다. 시간이 경과하면, 도 7(c)에 도시된 바와 같이, 시각적 기호들이 충분히 이동하여 모든 시각적 기호들 간의 간격이 일정하게 재정렬 될 수 있다. 제1 디바이스(100)는 이러한 재정렬 과정을 애니메이션을 통하여 디스플레이할 수도 있고, 부드러운 애니메이션 없이 재정렬이 완료된 상태를 즉시 디스플레이할 수도 있다.
또한, 제1 디바이스(100)는 시각적 기호들 중 일부를 소정의 위치로 이동시키는 사용자 입력을 수신할 수 있다. 예를 들어, 도 8(a)에 도시된 바와 같이, 제1 디바이스(100)는 사용자가 특정 시각적 기호를 터치하고 소정의 위치로 드래깅하는 동작을 검출할 수 있다. 이 때, 제1 디바이스(100)는 해당 드래깅된 시각적 기호를 해당 소정의 위치에 고정할 수 있다. 예를 들어, 도 8(b)에 도시된 바와 같이, 제1 디바이스(100)는 해당 소정의 위치(160)를 다른 시각적 기호들이 위치하는 영역과 구분하고, 해당 드래깅된 시각적 기호를 해당 소정의 위치(160)에 고정할 수 있다. 이렇게 고정된 시각적 기호는, 제1 디바이스(100)가 고정을 해제할 때까지 해당 소정의 위치(160)에 디스플레이될 수 있다. 예를 들어, 도 8(c)에 도시된 바와 같이, 시간에 따라 순차적으로 디스플레이 되고 있는 시각적 기호들이 송수신된 시간이 9시 47분에서 10시 7분 사이인 경우에도, 제1 디바이스(100)는 8시 32분에 수신된 시각적 기호가 항상 고정된 위치에 디스플레이 되도록 유지할 수 있다. 이를 통하여, 사용자는 중요한 정보를 담고 있는 시각적 기호 등이 채팅창에 항상 디스플레이되도록 할 수 있다.
도 9는 대화 서비스 도중 발생된 정보를 다수의 디바이스들 간에 송수신하는 과정을 개략적으로 도시한 도면이다.
도 9를 참조하면, 본 발명의 일 실시예에 따른 대화 서비스 제공 방법은, 시각적 기호들이 편집된 편집 정보를 외부 디바이스들로 송신할 수 있다. 예를 들어, 도 9에 도시된 바와 같이, 제1 디바이스(100)는 시각적 기호들이 편집된 편집 정보를 통신망(400)을 통하여 제2 디바이스(200)들로 송신할 수 있다. 이 때, 제1 디바이스(100)는 편집된 다자간의 대화 내용들 자체에 대한 데이터 전부 또는 일부를 통신망(400)으로 송신할 수도 있고, 어떤 시각적 기호들이 편집되었다는 변경 사항에 대한 데이터만을 통신망(400)으로 송신할 수도 있다. 이를 통하여, 사용자는 자신이 편집한 시각적 기호들의 변경 사항을 타인과 공유할 수 있다.
제1 디바이스(100)는 사용자로부터 선택된 제2 디바이스(200)들에만 해당 편집 정보를 송신할 수 있다. 예를 들어, 제1 디바이스(100)가 세 개의 제2 디바이스들(200a, 200b, 및 200c)과 시각적 기호를 통한 대화를 진행하고 있고, 제1 디바이스(100)의 사용자는 제2 디바이스(200a) 및 제2 디바이스(200c)에는 해당 편집 정보의 송신을 허가하고, 제2 디바이스(200b)에는 해당 편집 정보의 송신을 불허한 경우를 생각할 수 있다. 이 경우, 도 9에 도시된 바와 같이, 제1 디바이스(100)로부터 통신망(400)으로 송신된 해당 편집 정보는, 제2 디바이스(200a) 및 제2 디바이스(200c)에만 송신될 수 있다. 이를 통하여, 사용자는 자신이 변경한 시각적 기호들의 변경 사항을, 자신이 공유를 희망하는 타인들에게만 공유할 수 있다.
제1 디바이스(100)는 전체 시각적 기호들 중, 편집된 시각적 기호들을 송신한 제2 디바이스(200)들에만 해당 편집 정보를 송신할 수 있다. 예를 들어, 제1 디바이스(100)가 세 개의 제2 디바이스들(200a, 200b, 및 200c)과 시각적 기호를 통한 대화를 진행하고 있고, 제1 디바이스(100)가 편집한 시각적 기호들은 제2 디바이스(200a) 및 제2 디바이스(200c)로부터 송신된 시각적 기호들이고, 제2 디바이스(200b)로부터 송신된 시각적 기호들은 편집하지 않은 경우를 생각할 수 있다. 이 경우, 도 9에 도시된 바와 같이, 제1 디바이스(100)로부터 통신망(400)으로 송신된 해당 편집 정보는, 제2 디바이스(200a) 및 제2 디바이스(200c)에만 송신될 수 있다. 이를 통하여, 사용자는 자신이 변경한 시각적 기호들의 변경 사항을, 해당 시각적 기호들을 직접 작성한 타인들에게만 공유할 수 있다.
또한, 제2 디바이스(200a) 및 제2 디바이스(200c)는 각각의 제2 디바이스(200a) 및 제2 디바이스(200c)의 사용자들이 제1 디바이스(100)로부터의 편집 정보의 수신을 허가한 경우에만 제1 디바이스(100)로부터의 편집 정보를 수신할 수 있다. 예를 들어, 제2 디바이스(200a)의 사용자는 제1 디바이스(100)로부터의 편집 정보의 수신을 허가하고, 제2 디바이스(200c)의 사용자는 제1 디바이스(100)로부터의 편집 정보의 수신을 불허한 경우를 생각할 수 있다. 이 경우, 제2 디바이스(200a)는 해당 편집 정보를 수신할 수 있다. 반면, 제2 디바이스(200c)는 해당 편집 정보를 수신하지 않거나, 수신하더라도 해당 편집 정보를 사용하지 않을 수 있다. 이를 통하여, 사용자는 자신이 공유 받기를 희망하는 타인으로부터만 편집 정보를 공유 받을 수 있다.
또한, 제2 디바이스(200)는 제1 디바이스(100)로부터 공유 받은 정보에 따라서 자동으로 제2 디바이스(200)에 디스플레이되는 시각적 기호들의 순서를 변경할 수도 있고, 제2 디바이스(200)의 사용자가 시각적 기호들의 순서의 변경을 희망하는 경우에만 제2 디바이스(200)에 디스플레이되는 시각적 기호들의 순서를 변경할 수도 있다. 제1 디바이스(100)의 사용자로부터 공유 받은 정보에 기초하여 제2 디바이스(200)에 디스플레이되는 시각적 기호들의 순서가 변경된 경우, 제2 디바이스(200)는 알림을 출력할 수 있다. 제2 디바이스(200)는 특정 UI를 디스플레이하는 방법, 특정 소리를 스피커로 출력하는 방법, 또는 진동을 울리는 방법 등을 통하여 알림을 출력할 수 있다. 이를 통하여, 사용자는 자신이 직접적으로 관여하지 않은 상태에서 시각적 기호들의 순서가 변경된 경우에는 변경 사실에 대한 알림을 받을 수 있다.
제1 디바이스(100) 또는 제2 디바이스(200)는 제1 디바이스(100) 및 제2 디바이스(200)들 간의 대화 내용이 기재된전자적 파일(electronic file)을 생성할 수 있다. 제1 디바이스(100) 또는 제2 디바이스(200)는 편집된 상태의 대화 내용이 기재된 전자적 파일을 생성할 수 있다. 제1 디바이스(100) 또는 제2 디바이스(200)는 각 디바이스는 전자적 파일을 생성하라는 사용자의 입력을 수신할 수 있다. 예를 들어, 제1 디바이스(100)는 디스플레이부(120)에 대화 내용을 저장을 위한 UI를 표시할 수 있다. 제1 디바이스(100)는 해당 UI를 선택하는 동작을 검출할 수 있다. 해당 UI를 선택하는 동작이 검출되면, 제1 디바이스(100)는 대화 내용이 기재된 전자적 파일을 생성할 수 있다.
이상 설명된 본 발명에 따른 실시예는 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다. 나아가, 매체는 네트워크 상에서 전송 가능한 형태로 구현되는 무형의 매체를 포함할 수 있으며, 예를 들어 소프트웨어 또는 애플리케이션 형태로 구현되어 네트워크를 통해 전송 및 유통이 가능한 형태의 매체일 수도 있다.
한편, 상기 컴퓨터 프로그램은 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.
본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, '필수적인', '중요하게' 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.
본 발명의 실시예들은 대화 서비스 제공 방법 및 대화 서비스 제공 디바이스에 관한 것으로, 시각적 기호를 통한 다자간의 대화 시 디스플레이되는 시각적 기호들의 순서를 편집하거나 시각적 기호들 중 일부를 삭제함으로써 대화의 내용 또는 중요도 등에 따라서 대화 내용을 편집할 수 있게 할 수 있다. 이러한 본 발명은 대화 서비스를 이용하는 사람이 자신의 의도에 따라 대화 내용을 변경할 수 있게 함으로써 대화 서비스 이용의 편의성을 증가시킬 수 있도록 하는 대화 서비스 제공 방법 및 대화 서비스 제공 디바이스에 이용 가능하다.

Claims (37)

  1. 디스플레이부를 포함하는 디바이스에게 하나 이상의 외부 디바이스들과 시각적 기호를 통한 대화를 제공하는 대화 서비스 제공 방법에 있어서,
    상기 디바이스 및 상기 하나 이상의 외부 디바이스들 간에 송수신되는 복수의 시각적 기호들을 상기 복수의 시각적 기호들이 송수신된 시간에 따라 순차적으로 상기 디스플레이부에 디스플레이하는 단계;
    상기 복수의 시각적 기호들을 편집할 수 있는 편집 모드로의 진입 명령을 입력 받는 단계;
    상기 복수의 시각적 기호들 중 하나 이상의 시각적 기호들을 선택하는 선택 명령을 입력 받는 단계; 및
    상기 선택된 하나 이상의 시각적 기호들을 소정의 위치로 이동시켜서 상기 복수의 시각적 기호들이 디스플레이되는 순서를 변경하는 단계;를 포함하는, 대화 서비스 제공 방법.
  2. 제1 항에 있어서,
    상기 디스플레이부는 터치 감지 디스플레이부이고,
    상기 선택 명령을 입력 받는 단계는, 상기 복수의 시각적 기호들 중 하나 이상의 시각적 기호들에 대응하는 위치에 대한 터치 입력을 시작하는 동작 또는 상기 터치 입력을 유지하면서 상기 복수의 시각적 기호들 중 하나 이상의 시각적 기호들에 대응하는 위치를 드래깅하는 동작 중 적어도 하나를 검출하는, 대화 서비스 제공 방법.
  3. 제2 항에 있어서,
    상기 소정의 위치는, 상기 디스플레이부 상에서 상기 터치 입력이 종료되는 위치인, 대화 서비스 제공 방법.
  4. 제1 항에 있어서,
    상기 선택 명령을 입력 받는 단계는, 상기 복수의 시각적 기호들 중에서 상기 선택된 하나 이상의 시각적 기호들을 다른 시각적 기호들과 구별되게 디스플레이하는, 대화 서비스 제공 방법.
  5. 제1 항에 있어서,
    상기 변경하는 단계는, 상기 복수의 시각적 기호들 중에서 상기 이동시킨 하나 이상의 시각적 기호들을 다른 시각적 기호들과 구별되게 디스플레이하는, 대화 서비스 제공 방법.
  6. 제1 항에 있어서,
    상기 선택 명령을 입력 받는 단계 이후,
    상기 편집 모드를 종료하는 종료 명령을 입력 받는 단계;를 더 포함하는, 대화 서비스 제공 방법.
  7. 제6 항에 있어서,
    상기 변경하는 단계는, 상기 종료 명령을 입력 받은 때에 가장 최근에 송수신된 시각적 기호가 상기 디스플레이부에 디스플레이되는 위치로 상기 선택된 하나 이상의 시각적 기호들을 이동시키는, 대화 서비스 제공 방법.
  8. 제1 항에 있어서,
    상기 변경하는 단계는, 상기 선택된 하나 이상의 시각적 기호들이 이동된 위치에 상기 이동시킨 하나 이상의 시각적 기호들을 고정하는, 대화 서비스 제공 방법.
  9. 제1 항에 있어서,
    상기 변경하는 단계는, 상기 선택된 하나 이상의 시각적 기호들이 제1 방향으로 이동된 경우, 상기 이동된 시각적 기호들의 이동 전 위치에서부터 이동 후 위치 사이에 위치하는 시각적 기호들을 상기 제1 방향과 반대 방향인 제2 방향으로 이동시키는, 대화 서비스 제공 방법.
  10. 제1 항에 있어서,
    상기 변경하는 단계는, 상기 선택된 하나 이상의 시각적 기호들을 삭제하여 상기 복수의 시각적 기호들이 디스플레이되는 내용을 변경하는, 대화 서비스 제공 방법.
  11. 제1 항에 있어서,
    상기 변경하는 단계 이후,
    상기 선택된 하나 이상의 시각적 기호들이 이동된 편집 정보를 상기 하나 이상의 외부 디바이스들로 송신하는 단계;를 더 포함하는, 대화 서비스 제공 방법.
  12. 제11 항에 있어서,
    상기 송신하는 단계는, 상기 하나 이상의 외부 디바이스들 중에서 상기 디바이스의 사용자가 선택한 일부의 외부 디바이스들에만 상기 편집 정보를 송신하는, 대화 서비스 제공 방법.
  13. 제11 항에 있어서,
    상기 송신하는 단계는, 상기 하나 이상의 외부 디바이스들 중에서 상기 선택된 시각적 기호들 중 적어도 하나를 송신한 일부의 외부 디바이스들에만 상기 편집 정보를 송신하는, 대화 서비스 제공 방법.
  14. 제1 항에 있어서,
    상기 하나 이상의 외부 디바이스로부터 상기 외부 디바이스에서 상기 복수의 시각적 기호들이 디스플레이되는 순서가 변경되었다는 정보를 수신하는 정보 수신 단계;를 더 포함하고,
    상기 변경하는 단계는, 상기 수신된 정보를 기초로 상기 복수의 시각적 기호들이 디스플레이되는 순서를 변경하는, 대화 서비스 제공 방법.
  15. 제14 항에 있어서,
    상기 변경하는 단계는, 상기 수신된 정보가 상기 하나 이상의 외부 디바이스들 중 상기 디바이스의 사용자가 선택한 외부 디바이스로부터 수신된 정보인 경우에만 상기 수신된 정보를 기초로 상기 복수의 시각적 기호들이 디스플레이되는 순서를 변경하는, 대화 서비스 제공 방법.
  16. 제14 항에 있어서,
    상기 변경하는 단계는, 상기 수신된 정보에 의하여 상기 복수의 시각적 기호들이 디스플레이되는 순서가 변경되면 상기 디바이스 상에 알림을 출력하는, 대화 서비스 제공 방법.
  17. 제1 항에 있어서,
    상기 복수의 시각적 기호들이 송수신된 시간에 따라 상기 복수의 시각적 기호들을 재배열하여 상기 복수의 시각적 기호들의 변경된 순서를 초기화하는 단계;를 더 포함하는, 대화 서비스 제공 방법.
  18. 제1 항에 있어서,
    상기 변경하는 단계 이후,
    상기 편집된 상태의 대화 내용을 전자적 파일로 저장하는 단계;를 더 포함하는, 대화 서비스 제공 방법.
  19. 컴퓨터를 이용하여 제 1 항 내지 제 18 항의 방법 중 어느 하나의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램.
  20. 하나 이상의 외부 디바이스들과 복수의 시각적 기호들을 송수신하는 통신부;
    상기 복수의 시각적 기호들을 디스플레이하는 디스플레이부;
    상기 디스플레이부에서 상기 복수의 시각적 기호들을 편집할 수 있는 편집 모드로의 진입 명령을 입력 받고, 상기 복수의 시각적 기호들 중 하나 이상의 시각적 기호들을 선택하는 선택 명령을 입력 받는 사용자입력부; 및
    상기 복수의 시각적 기호들을 상기 복수의 시각적 기호들이 송수신된 시간에 따라 순차적으로 상기 디스플레이부에 디스플레이하다가, 상기 선택 명령에 따라 선택된 상기 하나 이상의 시각적 기호들을 소정의 위치로 이동시켜서 상기 복수의 시각적 기호들이 디스플레이되는 순서를 변경하는 제어부;를 포함하는, 대화 서비스 제공 디바이스.
  21. 제20 항에 있어서,
    상기 디스플레이부는 터치 감지 디스플레이부이고,
    상기 사용자입력부는, 상기 복수의 시각적 기호들 중 하나 이상의 시각적 기호들에 대응하는 위치에 대한 터치 입력을 시작하는 동작을 검출하거나, 상기 터치 입력을 유지하면서 상기 복수의 시각적 기호들 중 하나 이상의 시각적 기호들에 대응하는 위치를 드래깅하는 동작을 검출하는, 대화 서비스 제공 디바이스.
  22. 제21 항에 있어서,
    상기 소정의 위치는, 상기 디스플레이부 상에서 상기 터치 입력이 종료되는 위치인, 대화 서비스 제공 디바이스.
  23. 제20 항에 있어서,
    상기 제어부는, 상기 복수의 시각적 기호들 중에서 상기 선택된 하나 이상의 시각적 기호들을 다른 시각적 기호들과 구별되게 디스플레이하는, 대화 서비스 제공 디바이스.
  24. 제20 항에 있어서,
    상기 제어부는, 상기 복수의 시각적 기호들 중에서 상기 이동시킨 하나 이상의 시각적 기호들을 다른 시각적 기호들과 구별되게 디스플레이하는, 대화 서비스 제공 디바이스.
  25. 제20 항에 있어서,
    상기 사용자입력부는, 상기 편집 모드를 종료하는 종료 명령을 입력 받는, 대화 서비스 제공 디바이스.
  26. 제25 항에 있어서,
    상기 제어부는, 상기 종료 명령을 입력 받은 때에 가장 최근에 송수신된 시각적 기호가 상기 디스플레이부에 디스플레이되는 위치로 상기 선택된 하나 이상의 시각적 기호들을 이동시키는, 대화 서비스 제공 방법.
  27. 제20 항에 있어서,
    상기 제어부는, 상기 선택된 하나 이상의 시각적 기호들이 이동된 상기 디스플레이부 상의 위치에 상기 이동시킨 하나 이상의 시각적 기호들을 고정하는, 대화 서비스 제공 디바이스.
  28. 제20 항에 있어서,
    상기 제어부는, 상기 선택된 하나 이상의 시각적 기호들이 제1 방향으로 이동된 경우, 상기 이동된 시각적 기호들의 이동 전 위치에서부터 이동 후 위치 사이에 위치하는 시각적 기호들을 상기 제1 방향과 반대 방향인 제2 방향으로 이동시키는, 대화 서비스 제공 디바이스.
  29. 제20 항에 있어서,
    상기 제어부는, 상기 선택된 하나 이상의 시각적 기호들을 삭제하여 상기 복수의 시각적 기호들이 디스플레이되는 내용을 변경하는, 대화 서비스 제공 디바이스.
  30. 제20 항에 있어서,
    상기 통신부는, 상기 선택된 하나 이상의 시각적 기호가 이동된 편집 정보를 상기 하나 이상의 외부 디바이스들로 송신하는, 대화 서비스 제공 디바이스.
  31. 제30 항에 있어서,
    상기 통신부는, 상기 하나 이상의 외부 디바이스들 중에서 선택된 일부의 외부 디바이스들에만 상기 편집 정보를 송신하는, 대화 서비스 제공 디바이스.
  32. 제30 항에 있어서,
    상기 통신부는, 상기 하나 이상의 외부 디바이스들 중에서 상기 선택된 시각적 기호들 중 적어도 하나를 송신한 상기 외부 디바이스들에만 상기 편집 정보를 송신하는, 대화 서비스 제공 디바이스.
  33. 제20 항에 있어서,
    상기 통신부는, 상기 하나 이상의 외부 디바이스로부터 상기 복수의 시각적 기호들이 디스플레이되는 순서가 변경되었다는 정보를 수신하고,
    상기 제어부는, 상기 수신된 정보를 기초로 상기 복수의 시각적 기호들이 디스플레이되는 순서를 변경하는, 대화 서비스 제공 디바이스.
  34. 제33 항에 있어서,
    상기 제어부는, 상기 수신된 정보가 상기 하나 이상의 외부 디바이스들 중 상기 디바이스의 사용자가 선택한 외부 디바이스로부터 수신된 정보인 경우에만 상기 수신된 정보를 기초로 상기 복수의 시각적 기호들이 디스플레이되는 순서를 변경하는, 대화 서비스 제공 디바이스.
  35. 제33 항에 있어서,
    상기 제어부는, 상기 수신된 정보에 의하여 상기 복수의 시각적 기호들이 디스플레이되는 순서가 변경되면 상기 디바이스 상에 알림을 출력하는, 대화 서비스 제공 디바이스.
  36. 제20 항에 있어서,
    상기 제어부는, 상기 복수의 시각적 기호들이 송수신된 시간에 따라 상기 복수의 시각적 기호들을 재배열하여 상기 복수의 시각적 기호들의 변경된 순서를 초기화하는, 대화 서비스 제공 디바이스.
  37. 제20 항에 있어서,
    상기 제어부는, 상기 선택된 하나 이상의 시각적 기호가 입력된 파일을 생성하는, 대화 서비스 제공 디바이스.
PCT/KR2015/014340 2014-12-31 2015-12-28 대화 서비스 제공 방법 및 대화 서비스 제공 디바이스 WO2016108544A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017535432A JP2018509673A (ja) 2014-12-31 2015-12-28 対話サービス提供方法及び対話サービス提供デバイス

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2014-0195297 2014-12-31
KR1020140195297A KR101758863B1 (ko) 2014-12-31 2014-12-31 대화 서비스 제공 방법 및 대화 서비스 제공 디바이스

Publications (1)

Publication Number Publication Date
WO2016108544A1 true WO2016108544A1 (ko) 2016-07-07

Family

ID=56164350

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/014340 WO2016108544A1 (ko) 2014-12-31 2015-12-28 대화 서비스 제공 방법 및 대화 서비스 제공 디바이스

Country Status (4)

Country Link
US (1) US10339210B2 (ko)
JP (1) JP2018509673A (ko)
KR (1) KR101758863B1 (ko)
WO (1) WO2016108544A1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101897342B1 (ko) 2016-08-11 2018-09-10 명지대학교 산학협력단 보안 및 익명 서비스 제공 시스템 및 방법
KR101950073B1 (ko) 2016-09-01 2019-02-19 명지대학교 산학협력단 비밀분산을 이용한 보안 및 익명 서비스 제공 시스템 및 방법
US10206072B1 (en) * 2017-08-10 2019-02-12 T-Mobile Usa, Inc. Inline messaging
KR102191111B1 (ko) 2018-10-01 2020-12-15 명지대학교 산학협력단 블록 체인을 이용하여 익명 메시지 서비스를 제공하기 시스템 및 방법
JP2021071898A (ja) * 2019-10-30 2021-05-06 富士ゼロックス株式会社 情報処理装置、情報処理システム及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013065321A (ja) * 2006-09-06 2013-04-11 Apple Inc インスタントメッセージングのためのポータブル電子装置
KR20130097551A (ko) * 2012-02-24 2013-09-03 주식회사 팬택 메시지 숨김 기능을 갖는 단말과 그 메시지 숨김 및 복원 방법
KR20140020112A (ko) * 2012-08-08 2014-02-18 삼성전자주식회사 메시지 기능을 제공하기 위한 방법 및 그 전자 장치
KR20140086362A (ko) * 2012-12-28 2014-07-08 엘지전자 주식회사 이동단말기, 메시지 송수신 서버 및 이동 단말기의 제어 방법

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4545194B2 (ja) * 2005-10-26 2010-09-15 シャープ株式会社 携帯型の電子機器及びプログラム
US7577711B2 (en) * 2006-02-07 2009-08-18 International Business Machines Corporation Chat room communication network implementation enabling senders to restrict the display of messages to the chat room chronological displays of only designated recipients
KR20110037298A (ko) * 2009-10-06 2011-04-13 삼성전자주식회사 리스트 편집 방법 및 이를 지원하는 휴대 단말기
US9509645B2 (en) * 2012-12-28 2016-11-29 Lg Electronics Inc. Mobile terminal, message transceiving server and controlling method thereof
KR102043127B1 (ko) * 2013-06-26 2019-11-11 삼성전자주식회사 메신저 애플리케이션을 이용하여 데이터를 전송하는 전자 장치 및 방법
KR20160005199A (ko) * 2014-07-03 2016-01-14 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US10528234B2 (en) * 2014-07-24 2020-01-07 Blackberry Limited System, method and device-readable medium for last-viewed communication event interaction within a unified event view
US9864479B2 (en) * 2014-12-19 2018-01-09 Xerox Corporation System and method for managing and reviewing document integration and updates

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013065321A (ja) * 2006-09-06 2013-04-11 Apple Inc インスタントメッセージングのためのポータブル電子装置
KR20130097551A (ko) * 2012-02-24 2013-09-03 주식회사 팬택 메시지 숨김 기능을 갖는 단말과 그 메시지 숨김 및 복원 방법
KR20140020112A (ko) * 2012-08-08 2014-02-18 삼성전자주식회사 메시지 기능을 제공하기 위한 방법 및 그 전자 장치
KR20140086362A (ko) * 2012-12-28 2014-07-08 엘지전자 주식회사 이동단말기, 메시지 송수신 서버 및 이동 단말기의 제어 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"Kakao Talk", NAVER BLOG, 19 March 2011 (2011-03-19), pages 1 - 13, Retrieved from the Internet <URL:http://sounghwa777.blog.me/30104987268> *

Also Published As

Publication number Publication date
KR20160081448A (ko) 2016-07-08
KR101758863B1 (ko) 2017-07-18
JP2018509673A (ja) 2018-04-05
US10339210B2 (en) 2019-07-02
US20160188555A1 (en) 2016-06-30

Similar Documents

Publication Publication Date Title
KR102378513B1 (ko) 메시지 서비스를 제공하는 전자기기 및 그 전자기기가 컨텐트 제공하는 방법
US11782595B2 (en) User terminal device and control method thereof
KR102447503B1 (ko) 메시지 서비스를 제공하는 전자기기 및 그 전자기기가 컨텐트 제공하는 방법
CN105320736B (zh) 用于提供信息的装置和方法
KR102157327B1 (ko) 이미지 형식의 객체를 텍스트 형식으로 변환하는 전자 장치 및 방법
WO2016108545A1 (ko) 대화 서비스 제공 방법 및 대화 서비스 제공 디바이스
US20180139291A1 (en) Determing data associated with proximate computing devices
CN105955617B (zh) 用于选择文本的手势
WO2019120191A1 (zh) 多段文本复制方法及移动终端
WO2016108544A1 (ko) 대화 서비스 제공 방법 및 대화 서비스 제공 디바이스
WO2016122099A1 (ko) 만화 데이터 표시 방법 및 만화 데이터 표시 장치
JP2017191601A (ja) メッセンジャーサービスを利用したキーワード検索方法及びシステム
WO2016129811A1 (ko) 인스턴트 메시징 서비스에서 공식계정의 리치 메뉴를 제공하는 방법과 시스템 및 기록 매체
CN103473253B (zh) 经地理编码的数据的检测及用于其的用户界面
WO2016154893A1 (zh) 一种处理与应用关联的新消息的方法和装置
KR20110136308A (ko) 코멘트 공유를 위한 사용자 인터페이스 제공 방법 및 이를 이용하는 이동 단말기
KR20150051292A (ko) 컨텐츠 공유 방법 및 그 전자 장치
WO2015183045A1 (ko) 채팅 메시지를 태깅하는 방법 및 디바이스
JP7194286B2 (ja) セッション作成方法及び端末機器
KR20150106481A (ko) 메시지 기반 키워드 정보 제공 방법, 이를 위한 장치 및 시스템
KR20220154825A (ko) 노트 생성 방법 및 전자기기
JP2020525933A (ja) グラフィカルキーボード内からのアプリケーション機能へのアクセス
KR20150111233A (ko) 화면 부분 캡쳐 방법 및 이를 위한 장치
WO2020135272A1 (zh) 信息显示方法及终端设备
WO2020045909A1 (en) Apparatus and method for user interface framework for multi-selection and operation of non-consecutive segmented information

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15875638

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017535432

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15875638

Country of ref document: EP

Kind code of ref document: A1