WO2014065551A1 - 채팅 영역에 이미지를 표시하는 디바이스 및 방법, 그리고 채팅 데이터를 관리하는 서버 - Google Patents

채팅 영역에 이미지를 표시하는 디바이스 및 방법, 그리고 채팅 데이터를 관리하는 서버 Download PDF

Info

Publication number
WO2014065551A1
WO2014065551A1 PCT/KR2013/009392 KR2013009392W WO2014065551A1 WO 2014065551 A1 WO2014065551 A1 WO 2014065551A1 KR 2013009392 W KR2013009392 W KR 2013009392W WO 2014065551 A1 WO2014065551 A1 WO 2014065551A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
area
image
displayed
chat
Prior art date
Application number
PCT/KR2013/009392
Other languages
English (en)
French (fr)
Inventor
지주현
Original Assignee
(주)카카오
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)카카오 filed Critical (주)카카오
Priority to JP2015539499A priority Critical patent/JP6095790B2/ja
Priority to US14/437,005 priority patent/US9847955B2/en
Publication of WO2014065551A1 publication Critical patent/WO2014065551A1/ko
Priority to US15/811,833 priority patent/US10666586B2/en

Links

Images

Classifications

    • G06Q50/40
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • H04L51/046Interoperability with other network applications or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/169Annotation, e.g. comment data or footnotes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]

Definitions

  • IMS Instant Message Service
  • MIM Mobile Instant Messenger
  • An emoticon is a compound word of emotion and icon, meaning emotion, and means a unique pictogram used to convey emotions or intentions of a user in cyberspace.
  • These emoticons began with images of images of smiles, and their types and forms ranged from facial expressions, recognition, occupations, characters, and animals to the emotions of other people when they chat or send e-mails.
  • an emoticon service that expresses the emotion of a chat user through an emoticon has been provided to the user.
  • the currently provided emoticon service displays an emoticon in a predetermined area when a user selects an emoticon. It is not beyond its simple form.
  • an object of the present invention is to provide an image display device and a method for displaying an image in an arbitrary area desired by a user.
  • An object of the present invention is to provide an image display device and a method capable of inducing service participation and use by giving a user participating in a chat control such as deletion of an image displayed in a chat area and movement of a location.
  • the technical problem to be achieved by the present embodiment is not limited to the technical problems as described above, and other technical problems may exist.
  • an embodiment of the present invention is a data communication unit for receiving a text of an external device through a network, a text display unit for displaying the received text in the chat area, through a user interface
  • An image retrieval unit for retrieving image data of a selected image
  • a position detection unit for detecting position information of a region selected through the user interface in the chat region, and displaying the retrieved image data in a region corresponding to the detected position information
  • the display device may include an image display unit, and when the displayed text is moved within the chat area, the displayed image data may also be moved within the chat area.
  • a data communication unit for receiving text of an external device through a network, a text display unit for displaying the received text in the chat area, an image search unit for retrieving image data of a selected image through a user interface, A location detector for detecting location information of a region selected through the user interface in the chat area, an image display unit for displaying the retrieved image data in an area corresponding to the detected location information, and an area in which image data is displayed through a user interface And an image deletion unit for not displaying the displayed image data when receiving a selection for the input. If the displayed text is moved within the chat area, the displayed image data is also moved within the chat area. Vise can be provided.
  • Still another embodiment of the present invention provides a method of receiving text from an external device via a network, displaying the received text in the chat area, retrieving image data of a selected image through a user interface, and chatting area. Detecting location information of a region selected through the user interface in the display, displaying the retrieved image data in an area corresponding to the detected location information, and when the displayed text is moved within the chat area, The displayed image data may also provide a method of displaying an image, including moving the position within the chat area.
  • Still another embodiment of the present invention provides a data communication unit for receiving text, image data and location information of an external device through a network, a text display unit for displaying the received text in the chat area, and the received image data.
  • the display device may include an image display unit that displays an area corresponding to the location information, and when the displayed text is moved within the chat area, the displayed image data is also moved within the chat area.
  • Another embodiment of the present invention is a text management unit for receiving a text from a first device of a plurality of devices connected via a network, and transmits the received text to a second device, receiving information about image data from the first device And an image data management unit for transmitting the information about the received image data to the second device and a position for receiving the position information associated with the image data from the first device, and transmitting the received position information to the second device. And an information manager, wherein the image data is displayed in an area corresponding to the location information in the chat area of the second device.
  • a device and method can be provided. It is possible to provide an image display device and method capable of inducing service participation and use by granting a user participating in a chat control such as deletion of an image displayed in a chat area and movement of a location.
  • FIG. 1 is a configuration of a chat service providing system according to an embodiment of the present invention.
  • FIG. 2 is a block diagram of a device 20 according to an embodiment of the present invention.
  • FIG. 3 is a diagram for describing an example of an operation of the device 20 of FIG. 2.
  • FIG. 4 is a diagram illustrating an example of displaying a notification message by the image display unit 205 of FIG. 2.
  • FIG. 5 is a block diagram of a device 50 according to another embodiment of the present invention.
  • FIG. 6 is a diagram for describing an example of an operation of the device 50 of FIG. 5.
  • FIG. 7 is a block diagram of a device 70 according to another embodiment of the present invention.
  • FIG. 8 is a configuration diagram of the chat data management server 10 of FIG. 1.
  • FIG. 9 is a view for explaining an example of the operation of the chat data management server 10 of FIG.
  • FIG. 10 is a flowchart illustrating an image display method according to an exemplary embodiment.
  • FIG. 11 is a flowchart illustrating an image display method according to another exemplary embodiment of the present invention.
  • FIG. 12 is a flowchart illustrating a chat data management method according to an embodiment of the present invention.
  • a chat service providing system includes a chat data management server 10 and devices 21 to 23.
  • the chat service providing system of FIG. 1 is only one embodiment of the present invention, the present invention is not limitedly interpreted through FIG. 1. That is, according to various embodiments of the present invention, the chat service providing system may be configured differently from FIG. 1.
  • the chat service providing system according to an embodiment of the present invention may further include a payment server (not shown) that performs a payment process for the devices 21 to 23.
  • the network refers to a connection structure capable of exchanging information between respective nodes such as terminals and servers.
  • Examples of such a network include a 3rd generation partnership project (3GPP) network and a long term evolution (LTE) network.
  • 3GPP 3rd generation partnership project
  • LTE long term evolution
  • WWIX World Interoperability for Microwave Access
  • LAN Local Area Network
  • WLAN Wireless Local Area Network
  • WAN Wide Area Network
  • PAN Personal Area Network
  • Bluetooth Bluetooth
  • satellite broadcasting networks analog broadcasting networks
  • DMB Digital Multimedia Broadcasting
  • the first network connecting the chat data management server 10 and the devices 21 to 23 and the second network connecting the device 22 and the device 23 may have different types of networks.
  • the first network may be a broadband network and the second network may be a local area network.
  • a broadband network is an LTE network
  • a local area network is a wireless LAN.
  • the chat data management server 10 receives the chat data from any one of the plurality of devices (21 to 23), chat data received by the other of the plurality of devices (21 to 23) Send it. At this time, the chat data management server 10 may receive the chat data through the first network, and transmit the received chat data.
  • the chat data includes at least one of text, image data and location information associated with the image data.
  • the chat data management server 10 receives information (eg, selection information or identification information) about chat data from the plurality of devices 21 to 23, and receives the received information.
  • Corresponding chat data may be transmitted to the plurality of devices 21 to 23.
  • the chat data management server 10 may receive identification information about the A image data from the device 21 and transmit the A image data to the device 21 based on the received identification information.
  • the chat data management server 10 receives information (eg, selection information or identification information) about chat data from the plurality of devices 21 to 23, and the plurality of devices ( 21 to 23) to transmit the received information to the other. Then, the chat data management server 10 sends the chat data to another one of the plurality of devices 21 to 23 when the other one of the plurality of devices 21 to 23 requests the chat data through the information about the chat data. Can be transmitted.
  • the chat data management server 10 receives the identification information about the A image data from the device 21, passes the received identification information to the device 22, and then sends the A image data from the device 22 to the A image data. When the A image data is requested through the identification information, the A image data may be transmitted to the device 22.
  • the chat data management server 10 relays information (eg, selection information or identification information) about chat data between the devices 21 to 23, and when each device directly requests chat data. You can also send chat data to each device.
  • chat data may be sent directly from device 22 to device 23.
  • the chat data may be transmitted directly between the device 22 and the device 23 via the second network connecting the device 22 and the device 23 without passing through the chat data management server 10. .
  • Each of the devices 21 to 23 displays text and image data input through the user interface in the chat area of the display mounted on the device.
  • each of the devices 21 to 23 may display image data in an area corresponding to an arbitrary position selected through the user interface among the chat areas.
  • each of the devices 21 to 23 may display image data in an area desired by a user of each of the devices 21 to 23.
  • image data is sticker image data.
  • Each of the devices 21 to 23 displays text and image data delivered in real time from another device in the chat area.
  • each of the devices 21 to 23 may further receive location information about the image data from another device, and display the image data in an area corresponding to the received location information in the chat area.
  • each of the devices 21 to 23 may display an image in an arbitrary area desired by a user of each of the devices 21 to 23, or an arbitrary area desired by another user of another device.
  • Each of the devices 21 to 23 may control the displayed image data when a control command for the image data displayed in the chat area is input from the user interface or another device. For example, when each of the devices 21 to 23 receives a position shift command as a control command, each of the devices 21 to 23 may shift the position of the displayed image data. For another example, when each of the devices 21 to 23 receives a selection (eg, a click or a touch) for the displayed image, the devices 21 to 23 may not display the displayed image data. As such, each of the devices 21 to 23 may induce participation and use of a service by granting a user who participates in a real-time chat control such as deleting and moving a location of an image displayed in a chat area.
  • each of the devices 21 to 23 may be various types of devices.
  • the device may be a TV device, a computer or a portable terminal capable of connecting to a remote server via a network.
  • a TV device includes a smart TV, an IPTV set-top box, and the like
  • an example of a computer includes a laptop, desktop, laptop, etc., which is equipped with a web browser.
  • An example of a terminal is a wireless communication device that guarantees portability and mobility, and includes a personal communication system (PCS), a global system for mobile communications (GSM), a personal digital cellular (PDC), a personal handyphone system (PHS), and a personal digital (PDA).
  • PCS personal communication system
  • GSM global system for mobile communications
  • PDC personal digital cellular
  • PHS personal handyphone system
  • PDA personal digital
  • IMT International Mobile Telecommunication
  • IMT International Mobile Telecommunication
  • CDMA Code Division Multiple Access
  • W-CDMA Wireless Broadband Internet
  • smartphone smartphone, tablet PC All kinds of handheld based wireless communication devices such as the like may be included.
  • FIG. 2 is a block diagram of a device 20 according to an embodiment of the present invention.
  • a device 20 refers to any one of the devices 21 to 23 shown in FIG.
  • the present invention is not limited to the form of the devices 21 to 23 shown in FIG. 1.
  • the device 20 includes a data communication unit 201, a text display unit 202, an image search unit 203, a location detector 204, an image display unit 205, and a user interface 206.
  • the device 20 shown in FIG. 2 is just one implementation example of the present invention, and various modifications are possible based on the components shown in FIG. 2.
  • the device 20 may further include a voice output device for outputting a voice and a display for outputting an image.
  • the data communication unit 201 receives chat data of the external device 30 through a network. At this time, the data communication unit 201 may receive the chat data from the chat data management server 10. In general, chat data includes at least one of text, image data, and location information associated with image data. In addition, the data communication unit 201 may transmit the chat data to the external device 30 connected through the network. In general, the external device 30 may be any one of the devices 21 to 23 shown in FIG. 1, but is not limited to the form of the devices 21 to 23 shown in FIG. 1.
  • the data communication unit 201 receives chat data from the chat data management server 10. At this time, the chat data management server 10 receives information (eg, identification information or selection information) about chat data having the device 20 as a destination from the external device 30 and uses the received information. To transmit the chat data to the data communication unit 201.
  • information eg, identification information or selection information
  • the data communication unit 201 may receive identification information on chat data from the chat data management server 10 and receive chat data from the chat data management server 10 through the received identification information. At this time, the identification information for the chat data will be transmitted from the external device 30 to the chat data management server 10. That is, the chat data management server 10 transmits and receives only the identification information on the chat data with the devices while storing the chat data, and sends the chat data requested when the specific device requests the chat data through the identification information. Can also be sent.
  • the data communication unit 201 may directly transmit and receive chat data with the external device 30 without passing through the chat data management server 10.
  • the text display unit 202 displays the text in the chat area.
  • the text is text received from the external device 30 or text input from the user interface 206.
  • the chat area is an area displayed on the display of the device 20 and is a graphic area displaying text input from the user interface 206 or received from the external device 30.
  • the text display 202 is 'no' 413, which is text input from the user interface 206 in the chat area 412 displayed on the display 411 of the device 20.
  • the text received from the external device 30, 'Busy?' 414 or 'Slimp' 415 may be displayed in the form of speech bubbles as shown by reference numeral 41, respectively.
  • the image retrieval unit 203 retrieves image data of the selected image through the user interface 206. Specifically, when the image display unit 205 receives a command for calling images from the user interface 206 and displays a plurality of images in a predetermined area of the display of the device 20, the image search unit 203 is displayed. The image data of the selected image may be retrieved through the user interface 206 among the plurality of images. In this case, the plurality of images may be sequentially arranged according to the time when each of the plurality of images is used. For example, the most recently used first image of the plurality of images may be displayed in the first column of the first row of the image list in comparison with other images. To this end, the user interface 206 can provide the user with a plurality of image lists sequentially arranged according to the time at which the images were used.
  • the image retrieval unit 203 retrieves information (eg, identification information or selection information) of image data of the selected image through the user interface 206.
  • the device 20 may store information of the image data, and receive image data corresponding to the information from the chat data management server 10 as necessary.
  • the selected image is a first type of image.
  • the first type of image refers to an image in which the area where the image is displayed is an area corresponding to the detected position information.
  • An image of the first type is distinguished from an image of the second type, wherein the area in which the image is displayed is an area determined by a default value.
  • one example of the image of the first type is a sticker type image
  • one example of the image of the second type is an image of an emoticon type. Since the sticker type image is displayed in the area selected through the user interface 206, the sticker type image may be displayed in any area desired by the user. On the other hand, the image of the emoticon type can be displayed only in the area determined by the default value.
  • the first type of image is displayed by the image display unit 205 in a region corresponding to the detected position information.
  • the second type of image is displayed by the image display unit 205 in the area determined by the default value.
  • An example of the area determined by the default value is based on an area within a predetermined distance from the area where the latest text is displayed, a left or right area where the latest text is displayed, or an area where the latest text is displayed. This area is reduced or enlarged.
  • the image search unit 203 searches for image data of the selected image 423 through a user interface among a plurality of images.
  • the plurality of images 423-425 are displayed in the activated area 421 in response to a call command input from the user interface 206.
  • the chat area changes from area 412 to area 422.
  • the image 423 of the plurality of images 423 to 425 is the most recently used image and may be displayed in the leftmost column of the uppermost row in comparison with the other images 424 and 425.
  • the image retrieval unit 203 retrieves image data from a database (not shown).
  • the database (not shown) stores the image data input from the user interface 206 and the image data input from the external device 30.
  • a database may store information of the image data, and the image search unit 203 may receive image data corresponding to the information from the chat data management server 10 as necessary.
  • a database (not shown) may store text and location information in addition to image data.
  • An example of such a database (not shown) includes a hard disk drive, a read only memory (ROM), a random access memory (RAM), a flash memory, a memory card, or the like existing inside or outside the device 20.
  • the user of the device 20 selects an area to display the image via the user interface 206.
  • the user may select an area by placing his / her finger in a predetermined point area within the chat area through the touch screen interface, which is the user interface 206.
  • the point area may be specified as one pixel or at least two pixels.
  • the user may select an area by moving his / her finger through the touch screen interface, which is the user interface 206, to specify a predetermined area of circles, triangles, or quadrangles.
  • the surface area may be specified as one pixel or at least two pixels.
  • the image display unit 205 displays a notification message 431 on the display of the device 20 informing the user to select an area, such as 'Please select a part to attach a sticker'.
  • the notification message 431 may not be displayed.
  • the location detector 204 detects location information of the area selected through the user interface 206 in the chat area.
  • the location information may be coordinate information specifying the selected area.
  • the location information may be coordinate information of at least one pixel in the area selected through the user interface 206.
  • Such coordinate information may be an identification number specifying each of a plurality of pixels as a single numerical value, or may be 2D coordinates including x-axis and y-axis positions, and 3D including x-axis, y-axis, and z-axis positions. It may be a coordinate.
  • the selected region may be any one of the cell regions selected through the user interface 206 among at least two cell regions separated by the division line.
  • the chat area is divided into at least two cell areas through a division line.
  • the location detector 204 may detect location information of any one selected cell area.
  • the location information may be coordinate information, and the coordinate information may be an identification number for specifying each of a plurality of cells as a single numerical value, or may be 2D coordinates including x and y axis positions, and x, y and z axes. It may also be 3D coordinates including the axis position.
  • the image display unit 205 may display a division line for separating at least two cells in the chat area. 3 through 44, the image display unit 205 may display a division line 433 separating at least two or more cells in the chat area.
  • the area selected for displaying the image may overlap all or part of the area where the text is displayed.
  • the image displayed in the area selected through the user interface 206 may cover all or part of the area where text is displayed.
  • the image display unit 205 may show an emphasis effect on the previously displayed text. For example, when the area to be selected is within a predetermined distance from the text previously displayed in the chat area, the image display unit 205 periodically flashes a speech bubble of the previously displayed text or the previously displayed text, or changes the letter color of the previously displayed text. Alternatively, the color of the speech bubble of the previously displayed text may be changed. For another example, the image display unit 205 periodically flashes a speech bubble of the previously displayed text or the previously displayed text, or when the area to be selected overlaps all or a portion of the previously displayed text in the chat area, or the characters of the previously displayed text. You can change the color, or change the color of the speech bubble of the previously displayed text.
  • the location detector 504 detects location information of the selected area 441 through the user interface 206.
  • the user may select an area by placing his finger 442 in a predetermined point area within the chat area through the touch screen interface, which is the user interface 206.
  • the location information may be location information of a point area specific to a user or may be location information of any one cell area among at least two or more cells divided by the division line 433.
  • the image display unit 205 displays the retrieved image data in the area corresponding to the detected position information.
  • the detected location information refers to location information of the area selected through the user interface 206
  • the area corresponding to the location information refers to an area in which image data is to be displayed.
  • an area generally selected through the user interface 206 is distinguished from an area corresponding to the location information.
  • the area selected via the user interface 206 is specified as a predetermined circle area within the chat area, while the area corresponding to the location information is the center of the circle area, the x-axis distance of the image data, and the y axis of the image data. It may be specified as a predetermined rectangular region specified by the distance.
  • the area selected through the user interface 206 and the area corresponding to the location information may be the same.
  • the area in which the image data is displayed may overlap all or part of the area in which the text is displayed. In other words, the area where the image data is displayed can overlap all or part of the area where the text is displayed.
  • text is displayed in the chat area by the text display unit 202
  • image data is displayed in the chat area by the image display unit 205, but is not limited thereto.
  • the displayed image data is also moved within the chat area.
  • the first to seventh text is displayed in the chat area
  • the first image is displayed in the chat area
  • the eighth text is input from the user interface 206 or the external device 30
  • the first text is displayed.
  • the text is not displayed in the chat area
  • the second to seventh text is moved upward in the chat area
  • the first image is also moved upward in the chat area.
  • the area in which the first to eighth texts are displayed is determined by a default value, while the area in which the first image is displayed may be arbitrarily determined by the user interface 206.
  • the first to eighth texts may be displayed, not displayed or moved by the text display unit 202, and the image data may be displayed, not displayed or moved by the image display unit 205.
  • a control signal may be transmitted and received between the text display unit 202 and the image display unit 205.
  • the first image refers to an image of a sticker type that is positioned by a user.
  • the image display unit 205 displays the retrieved image data in an area 451 corresponding to the detected position information.
  • the region 451 corresponding to the location information may overlap all of the region where the text 415 is displayed.
  • the area 451 corresponding to the location information may cover the entire area where the text 415 is displayed.
  • the text 'No' 413 which is text input from the user interface 206, is displayed in the area determined by the default value on the right side of the chat area.
  • the text input from the user interface 206 'no okay' 413, from the first area determined by the default value on the right side of the chat area according to the chat progress, may be used.
  • the text received from the external device 30, 'Busy?' 414 or 'Blood' 415 is also displayed in the area determined by the default value on the left side of the chat area, and the chat progress. Is moved from the third area determined by the default value to the fourth area (e.g., above the third area).
  • image data may be displayed in any area 451 determined by the user.
  • the image display unit 205 may move the displayed image data. Specifically, when the position detector 204 receives a movement command for the displayed image data through the user interface 206 and detects the position information of the destination region to which the displayed image data is moved based on the input movement command, The display unit 205 may move the image data displayed as an area corresponding to the detected position information of the destination area.
  • An example of the move command is that the displayed image data is activated in a state in which the user can move and the activated image data is moved to the destination area by the user. At this time, the displayed image data may be activated by a user touching a finger for several seconds within an area of the displayed image data.
  • the data communication unit 201 transmits image data and location information to the external device 30.
  • the data communication unit 201 retrieves the image data of the image selected by the image retrieval unit 203 through the user interface 206, and the position detection unit 204 is selected via the user interface 206 within the chat area.
  • the searched image data and the detected location information may be transmitted to the external device 30.
  • the data communication unit 201 displays the retrieved image data in the area corresponding to the detected location information
  • the data communication unit 201 displays the retrieved image data and the detected location information in the external device 30. Can also be sent.
  • the external device 30 displays the image data received in the area corresponding to the detected location information in the chat area of the external device 30.
  • the image display unit 205 displays external image data received from the external device 30.
  • the data communication unit 201 may receive external image data and external location information from the external device 30, and the image display unit 205 may display the external image data in an area corresponding to the external location information in the chat area.
  • the external location information refers to location information of the area selected through the user interface of the external device 30.
  • an external user may select an area by placing his or her finger in a predetermined point area within a chat area through a touch screen interface, which is a user interface of the external device 30, or touch a user interface of the external device 30.
  • the area may be selected by moving a finger through a screen interface to specify a predetermined surface area consisting of a circle, a triangle, or a square.
  • the external location information may be an identification number for specifying each of the plurality of pixels as a single numerical value, may be 2D coordinates including the x-axis and y-axis positions, and includes the x-axis, y-axis, and z-axis positions. It may also be 3D coordinates.
  • the image display unit 205 may display a notification message indicating that the external image data has been received on the display of the device 20.
  • the image display unit 205 may provide a notification message indicating that the external image data has been received or the location information has been received. It can be displayed on the display of the device 20.
  • FIG. 4 is a diagram illustrating an example of displaying a notification message by the image display unit 205 of FIG. 2.
  • the data communication unit 201 receives a sticker image, which is external image data, from the external device 30 of the user A
  • a notification message indicating that the sticker image is received from the user A is displayed.
  • 'A has a sticker' 46 may be displayed on the display of the device 20.
  • the notification message may be displayed in the form of a push message on the lock screen on which the chat area is not activated.
  • the user interface 206 refers to a tool or device that receives a control command from a user.
  • the user interface 206 may be a physical input device such as a keyboard, a mouse, a touch screen, or the like, or may be a graphical user interface (GUI) expressed in an image output device.
  • GUI graphical user interface
  • the user interface 206 can provide a tool for modifying image data displayed in the chat area.
  • the user interface 206 can provide a graphical editing tool for modifying image data selected by the user interface 206 or image data received from the external device 30.
  • the image data selected by the user interface 206 or the image data received from the external device 30 may be image data of a sticker image type.
  • User interface 206 may provide a tool for generating image data.
  • the user interface 206 may provide a graphical editing tool for generating image data from an original image received from the outside, or generating image data from a captured image captured on a display of the device 20. You can also provide a graphical editing tool for this.
  • the image data generated from the original image or the image data generated from the captured image may be image data of a sticker image type.
  • the device 50 refers to any one of the devices 21 to 23 illustrated in FIG. 1, but is not limited to the form of the devices 21 to 23 of FIG. 1.
  • the device 50 may include a data communication unit 501, a text display unit 502, an image search unit 503, a position detector 504, an image display unit 505, a user interface 506, and image deletion.
  • a unit 507 and a payment processing unit 508 is included.
  • each of the data communication unit 501, the text display unit 502, the image search unit 503, the position detector 504, the image display unit 505, and the user interface 506 may be a device of FIG. 2.
  • 20 corresponds to the data communication unit 201, the text display unit 202, the image search unit 203, the position detector 204, the image display unit 205, and the user interface 206.
  • each of the data communication unit 501 to the user interface 506 of FIG. 5 will be described above with respect to each of the data communication unit 201 to the user interface 206 of the device 20 of FIG. 2.
  • the written content shall apply mutatis mutandis.
  • the description of each of the data communication unit 501 to the user interface 506 of FIG. 5 may apply mutatis mutandis to each of the data communication unit 201 to the user interface 206 of the device 20 of FIG. 2.
  • the matters which are not described with respect to the external device 60 are applicable to the content described with respect to the device 30, and the content described with respect to the external device 60 may be applicable to the device 30.
  • the device 50 shown in FIG. 5 is only one implementation example of the present invention, and various modifications are possible based on the components shown in FIG. 5.
  • the device 50 may further include a voice output device for outputting voice and a display for outputting an image.
  • the data communication unit 501 receives chat data of the external device 60 through a network.
  • the chat data includes at least one of text, image data, and location information associated with the image data.
  • the text display unit 502 displays the text in the chat area.
  • the text is text received from the external device 60 or text input from the user interface 506.
  • the chat area is an area displayed on the display of the device 50 and means a graphic area displaying text input from the user interface 506 or received from the external device 60.
  • the image retrieval unit 503 retrieves image data of the selected image through the user interface 506.
  • the image display unit 505 receives a command for calling images from the user interface 506 and displays a plurality of images in a predetermined area of the display of the device 50
  • the image search unit 503 may include a plurality of images. Image data of the selected image may be retrieved through the user interface among the images of the.
  • the location detector 504 detects location information of the area selected through the user interface 506 within the chat area. The user can select an area via the user interface 506.
  • the image display unit 505 displays the retrieved image data in an area corresponding to the detected position information.
  • the detected location information refers to location information of the area selected through the user interface 506, and an area corresponding to the location information refers to an area in which image data is to be displayed.
  • the area selected through the user interface 506 is distinguished from the area corresponding to the location information.
  • the area selected through the user interface 506 and the area corresponding to the location information may be the same.
  • the user interface 206 refers to a tool or device that receives a control command from a user.
  • the user interface 206 may be a physical input device such as a keyboard, a mouse, a touch screen, or the like, or may be a graphical user interface (GUI) expressed in an image output device.
  • GUI graphical user interface
  • the image deleting unit 507 may not display the displayed image data. For example, when the user positions (or clicks or touches) a finger on the displayed image data through the touch screen that is the user interface 506, the image deleting unit 507 may not display the displayed image data.
  • the selection for the area in which the image data is displayed is an example of a user's command for instructing the non-display of the displayed image data. Accordingly, according to various embodiments of the present disclosure, the user's command to instruct to not display the image data may be that the user selects an icon displayed on the display or selects a hardware button of the device 50.
  • the operation of the image deleting unit 507 is performed by the image display unit 505.
  • FIG. 6 is a diagram for describing an example of an operation of the device 50 of FIG. 5.
  • 6 illustrates an operation of the image deleting unit 507 through reference numerals 46 and 47, when the user's finger 461 is positioned on the displayed image data 451, the user interface ( The touch screen 506 may recognize that the user's finger 461 is positioned on the displayed image data, and may not display the displayed image data 451.
  • Reference numeral 47 denotes that the displayed image data 451 is not displayed.
  • the image display unit 505 may re-display the image data 451 that was not displayed when the user deactivates the chat area and then activates it again. In other words, the image display unit 505 may re-display the undisplayed image data 451 when the user exits the chat area and enters the chat area again.
  • the image deleting unit 507 may non-display at least one or more image data previously displayed in the chat area.
  • the image non-display command may refer to a user command for instructing all of the at least one or more image data previously displayed in the chat area.
  • An example of such an image non-display command may be that the user selects any one or more of the at least one image data previously displayed, the user selects the non-display icon displayed on the display, or selects the hardware non-display button of the device 50. have.
  • the operation of the image deleting unit 507 may be performed by the image display unit 505.
  • the data communication unit 501 may transmit a signal indicating that the image data is not displayed to the external device 60.
  • the signal for notifying the non-display may include identification information for identifying the non-displayed image data. Such identification information may be location information of undisplayed image data.
  • the external device 60 may not display at least one or more image data displayed on the external device 60 with reference to a signal indicating that the display is not displayed.
  • the payment processor 508 performs at least one payment process corresponding to the image data.
  • An example of the payment process is a payment process for purchasing image data and paying for the purchased image data.
  • the payment process may be performed when the user enters a purchase request for the image data through the user interface 506, and transmits the image data from the device 50 to the payment server (not shown) or the chat data management server 10.
  • a payment request message is transmitted, and a payment completion message of image data is received from a payment server (not shown) or the chat data management server 10.
  • a payment process is a presenting process for presenting image data to another user.
  • the presenting process may include a payment server (not shown) or chat data management server from device 50 when a user enters a request to present image data to external device 60 via user interface 506.
  • the payment request message of the image data is transmitted to (10)
  • the payment completion message of the image data is received from the payment server (not shown) or the chat data management server 10
  • the image data is transmitted to the external device 60. do.
  • examples of the payment process may be variously determined.
  • FIG. 7 is a block diagram of a device 70 according to another embodiment of the present invention.
  • the device 70 may refer to the external device 60 of FIG. 5, and the external device 80 may refer to the device 50 of FIG. 5. Therefore, the matters that are not described with respect to the device 70 through FIG. 7 may apply to the content described with respect to the device 30 of FIG. 2 or the content described with respect to the device 60 through FIG. 5.
  • the device 70 includes a data communication unit 701, a text display unit 702, an image display unit 703, a user interface 704, and an image delete unit 705.
  • the device 70 shown in FIG. 7 is only one implementation example of the present invention, and various modifications are possible based on the elements shown in FIG. 7.
  • the device 70 may be configured to perform an operation of the image retrieval unit 503 of the device 50, may be configured to perform an operation of the position detector 504 of the device 50, and the payment of the device 50 may be performed.
  • Each of the components that perform the operation of the processor 508 may be further included.
  • the device 70 may perform an operation of the device 20 or the device 50 while performing the operation of the device 60. Accordingly, the data communication unit 701, the text display unit 702, the image display unit 703, the user interface 704, and the image delete unit 705 of the device 70 may be configured as the data communication unit 201 of the device 20. ), Operations of the text display unit 202, the image display unit 205, the user interface 206, and the image deleting unit 207, or the data communication unit 501, the text display unit 502, and the image display unit of the device 50. The operation 505, the user interface 506, and the image deleting unit 507 may be performed.
  • the device 70 may be configured to perform the operation of the image search unit 203 or the image search unit 503, or may be configured to perform the operation of the position detector 204 or the position detector 504.
  • the device 70 may be configured to perform the operation of the image search unit 203 or the image search unit 503, or may be configured to perform the operation of the position detector 204 or the position detector 504.
  • Each of the components that perform the operation of the payment processing unit 508 may be further included.
  • the data communication unit 701 receives chat data of the external device 80 through a network.
  • the chat data includes at least one of text, image data, and location information associated with the image data.
  • the data communication unit 701 may transmit the chat data to the external device 70 through the network.
  • the data communication unit 701 may receive chat data from the external device 70 via the chat data management server 10, and directly chat from the external device 80 without passing through the chat data management server 10. Data can be received. In addition, the data communication unit 701 may transmit / receive information (for example, identification information, selection information, or identification code) of the chat data with the chat data management server 10.
  • information for example, identification information, selection information, or identification code
  • the text display unit 702 displays the text in the chat area.
  • the text is text received from the external device 80 or text input from the user interface 704.
  • the chat area is an area displayed on the display of the device 70 and refers to a graphic area displaying text input from the user interface 704 or received from the external device 80.
  • the image display unit 703 displays the received image data in an area corresponding to the received position information.
  • the received location information refers to location information of an area selected through the user interface of the external device 80, and an area corresponding to the location information refers to an area in which the received image data is to be displayed.
  • the user interface 704 refers to a tool or device that receives a control command from a user.
  • the user interface 704 may be a physical input device such as a keyboard, a mouse, a touch screen, or the like, or may be a graphical user interface (GUI) expressed in an image output device.
  • GUI graphical user interface
  • the image deleting unit 705 may not display the displayed image.
  • the operation of the image deleting unit 705 may be performed by the image display unit 703.
  • the chat data management server 10 includes a text managing unit 101, an image data managing unit 102, and a location information managing unit 103.
  • the chat data management server 10 shown in FIG. 8 is just one implementation example of the present invention, and various modifications are possible based on the elements shown in FIG. 8.
  • the chat data management server 10 may further include an administrator interface for controlling each configuration inside the chat data management server 10.
  • the text manager 101 receives text from the first device 81 of a plurality of devices connected through a network, and transmits the received text to the second device 82.
  • the image data manager 102 receives image data from the first device 81 and transmits the received image data to the second device 82.
  • the image data manager 102 receives information (for example, identification information or selection information) about image data from the first device 81, and uses the received information to transmit image data to the second device ( 82).
  • the image data manager 102 receives information (eg, identification information or selection information) about image data from the first device 81, and transmits the received information to the second device 82.
  • the image data may be transmitted to the second device 82.
  • the location information manager 103 receives location information associated with the image data from the first device 81 and transmits the received location information to the second device 82.
  • the image data may be displayed in an area corresponding to the location information in the chat area of the first device.
  • the image data may be displayed in an area corresponding to the location information in the chat area of the second device.
  • FIG. 9 is a view for explaining an example of the operation of the chat data management server 10 of FIG. Since the operation of the chat data management server 10 of FIG. 9 merely represents one embodiment of various embodiments of the present invention, all embodiments of the present invention are limited to FIG. 9 and the description thereof. no.
  • the chat data management server 10 may transmit and receive a signal for activating the chat area with the first device 81 and the second device 82.
  • the chat data management server 10 receives a request for a chat from the first device 81 or the second device 82, and responds to the received chat request with the first device 81 and the second device. Send a response to the chat area activation to the device 82.
  • the chat data management server 10 transmits the text received from the second device 82 to the first device 81 (S904).
  • the first device 81 displays the text received from the chat data management server 10 in the chat area of the first device 81 (S905), and an image of the image selected through the user interface of the first device 81.
  • Search the data (S906), detect the location information of the selected area through the user interface of the first device 81 (S907), display the retrieved image data in the area corresponding to the location information (S908), and search the retrieved image
  • the data and the detected location information are transmitted to the chat data management server 10 (S909).
  • the chat data management server 10 receives image data (or information on the image data) and location information associated with the image data from the first device 81 (S909), and receives the received image data (or the information on the image data). ) And the received location information to the second device 82 (S910).
  • the second device 82 displays the received image data in an area corresponding to the received location information (S910).
  • the first device 81 When the first device 81 receives a selection of displayed image data through the user interface of the first device 81 (S912), the first device 81 does not display image data in the chat area of the first device 82 (S913). In operation S914, a notification signal informing that the image data is not displayed is transmitted to the chat data management server 10.
  • the chat data management server 10 receives a notification signal informing that the image data is not displayed from the first device 81 (S914), and transmits the received notification signal to the second device 82 (S915).
  • the second device 82 does not display an image displayed in the chat area of the second device 82 based on the received notification signal.
  • each of the first device 81 or the second device 82 of FIG. 8 is the devices 21 to 24, the device 20, the device 30, and the device 50 described with reference to FIGS. 1 to 7. ), The device 60, the device 70, or the device 80.
  • FIG. 10 is a flowchart illustrating an image display method according to an exemplary embodiment.
  • the image display method according to the embodiment shown in FIG. 10 includes steps processed in time series in the device 20 according to the embodiment shown in FIG. 5 or the device 50 according to the embodiment shown in FIG. 5. . Therefore, although omitted below, the contents described above with respect to the device 20 according to the embodiment shown in FIG. 2 or the device 50 according to the embodiment shown in FIG. 5 are described in the embodiment shown in FIG. 10. The same applies to the image display method according to the present invention.
  • the following steps will be described as if performed by each configuration of the device 50 of FIG. 5, but may also be performed by each configuration of the device 50 of FIG. 2.
  • the data communication unit 501 receives a text of an external device through a network.
  • the text display unit 502 displays the received text in the chat area.
  • the image retrieval unit 503 retrieves image data of the selected image through the user interface 506.
  • the location detector 504 detects location information of the area selected through the user interface 506 within the chat area.
  • the image display unit 507 displays the retrieved image data in an area corresponding to the detected position information.
  • the image display unit 507 also moves the displayed image data in the chat area.
  • the image display method when the image display method receives a selection for a region where image data is displayed through the user interface 506, non-displaying the displayed image data (not shown), and external image data is displayed.
  • the method may further include displaying a notification message on the display of the device indicating that the communication unit is received, and generating at least one payment process corresponding to the image data.
  • FIG. 11 is a flowchart illustrating an image display method according to another exemplary embodiment of the present invention.
  • the image display method according to the embodiment shown in FIG. 11 includes steps processed in time series in the device 70 according to the embodiment shown in FIG. 7. Therefore, although omitted below, the above descriptions of the device 70 according to the exemplary embodiment shown in FIG. 7 also apply to the image display method according to the exemplary embodiment illustrated in FIG. 11.
  • the data communication unit 701 receives text, image data, and location information of the external device 80 through a network.
  • the text display unit 702 displays the received text in the chat area.
  • the image display unit 703 displays the received image data in an area corresponding to the received position information.
  • the image display unit 704 when the displayed text is moved in the chat area, the image display unit 704 also moves the displayed image data in the chat area.
  • the image display method includes the step of not displaying the displayed image (not shown) when the data communication unit 701 receives a signal indicating that the image data transmitted from the external device 80 is not displayed. It may further include.
  • the chat data management method according to the embodiment shown in FIG. 12 includes steps that are processed in time series in the chat data management server 10 according to the embodiment shown in FIG. 8. Therefore, even if omitted below, the above descriptions of the chat data management server 10 according to the exemplary embodiment shown in FIG. 8 may also be applied to the chat data managing method according to the exemplary embodiment illustrated in FIG. 12.
  • the text manager 101 receives text from the first device 81 of the plurality of devices connected through the network, and transmits the received text to the second device 82.
  • the image data manager 102 receives information (or image data) about image data from the first device 81, and transmits information (or image data) about the received image data to the second device 82.
  • the location information manager S1203 receives location information associated with image data from the first device 81 and transmits the received location information to the second device 82.
  • the image data may be displayed in an area corresponding to the location information in the chat area of the second device 82.
  • the image data may be displayed in an area corresponding to the location information in the chat area of the first device 81.
  • Each of the image display method or the chat data management method described with reference to FIGS. 10, 11 or 12 may also be implemented in the form of a recording medium including instructions executable by a computer, such as a program module executed by the computer.
  • Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media.
  • computer readable media may include both computer storage media and communication media.
  • Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.
  • Communication media typically includes computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transmission mechanism, and includes any information delivery media.

Abstract

이미지를 표시하는 디바이스 및 방법, 그리고 채팅 데이터를 관리하는 서버가 제공된다. 이미지를 표시하는 디바이스는 네트워크를 통해 외부 디바이스의 텍스트를 수신하는 데이터 통신부, 수신된 텍스트를 채팅 영역에 표시하는 텍스트 표시부, 사용자 인터페이스를 통해 선택된 이미지의 이미지 데이터를 검색하는 이미지 검색부, 채팅 영역 내에서 상기 사용자 인터페이스를 통해 선택된 영역의 위치 정보를 검출하는 위치 검출부 및 검색된 이미지 데이터를 검출된 위치 정보에 대응하는 영역에 표시하는 이미지 표시부를 포함한다.

Description

채팅 영역에 이미지를 표시하는 디바이스 및 방법, 그리고 채팅 데이터를 관리하는 서버
텍스트가 표시되는 채팅 영역에 이미지를 표시하는 디바이스 및 방법, 그리고 채팅 데이터를 관리하는 서버에 관한 것이다.
IMS(Instant Message Service)는 전자우편 프로그램이나 웹 브라우저를 별도로 사용하지 않고, 발신자가 보낸 메시지가 수신자의 디바이스의 화면에 즉시로 뜨도록 하는 실시간 온라인 의사소통 서비스를 의미한다. 특히, 모바일 네트워크를 이용하여 채팅, 음성 및 영상통화 등을 제공하는 서비스를 MIM(Mobile Instant Messenger) 서비스라고 한다.
이모티콘은 감정을 뜻하는 이모션(emotion)과 아이콘(icon)의 합성어로서 사이버 공간에서 사용자의 감정이나 의사를 전달할 때 사용하는 특유의 그림문자를 의미한다. 이러한 이모티콘은 웃는 모습을 형상화한 이미지 형태로부터 시작되었으며, 인터넷 채팅이나 이메일을 주고 받을 때 상대방의 감정을 나타내는 얼굴표정, 인정, 직업, 인물, 동물에 이르기까지 그 종류와 형태가 다양해졌다.
최근 IMS 또는 MIM에서도 이모티콘을 통해 채팅 사용자의 감정을 표현하는 이모티콘 서비스가 사용자에게 제공되고 있으나, 현재 제공되고 있는 이모티콘 서비스는 사용자로부터 이모티콘에 대한 선택을 수신하면 미리 디폴트로 정해진 영역에 이모티콘을 표시하는 단순한 형태를 벗어나지 못하고 있다.
텍스트가 표시되는 채팅 영역 내에서 이미지를 표시함에 있어서, 사용자가 원하는 임의의 영역에 이미지가 표시될 수 있도록 하는 이미지 표시 디바이스 및 방법을 제공하고자 한다. 채팅 영역에 표시된 이미지에 대한 삭제 및 위치 이동과 같은 제어 권한을 채팅에 참여하는 사용자에게 부여함으로써, 서비스 참여 및 이용을 유도할 수 있는 이미지 표시 디바이스 및 방법을 제공하고자 한다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예는 네트워크를 통해 외부 디바이스의 텍스트를 수신하는 데이터 통신부, 상기 수신된 텍스트를 상기 채팅 영역에 표시하는 텍스트 표시부, 사용자 인터페이스를 통해 선택된 이미지의 이미지 데이터를 검색하는 이미지 검색부, 상기 채팅 영역 내에서 상기 사용자 인터페이스를 통해 선택된 영역의 위치 정보를 검출하는 위치 검출부 및 상기 검색된 이미지 데이터를 상기 검출된 위치 정보에 대응하는 영역에 표시하는 이미지 표시부를 포함하되, 상기 표시된 텍스트가 상기 채팅 영역 내에서 위치 이동할 경우, 상기 표시된 이미지 데이터도 상기 채팅 영역 내에서 위치 이동되는 것인 디바이스를 제공할 수 있다.
본 발명의 다른 실시예는 네트워크를 통해 외부 디바이스의 텍스트를 수신하는 데이터 통신부, 상기 수신된 텍스트를 상기 채팅 영역에 표시하는 텍스트 표시부, 사용자 인터페이스를 통해 선택된 이미지의 이미지 데이터를 검색하는 이미지 검색부, 상기 채팅 영역 내에서 상기 사용자 인터페이스를 통해 선택된 영역의 위치 정보를 검출하는 위치 검출부, 상기 검색된 이미지 데이터를 상기 검출된 위치 정보에 대응하는 영역에 표시하는 이미지 표시부 및 사용자 인터페이스를 통해 이미지 데이터가 표시된 영역에 대한 선택을 입력받는 경우, 표시된 이미지 데이터를 미표시시키는 이미지 삭제부를 포함하되, 상기 표시된 텍스트가 상기 채팅 영역 내에서 위치 이동할 경우, 상기 표시된 이미지 데이터도 상기 채팅 영역 내에서 위치 이동되는 것인 디바이스를 제공할 수 있다.
본 발명의 또 다른 실시예는 네트워크를 통해 외부 디바이스의 텍스트를 수신하는 단계, 상기 수신된 텍스트를 상기 채팅 영역에 표시하는 단계, 사용자 인터페이스를 통해 선택된 이미지의 이미지 데이터를 검색하는 단계, 상기 채팅 영역 내에서 상기 사용자 인터페이스를 통해 선택된 영역의 위치 정보를 검출하는 단계, 상기 검색된 이미지 데이터를 상기 검출된 위치 정보에 대응하는 영역에 표시하는 단계 및 상기 표시된 텍스트가 상기 채팅 영역 내에서 위치 이동할 경우, 상기 표시된 이미지 데이터도 상기 채팅 영역 내에서 위치 이동시키는 단계를 포함하는 이미지 표시 방법을 제공할 수 있다.
본 발명의 또 다른 실시예는 네트워크를 통해 외부 디바이스의 텍스트, 이미지 데이터 및 위치 정보를 수신하는 데이터 통신부, 상기 수신된 텍스트를 상기 채팅 영역에 표시하는 텍스트 표시부 및 상기 수신된 이미지 데이터를 상기 수신된 위치 정보에 대응하는 영역에 표시하는 이미지 표시부를 포함하되, 상기 표시된 텍스트가 상기 채팅 영역 내에서 위치 이동할 경우, 상기 표시된 이미지 데이터도 상기 채팅 영역 내에서 위치 이동되는 것인 디바이스를 제공할 수 있다.
본 발명의 또 다른 실시예는 네트워크를 통해 연결된 복수의 디바이스 중 제 1 디바이스로부터 텍스트를 수신하고, 수신된 텍스트를 제 2 디바이스로 전송하는 텍스트 관리부, 상기 제 1 디바이스로부터 이미지 데이터에 대한 정보를 수신하고, 수신된 이미지 데이터에 대한 정보를 상기 제 2 디바이스로 전송하는 이미지 데이터 관리부 및 상기 제 1 디바이스로부터 상기 이미지 데이터와 연관된 위치 정보를 수신하고, 수신된 위치 정보를 상기 제 2 디바이스로 전송하는 위치 정보 관리부를 포함하되, 상기 이미지 데이터는 상기 제 2 디바이스의 채팅 영역 중 상기 위치 정보에 대응하는 영역에 표시되는 것인 채팅 데이터 관리 서버를 제공할 수 있다.
사용자가 인터페이스를 통해 선택된 임의의 영역의 위치 정보를 검출하고, 검출된 위치 정보에 대응하는 영역에 이미지 데이터를 표시함으로써, 사용자가 원하는 영역에 이미지가 표시될 수 있도록 하는 스티커 유형의 이미지를 표시하는 디바이스 및 방법을 제공할 수 있다. 채팅 영역에 표시된 이미지에 대한 삭제 및 위치 이동과 같은 제어 권한을 채팅에 참여하는 사용자에게 부여함으로써 서비스 참여 및 이용을 유도할 수 있는 이미지 표시 디바이스 및 방법을 제공할 수 있다.
도 1은 본 발명의 일 실시예에 따른 채팅 서비스 제공 시스템의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 디바이스(20)의 구성도이다.
도 3은 도 2의 디바이스(20)의 동작의 일 예를 설명하기 위한 도면이다.
도 4는 도 2의 이미지 표시부(205)에 의하여 알림 메시지가 표시되는 일 예를 나타내는 도면이다.
도 5는 본 발명의 다른 실시예에 따른 디바이스(50)의 구성도이다.
도 6는 도 5의 디바이스(50)의 동작의 일 예를 설명하기 위한 도면이다.
도 7은 본 발명의 또 다른 실시예에 따른 디바이스(70)의 구성도이다.
도 8은 도 1의 채팅 데이터 관리 서버(10)의 구성도이다.
도 9는 도 1의 채팅 데이터 관리 서버(10)의 동작의 일 예를 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시예에 따른 이미지 표시 방법의 동작 흐름도이다.
도 11은 본 발명의 다른 실시예에 따른 이미지 표시 방법의 동작 흐름도이다.
도 12는 본 발명의 일 실시예에 따른 채팅 데이터 관리 방법의 동작 흐름도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
도 1은 본 발명의 일 실시예에 따른 채팅 서비스 제공 시스템의 구성도이다. 도 1을 참조하면, 채팅 서비스 제공 시스템은 채팅 데이터 관리 서버(10) 및 디바이스(21 내지 23)를 포함한다. 다만, 이러한 도 1의 채팅 서비스 제공 시스템은 본 발명의 일 실시예에 불과하므로 도 1을 통해 본 발명이 한정 해석되는 것은 아니다. 즉, 본 발명의 다양한 실시예들에 따르면 채팅 서비스 제공 시스템은 도 1과 다르게 구성될 수도 있다. 예를 들어, 본 발명의 일 실시예에 따른 채팅 서비스 제공 시스템은 디바이스(21 내지 23)에 대한 결제 프로세스를 진행하는 결제 서버(도시되지 않음)를 더 포함할 수도 있다.
도 1의 채팅 데이터 제공 시스템의 각 구성요소들은 일반적으로 네트워크(network)를 통해 연결된다. 네트워크는 단말들 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크(network)의 일 예에는 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.
도 1을 참조하면, 채팅 데이터 관리 서버(10)와 디바이스(21 내지 23)를 연결하는 제 1 네트워크와 디바이스(22)와 디바이스(23)를 연결하는 제 2 네트워크는 네트워크의 유형이 다를 수 있다. 예를 들어, 제 1 네트워크는 광대역 네트워크이고, 제 2 네트워크는 근거리 네트워크일 수 있다. 이 때, 광대역 네트워크의 일 예는 LTE 네트워크이고, 근거리 네트워크의 일 예는 Wireless LAN이다.
본 발명의 일 실시예에 따르면, 채팅 데이터 관리 서버(10)는 복수의 디바이스(21 내지 23) 중 어느 하나로부터 채팅 데이터를 수신하고, 복수의 디바이스(21 내지 23) 중 다른 하나로 수신된 채팅 데이터를 전송한다. 이 때, 채팅 데이터 관리 서버(10)는 제 1 네트워크를 통하여 채팅 데이터를 수신하고, 수신된 채팅 데이터를 전송할 수 있다. 채팅 데이터는 텍스트, 이미지 데이터 및 이미지 데이터와 연관된 위치 정보 중 적어도 하나 이상을 포함한다.
본 발명의 다른 실시예에 따르면, 채팅 데이터 관리 서버(10)는 복수의 디바이스(21 내지 23)로부터 채팅 데이터에 대한 정보(예를 들어, 선택 정보 또는 식별 정보)를 수신하고, 수신된 정보에 대응하는 채팅 데이터를 복수의 디바이스(21 내지 23)으로 전송할 수 있다. 예를 들어, 채팅 데이터 관리 서버(10)는 디바이스(21)로부터 A 이미지 데이터에 대한 식별 정보를 수신하고, 수신된 식별 정보에 기초하여 디바이스(21)로 A 이미지 데이터를 전송할 수 있다.
본 발명의 다른 실시예에 따르면, 채팅 데이터 관리 서버(10)는 복수의 디바이스(21 내지 23)로부터 채팅 데이터에 대한 정보(예를 들어, 선택 정보 또는 식별 정보)를 수신하고, 복수의 디바이스(21 내지 23) 중 다른 하나로 수신된 정보를 전송한다. 이후, 채팅 데이터 관리 서버(10)는 복수의 디바이스(21 내지 23) 중 다른 하나가 채팅 데이터에 대한 정보를 통해 채팅 데이터를 요구하는 경우에, 복수의 디바이스(21 내지 23) 중 다른 하나로 채팅 데이터를 전송할 수 있다. 예를 들어, 채팅 데이터 관리 서버(10)는 디바이스(21)로부터 A 이미지 데이터에 대한 식별 정보를 수신하고, 수신된 식별 정보를 디바이스(22)로 전달한 이후, 디바이스(22)로부터 A 이미지 데이터에 대한 식별 정보를 통해 A 이미지 데이터를 요구하는 경우에 디바이스(22)로 A 이미지 데이터를 전송할 수 있다. 이와 같이, 채팅 데이터 관리 서버(10)는 디바이스(21 내지 23)들간에 채팅 데이터에 대한 정보(예를 들어, 선택 정보 또는 식별 정보)를 중계하고, 각 디바이스가 채팅 데이터를 직접 요구하는 경우에 각 디바이스로 채팅 데이터를 전송할 수도 있다.
본 발명의 또 다른 실시예에 따르면, 채팅 데이터는 디바이스(22)에서 디바이스(23)로 직접 전송될 수도 있다. 다시 말하면, 채팅 데이터는 채팅 데이터 관리 서버(10)를 경유하지 아니하고, 디바이스(22)와 디바이스(23)를 연결하는 제 2 네트워크를 통해 디바이스(22)와 디바이스(23)간에 직접 전송될 수도 있다.
디바이스(21 내지 23) 각각은 사용자 인터페이스를 통해 입력된 텍스트 및 이미지 데이터를 해당 디바이스에 탑재된 디스플레이의 채팅 영역 내에 표시한다. 이 때, 디바이스(21 내지 23) 각각은 채팅 영역 중 사용자 인터페이스를 통해 선택된 임의의 위치에 대응하는 영역에 이미지 데이터를 표시할 수 있다. 이를 통해, 디바이스(21 내지 23) 각각은 디바이스(21 내지 23) 각각의 사용자가 원하는 영역에 이미지 데이터를 표시할 수 있다. 여기서, 이러한 이미지 데이터의 일 예는 스티커 이미지 데이터이다.
디바이스(21 내지 23) 각각은 다른 디바이스로부터 실시간으로 전달된 텍스트 및 이미지 데이터를 채팅 영역 내에 표시한다. 이 때, 디바이스(21 내지 23) 각각은 다른 디바이스로부터 이미지 데이터에 관한 위치 정보를 더 수신하고, 채팅 영역 중 수신된 위치 정보에 대응하는 영역에 이미지 데이터를 표시할 수 있다. 이를 통해, 디바이스(21 내지 23) 각각은 디바이스(21 내지 23) 각각의 사용자가 원하는 임의의 영역, 또는 다른 디바이스의 다른 사용자가 원하는 임의의 영역에 이미지를 표시할 수 있다.
디바이스(21 내지 23) 각각은 사용자 인터페이스 또는 다른 디바이스로부터 채팅 영역에 표시된 이미지 데이터에 대한 제어 명령이 입력되는 경우, 표시된 이미지 데이터를 제어할 수 있다. 예를 들어, 디바이스(21 내지 23) 각각은 제어 명령으로서 위치 이동 명령을 입력받는 경우, 표시된 이미지 데이터의 위치를 이동시킬 수 있다. 다른 예를 들어, 디바이스(21 내지 23) 각각은 표시된 이미지에 대한 선택(예를 들어, 클릭 또는 터치)을 입력받는 경우, 표시된 이미지 데이터를 미표시할 수도 있다. 이와 같이, 디바이스(21 내지 23) 각각은 실시간 채팅에 참여하는 사용자에게 채팅 영역에 표시된 이미지에 대한 삭제 및 위치 이동과 같은 제어 권한을 부여함으로써 서비스 참여 및 이용을 유도할 수 있다.
본 발명의 다양한 실시예들에 따르면, 디바이스(21 내지 23) 각각은 다양한 형태의 디바이스일 수 있다. 예를 들어, 디바이스는 네트워크를 통해 원격지의 서버에 접속할 수 있는 TV 장치, 컴퓨터 또는 휴대용 단말일 수 있다. 여기서, TV 장치의 일 예에는 스마트 TV, IPTV 셋톱박스 등이 포함되고, 컴퓨터의 일 예에는 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop) 등이 포함되고, 휴대용 단말의 일 예에는 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(smartphone), 태블릿 PC 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치가 포함될 수 있다.
이하에서는 도 1의 채팅 서비스 제공 시스템에 포함된 각각의 구성요소의 동작에 대해 보다 구체적으로 설명한다.
도 2는 본 발명의 일 실시예에 따른 디바이스(20)의 구성도이다. 이와 같은 디바이스(20)는 도 1에 도시된 디바이스(21 내지 23) 중 어느 하나의 디바이스를 의미한다. 다만, 도 1에 도시된 디바이스(21 내지 23)의 형태로 한정되는 것은 아니다.
도 2를 참조하면, 디바이스(20)는 데이터 통신부(201), 텍스트 표시부(202), 이미지 검색부(203), 위치 검출부(204), 이미지 표시부(205) 및 사용자 인터페이스(206)를 포함한다. 다만, 도 2에 도시된 디바이스(20)는 본 발명의 하나의 구현 예에 불과하며, 도 2에 도시된 구성요소들을 기초로 하여 여러 가지 변형이 가능하다. 예를 들어, 디바이스(20)는 음성을 출력하는 음성 출력 장치, 영상을 출력하는 디스플레이를 더 포함할 수도 있다.
데이터 통신부(201)는 네트워크를 통해 외부 디바이스(30)의 채팅 데이터를 수신한다. 이 때, 데이터 통신부(201)는 채팅 데이터 관리 서버(10)로부터 채팅 데이터를 수신할 수 있다. 일반적으로, 채팅 데이터는 텍스트, 이미지 데이터 및 이미지 데이터와 연관된 위치 정보 중 적어도 하나 이상을 포함한다. 또한, 데이터 통신부(201)는 네트워크를 통해 연결된 외부 디바이스(30)로 채팅 데이터를 전송할 수도 있다. 일반적으로 외부 디바이스(30)는 도 1에 도시된 디바이스(21 내지 23) 중 어느 하나의 디바이스일 수 있으나, 도 1에 도시된 디바이스(21 내지 23)의 형태로 한정되지는 않는다.
데이터 통신부(201)는 채팅 데이터 관리 서버(10)로부터 채팅 데이터를 수신한다. 이 때, 채팅 데이터 관리 서버(10)는 외부 디바이스(30)로부터 디바이스(20)를 목적지로 갖는 채팅 데이터에 대한 정보(예를 들어, 식별 정보 또는 선택 정보)를 수신하고, 수신된 정보를 이용하여 채팅 데이터를 데이터 통신부(201)로 전송한다.
데이터 통신부(201)는 채팅 데이터 관리 서버(10)로부터 채팅 데이터에 대한 식별 정보를 수신하고, 수신된 식별 정보를 통해 채팅 데이터 관리 서버(10)로부터 채팅 데이터를 수신할 수 있다. 이 때, 채팅 데이터에 대한 식별 정보는 외부 디바이스(30)로부터 채팅 데이터 관리 서버(10)로 전송 것이다. 즉, 채팅 데이터 관리 서버(10)는 채팅 데이터를 저장한 상태에서 디바이스들과 채팅 데이터에 대한 식별 정보만을 송수신하고, 특정 디바이스가 식별 정보를 통해 채팅 데이터를 요구하는 경우에 요구된 채팅 데이터를 디바이스로 전송할 수도 있다.
상술한 설명과 달리, 데이터 통신부(201)는 채팅 데이터 관리 서버(10)를 경유하지 않고, 외부 디바이스(30)와 채팅 데이터를 직접 송신 및 수신할 수도 있다.
텍스트 표시부(202)는 텍스트를 채팅 영역에 표시한다. 이 때, 텍스트는 외부 디바이스(30)로부터 수신된 텍스트 또는 사용자 인터페이스(206)로부터 입력된 텍스트이다. 채팅 영역은 디바이스(20)의 디스플레이에 표시된 영역으로서, 사용자 인터페이스(206)로부터 입력되거나 외부 디바이스(30)로부터 수신된 텍스트를 표시하는 그래픽 영역이다.
도 3은 도 2의 디바이스(20)의 동작의 일 예를 설명하기 위한 도면이다. 도 3의 도면부호 41을 통해 예시하면, 텍스트 표시부(202)는 디바이스(20)의 디스플레이(411)에 표시된 채팅 영역(412) 내에 사용자 인터페이스(206)로부터 입력된 텍스트인 '아니 괜찮아'(413)를 표시하거나, 또는 외부 디바이스(30)로부터 수신된 텍스트인 '바빠?'(414) 또는 '살좀빼'(415)를 표시할 수 있다. 이 때, 텍스트인 '아니 괜찮아'(413), '바빠?'(414) 및 '살좀빼'(415) 각각은 도면부호 41에 도시된 바와 같이 말풍선의 형태로 표시될 수 있다.
이미지 검색부(203)는 사용자 인터페이스(206)를 통해 선택된 이미지의 이미지 데이터를 검색한다. 구체적으로, 이미지 검색부(203)는, 이미지 표시부(205)가 사용자 인터페이스(206)로부터 이미지들을 호출하는 명령을 입력받아 디바이스(20)의 디스플레이의 소정 영역에 복수의 이미지들을 표시하는 경우, 표시된 복수의 이미지들 중 사용자 인터페이스(206)를 통해 선택된 이미지의 이미지 데이터를 검색할 수 있다. 이 때, 복수의 이미지들은 복수의 이미지들 각각이 사용된 시간에 따라 순차적으로 정렬될 수 있다. 예를 들어, 복수의 이미지들 중 가장 최근에 사용된 제 1 이미지는 다른 이미지들과 비교하여 이미지 리스트 중 제 1 행의 제 1 열에 표시될 수 있다. 이를 위해, 사용자 인터페이스(206)는 이미지가 사용된 시간에 따라 순차적으로 정렬된 복수의 이미지 리스트를 사용자에게 제공할 수 있다.
이미지 검색부(203)는 사용자 인터페이스(206)를 통해 선택된 이미지의 이미지 데이터의 정보(예를 들어, 식별 정보 또는 선택 정보)를 검색한다. 이 경우, 디바이스(20)는 이미지 데이터의 정보를 저장하고, 필요에 따라 채팅 데이터 관리 서버(10)로부터 정보에 대응하는 이미지 데이터를 수신할 수 있다.
본 발명의 일 실시예에 따르면, 선택된 이미지는 제 1 유형의 이미지이다. 일반적으로 제 1 유형의 이미지는, 이미지가 표시되는 영역이 검출된 위치 정보에 대응하는 영역인, 이미지를 의미한다. 제 1 유형의 이미지는, 이미지가 표시되는 영역이 디폴트 값에 의해 결정되는 영역인, 제 2 유형의 이미지와 구별된다. 이 때, 제 1 유형의 이미지의 일 예는 스티커 유형의 이미지이고, 제 2 유형의 이미지의 일 예는 이모티콘 유형의 이미지이다. 스티커 유형의 이미지는, 사용자 인터페이스(206)를 통하여 선택된 영역에 표시되므로, 사용자가 원하는 임의의 영역에 표시될 수 있다. 반면, 이모티콘 유형의 이미지는 디폴트 값에 의하여 결정된 영역에만 표시가 가능하다.
제 1 유형의 이미지는 검출된 위치 정보에 대응하는 영역에, 이미지 표시부(205)에 의하여, 표시된다. 반면, 제 2 유형의 이미지는 디폴트 값에 의해 결정되는 영역에, 이미지 표시부(205)에 의하여, 표시된다. 디폴트 값에 의해 결정되는 영역의 일 예는, 최근의 텍스트가 표시되는 영역으로부터 소정 거리 이내의 영역, 최근의 텍스트가 표시되는 영역의 좌측 또는 우측 영역, 또는 최근의 텍스트가 표시되는 영역을 중심으로 축소 또는 확대되는 영역이다.
도 3의 도면부호 42를 참조하면, 이미지 검색부(203)는 복수의 이미지들 중 사용자 인터페이스를 통해 선택된 이미지(423)의 이미지 데이터를 검색한다. 도 3에 도시된 바와 같이, 복수의 이미지들(423 내지 425)은 사용자 인터페이스(206)로부터 입력된 호출 명령에 대응하여 활성화된 영역(421)에 표시된다. 영역(421)이 활성화됨에 따라, 채팅 영역은 영역(412)에서 영역(422)으로 변경된다. 복수의 이미지들(423 내지 425) 중 이미지(423)는 가장 최근에 사용된 이미지로서, 다른 이미지들(424, 425)과 비교하여 가장 상위 행의 가장 좌측 열에 표시될 수 있다.
이미지 검색부(203)는 데이터베이스(도시되지 않음)로부터 이미지 데이터를 검색한다. 이 때, 데이터베이스(도시되지 않음)는 사용자 인터페이스(206)로부터 입력된 이미지 데이터 및 외부 디바이스(30)로부터 입력된 이미지 데이터를 저장하고 있다. 다만, 데이터베이스(도시되지 않음)는 이미지 데이터의 정보를 저장하고, 이미지 검색부(203)는 필요에 따라 채팅 데이터 관리 서버(10)로부터 정보에 대응하는 이미지 데이터를 수신할 수 있다. 또한, 데이터베이스(도시되지 않음)는 이미지 데이터 이외에 텍스트 및 위치 정보도 저장할 수 있다. 이러한 데이터베이스(도시되지 않음)의 일 예에는 디바이스(20) 내부 또는 외부에 존재하는 하드디스크드라이브, ROM(Read Only Memory), RAM(Random Access Memory), 플래쉬 메모리 및 메모리카드 등이 포함된다.
디바이스(20)의 사용자는 사용자 인터페이스(206)를 통해 이미지를 표시할 영역을 선택한다. 예를 들어, 사용자는 사용자 인터페이스(206)인 터치 스크린 인터페이스를 통하여 자신의 손가락을 채팅 영역 내의 소정 점 영역에 위치 시킴으로써, 영역을 선택할 수 있다. 이 때, 점 영역은 하나의 픽셀 또는 적어도 둘 이상의 픽셀로 특정될 수 있다. 다른 예를 들어, 사용자는 사용자 인터페이스(206)인 터치 스크린 인터페이스를 통하여 자신의 손가락을 이동하여 원, 삼각, 또는 사각으로 이루어진 소정 면 영역을 특정함으로써, 영역을 선택할 수도 있다. 이 때, 면 영역은 하나의 픽셀 또는 적어도 둘 이상의 픽셀로 특정될 수 있다.
도 3의 도면부호 43에 도시된 바와 같이, 이미지 표시부(205)는 '스티커를 붙이고 싶은 부분을 선택해주세요'와 같이 영역을 선택할 것을 알리는 알림 메시지(431)를 디바이스(20)의 디스플레이에 표시하고, 사용자 인터페이스(206)로부터 '확인' (432)을 선택받는 경우 알림 메시지(431)를 미표시할 수 있다.
위치 검출부(204)는 채팅 영역 내에서 사용자 인터페이스(206)를 통해 선택된 영역의 위치 정보를 검출한다. 이 때, 위치 정보는 선택된 영역을 특정하는 좌표 정보일 수 있다. 예를 들어, 위치 정보는 사용자 인터페이스(206)를 통해 선택된 영역 내의 적어도 하나 이상의 픽셀의 좌표 정보일 수 있다. 이와 같은 좌표 정보는 복수의 픽셀들 각각을 단일 수치로 특정하는 식별번호일 수도 있고, x축 및 y축 위치를 포함하는 2D 좌표일 수도 있고, x축, y축 및 z축 위치를 포함하는 3D 좌표일 수도 있다.
선택된 영역은 구분 라인을 통해 구분된 적어도 둘 이상의 셀 영역 중 사용자 인터페이스(206)를 통해 선택된 어느 하나의 셀 영역일 수 있다. 이 때, 채팅 영역은 구분 라인을 통해 적어도 둘 이상의 셀 영역으로 구분된다. 위치 검출부(204)는 선택된 어느 하나의 셀 영역의 위치 정보를 검출할 수 있다. 위치 정보는 좌표 정보일 수 있으며, 좌표 정보는 복수의 셀 각각을 단일 수치로 특정하는 식별번호일 수도 있고, x축 및 y축 위치를 포함하는 2D 좌표일 수도 있고, x축, y축 및 z축 위치를 포함하는 3D 좌표일 수도 있다. 이미지 표시부(205)는 채팅 영역 내에 적어도 둘 이상의 셀을 구분하는 구분라인을 표시할 수 있다. 도 3의 도면부호 43 및 44를 통해 예시하면, 이미지 표시부(205)는 채팅 영역 내에 적어도 둘 이상의 셀을 구분하는 구분라인(433)을 표시할 수 있다.
이미지를 표시하기 위해 선택된 영역은 텍스트가 표시된 영역의 전부 또는 일부와 오버랩될 수 있다. 다시 말하면, 사용자 인터페이스(206)를 통해 선택된 영역에 표시된 이미지는 텍스트가 표시되는 영역의 전부 또는 일부를 가리는 것이 가능하다.
사용자 인터페이스를 통해 선택하고자 하는 영역이 채팅 영역에 기 표시된 텍스트로부터 소정 거리 이내인 경우, 기 표시된 텍스트에는, 이미지 표시부(205)에 의하여, 강조 효과가 나타날 수 있다. 예를 들어, 이미지 표시부(205)는 선택하고자 하는 영역이 채팅 영역에 기 표시된 텍스트로부터 소정 거리 이내인 경우, 기 표시된 텍스트 또는 기 표시된 텍스트의 말풍선을 주기적으로 점멸하거나, 기 표시된 텍스트의 글자 색을 변경하거나, 또는 기 표시된 텍스트의 말풍선의 색을 변경할 수 있다. 다른 예를 들어, 이미지 표시부(205)는 선택하려는 영역이 채팅 영역에 기 표시된 텍스트와 전부 또는 일부와 오버랩되는 경우, 기 표시된 텍스트 또는 기 표시된 텍스트의 말풍선을 주기적으로 점멸하거나, 기 표시된 텍스트의 글자 색을 변경하거나, 또는 기 표시된 텍스트의 말풍선의 색을 변경할 수 있다.
도 3에 도시된 바와 같이, 위치 검출부(504)는 사용자 인터페이스(206)를 통해 선택된 영역(441)의 위치 정보를 검출한다. 이를 위해, 사용자는 사용자 인터페이스(206)인 터치 스크린 인터페이스를 통하여 자신의 손가락(442)을 채팅 영역 내의 소정 점 영역에 위치 시킴으로써, 영역을 선택할 수 있다. 위치 정보는 사용자가 직접 특정한 점 영역의 위치 정보일 수도 있고, 구분 라인(433)으로 구분되는 적어도 둘 이상의 셀 중 어느 하나의 셀 영역의 위치 정보일 수도 있다.
이미지 표시부(205)는 검색된 이미지 데이터를 검출된 위치 정보에 대응하는 영역에 표시한다. 이 때, 검출된 위치 정보는 사용자 인터페이스(206)를 통해 선택된 영역의 위치 정보를 의미하며, 위치 정보에 대응하는 영역은 이미지 데이터가 표시될 영역을 의미한다. 따라서, 일반적으로 사용자 인터페이스(206)를 통해 선택된 영역은 위치 정보에 대응하는 영역과 구별된다. 예를 들어, 사용자 인터페이스(206)를 통해 선택된 영역이 채팅 영역 내의 소정 원 영역으로 특정되는 반면, 위치 정보에 대응하는 영역은 원 영역의 중심, 이미지 데이터의 x축 거리, 및 이미지 데이터의 y 축 거리에 의하여 특정되는 소정 사각형 영역으로 특정될 수 있다. 다만, 본 발명의 다른 실시예에 따르면, 사용자 인터페이스(206)를 통해 선택된 영역과 위치 정보에 대응하는 영역은 동일할 수도 있다.
이미지 데이터가 표시된 영역, 즉 위치 정보에 대응하는 영역은 텍스트가 표시된 영역의 전부 또는 일부에 오버랩될 수 있다. 다시 말하면, 이미지 데이터가 표시된 영역은 텍스트가 표시되는 영역의 전부 또는 일부와 겹치는 것이 가능하다. 일반적으로 텍스트는 텍스트 표시부(202)에 의해 채팅 영역에 표시되고, 이미지 데이터는 이미지 표시부(205)에 의해 채팅 영역에 표시되나, 이에 한정되는 것은 아니다.
채팅 영역에 표시된 텍스트가 채팅 영역 내에서 위치 이동할 경우, 표시된 이미지 데이터도 채팅 영역 내에서 함께 위치 이동한다. 예를 들어, 채팅 영역 내에 제 1 텍스트 내지 제 7 텍스트가 표시되고, 채팅 영역 내에 제 1 이미지가 표시된 후, 사용자 인터페이스(206) 또는 외부 디바이스(30)로부터 제 8 텍스트가 입력되는 경우, 제 1 텍스트는 채팅 영역 내에서 미표시되고, 제 2 텍스트 내지 제 7 텍스트가 채팅 영역 내에서 상방향으로 위치 이동하고, 제 1 이미지도 채팅 영역 내에서 상방향으로 위치 이동한다. 또한, 제 1 텍스트 내지 제 8 텍스트가 표시되는 영역은 디폴트 값에 의하여 정해지는 반면, 제 1 이미지가 표시되는 영역은 사용자 인터페이스(206)에 의해 임의로 정해질 수 있다. 이 때, 제 1 텍스트 내지 제 8 텍스트는 텍스트 표시부(202)에 의하여 표시, 미표시 또는 위치 이동되고, 이미지 데이터는 이미지 표시부(205)에 의해 표시, 미표시 또는 위치 이동될 수 있다. 이를 위해, 텍스트 표시부(202)와 이미지 표시부(205)간에 제어 신호가 송수신될 수 있다. 일반적으로, 제 1 이미지는 사용자에 의하여 위치가 결정되는 스티커 유형의 이미지를 의미한다.
도 3의 도면부호 45를 통해 예시하면, 이미지 표시부(205)는 검색된 이미지 데이터를 검출된 위치 정보에 대응하는 영역(451)에 표시한다. 이 때, 위치 정보에 대응하는 영역(451)은 텍스트(415)가 표시된 영역의 전부에 오버랩될 수 있다. 다시 말하면, 위치 정보에 대응하는 영역(451)은 텍스트(415)가 표시되는 영역의 전부를 가리는 것이 가능하다.
도 3을 참조하면, 사용자 인터페이스(206)로부터 입력된 텍스트인 '아니 괜찮아'(413)는 채팅 영역의 오른 편에 디폴트 값에 의하여 결정된 영역에 표시된다. 또한, 사용자 인터페이스(206)로부터 입력된 텍스트인 '아니 괜찮아'(413)는 채팅 진행 상황에 따라 채팅 영역의 오른 편에 디폴트 값에 의하여 결정된 제 1 영역으로부터 제 2 영역(예를 들어, 제 1 영역의 위)으로 이동된다. 이와 같은 맥락에서, 외부 디바이스(30)로부터 수신된 텍스트인 '바빠?'(414) 또는 '살좀빼'(415) 역시 채팅 영역의 왼 편에 디폴트 값에 의하여 결정된 영역에 표시되고, 채팅 진행 상황에 따라 디폴트 값에 의하여 결정된 제 3 영역으로부터 제 4 영역(예를 들어, 제 3 영역의 위)으로 이동된다. 이와 대조적으로, 이미지 데이터는 사용자에 의하여 결정되는 임의의 영역(451)에 표시될 수 있다.
이미지 표시부(205)는 표시된 이미지 데이터를 이동시킬 수 있다. 구체적으로, 위치 검출부(204)가 사용자 인터페이스(206)를 통해 표시된 이미지 데이터에 대한 이동 명령을 입력받고, 입력된 이동 명령에 기초하여 표시된 이미지 데이터가 이동되는 목적지 영역의 위치 정보를 검출하면, 이미지 표시부(205)는 검출된 목적지 영역의 위치 정보에 대응하는 영역으로 표시된 이미지 데이터를 이동시킬 수 있다. 이동 명령의 일 예는 표시된 이미지 데이터가 사용자에 의하여 이동 가능한 상태로 활성화되고 활성화된 이미지 데이터가 사용자에 의하여 목적지 영역으로 이동되는 것이다. 이 때, 표시된 이미지 데이터는, 사용자가 표시된 이미지 데이터의 영역 내에 손가락을 수 초간 터치함으로써, 활성화될 수 있다.
데이터 통신부(201)는 이미지 데이터와 위치 정보를 외부 디바이스(30)로 전송한다. 이 때, 데이터 통신부(201)는 이미지 검색부(203)가 사용자 인터페이스(206)를 통해 선택된 이미지의 이미지 데이터를 검색하고, 위치 검출부(204)가 채팅 영역 내에서 사용자 인터페이스(206)를 통해 선택된 영역의 위치 정보를 검출하는 경우, 검색된 이미지 데이터와 검출된 위치 정보를 외부 디바이스(30)로 전송할 수 있다. 또한, 데이터 통신부(201)는 이미지 표시부(205)가 검색된 이미지 데이터를 검출된 위치 정보에 대응하는 영역에 표시하는 경우, 데이터 통신부(201)는 검색된 이미지 데이터와 검출된 위치 정보를 외부 디바이스(30)로 전송할 수도 있다. 외부 디바이스(30)는 외부 디바이스(30)의 채팅 영역 중 검출된 위치 정보에 대응하는 영역에 수신된 이미지 데이터를 표시한다.
이미지 표시부(205)는 외부 디바이스(30)로부터 수신된 외부 이미지 데이터를 표시한다. 이 때, 데이터 통신부(201)는 외부 디바이스(30)로부터 외부 이미지 데이터 및 외부 위치 정보를 수신하고, 이미지 표시부(205)는 채팅 영역 중 외부 위치 정보에 대응하는 영역에 외부 이미지 데이터를 표시할 수 있다. 외부 위치 정보는 외부 디바이스(30)의 사용자 인터페이스를 통해 선택된 영역의 위치 정보를 의미한다. 일반적으로, 외부 사용자는 외부 디바이스(30)의 사용자 인터페이스인 터치 스크린 인터페이스를 통하여 자신의 손가락을 채팅 영역 내의 소정 점 영역에 위치 시킴으로써, 영역을 선택할 수도 있고, 외부 디바이스(30)의 사용자 인터페이스인 터치 스크린 인터페이스를 통하여 자신의 손가락을 이동하여 원, 삼각, 또는 사각으로 이루어진 소정 면 영역을 특정함으로써, 상기 영역을 선택할 수도 있다. 또한, 외부 위치 정보는 복수의 픽셀들 각각을 단일 수치로 특정하는 식별번호일 수도 있고, x축 및 y축 위치를 포함하는 2D 좌표일 수도 있고, x축, y축 및 z축 위치를 포함하는 3D 좌표일 수도 있다.
이미지 표시부(205)는 데이터 통신부(201)가 외부 디바이스(30)로부터 외부 이미지 데이터를 수신하는 경우, 외부 이미지 데이터를 수신한 것을 알리는 알림 메시지를 디바이스(20)의 디스플레이에 표시할 수 있다. 또한, 이미지 표시부(205)는 데이터 통신부(201)가 외부 디바이스(30)로부터 외부 이미지 데이터와 연관된 위치 정보를 수신하는 경우, 외부 이미지 데이터를 수신한 것 또는 위치 정보를 수신한 것을 알리는 알림 메시지를 디바이스(20)의 디스플레이에 표시할 수 있다.
도 4는 도 2의 이미지 표시부(205)에 의하여 알림 메시지가 표시되는 일 예를 나타내는 도면이다. 도 4를 참조하면, 이미지 표시부(205)는 데이터 통신부(201)가 사용자 A의 외부 디바이스(30)로부터 외부 이미지 데이터인 스티커 이미지를 수신하는 경우, 사용자 A 로부터 스티커 이미지를 수신한 것을 알리는 알림 메시지인 'A님이 스티커를 붙였습니다'(46)를 디바이스(20)의 디스플레이에 표시할 수 있다. 도 4에 도시된 바와 같이, 알림 메시지는 채팅 영역이 활성화되지 않은 잠금 화면 상에 푸쉬(push) 메시지 형태로 표시될 수 있다.
사용자 인터페이스(206)는 사용자로부터 제어 명령을 입력받는 도구 또는 장치를 의미한다. 이러한 사용자 인터페이스(206)는 키보드, 마우스, 터치 스크린 등과 같은 물리적인 입력 장치일 수도 있으나, 영상 출력 장치에 표현되는 그래픽 유저 인터페이스(GUI, Graphical User interface)일 수도 있다.
사용자 인터페이스(206)는 채팅 영역에 표시되는 이미지 데이터를 수정하기 위한 도구를 제공할 수 있다. 예를 들어, 사용자 인터페이스(206)는 사용자 인터페이스(206)에 의해 선택된 이미지 데이터 또는 외부 디바이스(30)로부터 수신된 이미지 데이터를 수정하기 위한 그래픽 편집 도구를 제공할 수 있다. 이 때, 사용자 인터페이스(206)에 의해 선택된 이미지 데이터 또는 외부 디바이스(30)로부터 수신된 이미지 데이터는 스티커 이미지 유형의 이미지 데이터일 수 있다.
사용자 인터페이스(206)는 이미지 데이터를 생성하기 위한 도구를 제공할 수도 있다. 예를 들어, 사용자 인터페이스(206)는 외부로부터 수신된 원본 이미지로부터 이미지 데이터를 생성하기 위한 그래픽 편집 도구를 제공할 수도 있고, 또는 디바이스(20)의 디스플레이에서 캡쳐된 캡쳐 이미지로부터 이미지 데이터를 생성하기 위한 그래픽 편집 도구를 제공할 수도 있다. 이 때, 원본 이미지로부터 생성된 이미지 데이터 또는 캡쳐 이미지로부터 생성된 이미지 데이터는 스티커 이미지 유형의 이미지 데이터일 수 있다.
도 5는 본 발명의 다른 실시예에 따른 디바이스(50)의 구성도이다. 디바이스(50)는 도 1에 도시된 디바이스(21 내지 23) 중 어느 하나의 디바이스를 의미하나 도 1의 디바이스(21 내지 23)의 형태로 한정되는 것은 아니다.
도 5를 참조하면, 디바이스(50)는 데이터 통신부(501), 텍스트 표시부(502), 이미지 검색부(503), 위치 검출부(504), 이미지 표시부(505), 사용자 인터페이스(506), 이미지 삭제부(507) 및 결제 처리부(508)를 포함한다. 디바이스(50)의 구성 중 데이터 통신부(501), 텍스트 표시부(502), 이미지 검색부(503), 위치 검출부(504), 이미지 표시부(505) 및 사용자 인터페이스(506) 각각은 도 2의 디바이스(20)의 데이터 통신부(201), 텍스트 표시부(202), 이미지 검색부(203), 위치 검출부(204), 이미지 표시부(205) 및 사용자 인터페이스(206) 각각에 대응한다. 따라서, 도 5의 데이터 통신부(501) 내지 사용자 인터페이스(506) 각각에 대해 설명되지 아니한 내용은 앞서 도 2의 도 2의 디바이스(20)의 데이터 통신부(201) 내지 사용자 인터페이스(206) 각각에 설명된 내용을 준용한다. 또한, 도 5의 데이터 통신부(501) 내지 사용자 인터페이스(506) 각각에 대해 설명되는 내용은 도 2의 디바이스(20)의 데이터 통신부(201) 내지 사용자 인터페이스(206) 각각에 대해서도 준용될 수 있다. 또한, 외부 디바이스(60)에 대해 설명되지 아니한 사항은 디바이스(30)에 대해 설명된 내용을 준용하며, 외부 디바이스(60)에 대해 설명된 내용은 디바이스(30)에도 준용될 수 있다.
도 5에 도시된 디바이스(50)는 본 발명의 하나의 구현 예에 불과하며, 도 5에 도시된 구성요소들을 기초로 하여 여러 가지 변형이 가능하다. 예를 들어, 디바이스(50)는 음성을 출력하는 음성 출력 장치, 영상을 출력하는 디스플레이를 더 포함할 수도 있다.
데이터 통신부(501)는 네트워크를 통해 외부 디바이스(60)의 채팅 데이터를 수신한다. 이 때, 채팅 데이터는 텍스트, 이미지 데이터 및 이미지 데이터와 연관된 위치 정보 중 적어도 하나 이상을 포함한다.
텍스트 표시부(502)는 텍스트를 채팅 영역에 표시한다. 이 때, 텍스트는 외부 디바이스(60)로부터 수신된 텍스트 또는 사용자 인터페이스(506)로부터 입력된 텍스트이다. 채팅 영역은 디바이스(50)의 디스플레이에 표시된 영역으로서, 사용자 인터페이스(506)로부터 입력되거나 외부 디바이스(60)로부터 수신된 텍스트를 표시하는 그래픽 영역을 의미한다.
이미지 검색부(503)는 사용자 인터페이스(506)를 통해 선택된 이미지의 이미지 데이터를 검색한다. 구체적으로, 이미지 표시부(505)가 사용자 인터페이스(506)로부터 이미지들을 호출하는 명령을 입력받고, 디바이스(50)의 디스플레이의 소정 영역에 복수의 이미지들을 표시하는 경우, 이미지 검색부(503)는 복수의 이미지들 중 사용자 인터페이스를 통해 선택된 이미지의 이미지 데이터를 검색할 수 있다.
위치 검출부(504)는 채팅 영역 내에서 사용자 인터페이스(506)를 통해 선택된 영역의 위치 정보를 검출한다. 사용자는 사용자 인터페이스(506)를 통해 영역을 선택할 수 있다.
이미지 표시부(505)는 검색된 이미지 데이터를 검출된 위치 정보에 대응하는 영역에 표시한다. 이 때, 검출된 위치 정보는 사용자 인터페이스(506)를 통해 선택된 영역의 위치 정보를 의미하며, 위치 정보에 대응하는 영역은 이미지 데이터가 표시될 영역을 의미한다. 따라서, 일반적으로 사용자 인터페이스(506)를 통해 선택된 영역은 위치 정보에 대응하는 영역과 구별된다. 다만, 본 발명의 다른 실시예에 따르면, 사용자 인터페이스(506)를 통해 선택된 영역과 위치 정보에 대응하는 영역은 동일할 수도 있다.
사용자 인터페이스(206)는 사용자로부터 제어 명령을 입력받는 도구 또는 장치를 의미한다. 이러한 사용자 인터페이스(206)는 키보드, 마우스, 터치 스크린 등과 같은 물리적인 입력 장치일 수도 있으나, 영상 출력 장치에 표현되는 그래픽 유저 인터페이스(GUI, Graphical User interface)일 수도 있다.
이미지 삭제부(507)는 사용자 인터페이스(506)를 통해 이미지 데이터가 표시된 영역에 대한 선택을 입력받는 경우, 표시된 이미지 데이터를 미표시시킬 수 있다. 예를 들어, 사용자가 사용자 인터페이스(506)인 터치 스크린을 통해 표시된 이미지 데이터에 손가락을 위치(또는 클릭, 터치)시키는 경우 이미지 삭제부(507)는 표시된 이미지 데이터를 미표시시킬 수 있다. 이미지 데이터가 표시된 영역에 대한 선택은 표시된 이미지 데이터를 미표시시키는 것을 지시하는 사용자의 명령의 일 예이다. 따라서, 본 발명의 다양한 실시예들에 따르면, 이미지 데이터를 미표시시키는 것을 지시하는 사용자의 명령은 사용자가 디스플레이 상에 표시된 아이콘을 선택하거나, 디바이스(50)의 하드웨어 버튼을 선택하는 것일 수도 있다. 또한, 본 발명의 다른 실시예에 따르면 이미지 삭제부(507)의 동작은 이미지 표시부(505)에 의하여 수행된다.
도 6은 도 5의 디바이스(50)의 동작의 일 예를 설명하기 위한 도면이다. 도 6의 도면부호 46 및 47을 통하여 이미지 삭제부(507)의 동작을 예시하면, 이미지 삭제부(507)는 사용자의 손가락(461)이 표시된 이미지 데이터(451) 상에 위치하면, 사용자 인터페이스(506)의 터치 스크린을 통해 사용자의 손가락(461)이 표시된 이미지 데이터 상에 위치하였다는 것을 인식하고, 표시된 이미지 데이터(451)를 미표시시킬 수 있다. 도면부호 47은 표시된 이미지 데이터(451)가 미표시된 것을 나타낸다. 도면부호 48에 도시된 바와 같이 이미지 표시부(505)는 사용자가 채팅 영역을 비활성화시켰다가 다시 활성화시킨 경우, 미표시되었던 이미지 데이터(451)를 재표시할 수도 있다. 다르게 표현하면, 이미지 표시부(505)는 사용자가 채팅 영역에서 나갔다가, 채팅 영역으로 다시 들어오면, 미표시되었던 이미지 데이터(451)를 재표시할 수도 있다.
이미지 삭제부(507)는 사용자 인터페이스(505)로부터 이미지 미표시 명령을 입력받는 경우, 채팅 영역에 기 표시된 적어도 하나 이상의 이미지 데이터를 미표시시킬 수 있다. 이 때, 이미지 미표시 명령은 채팅 영역에 기 표시된 적어도 하나 이상의 이미지 데이터를 전부 미표시시키는 것을 지시하는 사용자 명령을 의미할 수 있다. 이와 같은 이미지 미표시 명령의 일 예는 사용자가 기 표시된 적어도 하나 이상의 이미지 데이터 중 어느 하나를 선택하거나, 사용자가 디스플레이 상에 표시된 미표시 아이콘을 선택하거나, 디바이스(50)의 하드웨어 미표시 버튼을 선택하는 것일 수 있다. 본 발명의 다른 실시예에 따르면, 이미지 삭제부(507)의 동작은 이미지 표시부(505)에 의하여 수행될 수 있다.
이미지 삭제부(507)가 표시된 이미지 데이터를 미표시시키는 경우, 데이터 통신부(501)는 이미지 데이터의 미표시 취지를 알리는 신호를 외부 디바이스(60)에게 송신할 수 있다. 이 때, 미표시 취지를 알리는 신호는 미표시된 이미지 데이터를 식별하는 식별 정보를 포함할 수 있다. 이러한 식별 정보는 미표시된 이미지 데이터의 위치 정보일 수 있다. 외부 디바이스(60)는 미표시 취지를 알리는 신호를 참조하여 외부 디바이스(60)에 표시된 적어도 하나 이상의 이미지 데이터를 미표시시킬 수 있다.
결제 처리부(508)는 이미지 데이터에 대응하는 적어도 하나 이상의 결제 프로세스를 수행한다. 결제 프로세스의 일 예는 이미지 데이터를 구매하고, 구매한 이미지 데이터를 결제하는 결제 프로세스이다. 예를 들어, 결제 프로세스는 사용자가 사용자 인터페이스(506)를 통하여 이미지 데이터에 대한 구매 요청을 입력하는 경우 디바이스(50)로부터 결제 서버(도시되지 않음) 또는 채팅 데이터 관리 서버(10)로 이미지 데이터의 결제 요청 메시지가 전송되고, 결제 서버(도시되지 않음) 또는 채팅 데이터 관리 서버(10)로부터 이미지 데이터의 결제 완료 메시지를 수신한다.
결제 프로세스의 다른 예는 이미지 데이터를 다른 사용자에게 선물하기 위한 선물하기 프로세스이다. 예를 들어, 선물하기 프로세스는 사용자가 사용자 인터페이스(506)를 통하여 외부 디바이스(60)로 이미지 데이터를 선물하는 요청을 입력하는 경우 디바이스(50)로부터 결제 서버(도시되지 않음) 또는 채팅 데이터 관리 서버(10)로 이미지 데이터의 결제 요청 메시지가 전송되고, 결제 서버(도시되지 않음) 또는 채팅 데이터 관리 서버(10)로부터 이미지 데이터의 결제 완료 메시지가 수신되고, 외부 디바이스(60)로 이미지 데이터를 전송한다. 본 발명의 다양한 실시예들에 따르면 결제 프로세스의 일 예들은 다양하게 결정될 수 있다.
도 7은 본 발명의 또 다른 실시예에 따른 디바이스(70)의 구성도이다. 디바이스(70)는 도 5의 외부 디바이스(60)를 의미할 수 있고, 외부 디바이스(80)는 도 5의 디바이스(50)를 의미할 수 있다. 따라서, 도 7을 통하여 디바이스(70)에 대해서 설명되지 아니한 사항은 도 2의 디바이스(30)에 대해 설명된 내용 또는 도 5를 통하여 디바이스(60)에 대해 설명된 내용을 준용할 수 있다.
도 7을 참조하면, 디바이스(70)는 데이터 통신부(701), 텍스트 표시부(702), 이미지 표시부(703), 사용자 인터페이스(704) 및 이미지 삭제부(705)를 포함한다. 다만, 도 7에 도시된 디바이스(70)는 본 발명의 하나의 구현 예에 불과하며, 도 7에 도시된 구성요소들을 기초로 하여 여러 가지 변형이 가능하다. 예를 들어, 디바이스(70)는 디바이스(50)의 이미지 검색부(503)의 동작을 수행하는 구성, 디바이스(50)의 위치 검출부(504)의 동작을 수행하는 구성 및 디바이스(50)의 결제 처리부(508)의 동작을 수행하는 구성 각각을 더 포함할 수도 있다.
디바이스(70)는 디바이스(60)의 동작을 수행함과 동시에, 디바이스(20) 또는 디바이스(50)의 동작을 수행할 수도 있다. 따라서, 디바이스(70)의 구성 중 데이터 통신부(701), 텍스트 표시부(702), 이미지 표시부(703), 사용자 인터페이스(704) 및 이미지 삭제부(705) 각각은 디바이스(20)의 데이터 통신부(201), 텍스트 표시부(202), 이미지 표시부(205), 사용자 인터페이스(206) 및 이미지 삭제부(207) 각각의 동작, 또는 디바이스(50)의 데이터 통신부(501), 텍스트 표시부(502), 이미지 표시부(505), 사용자 인터페이스(506) 및 이미지 삭제부(507) 각각의 동작을 수행할 수도 있다. 또한, 디바이스(70)는 이미지 검색부(203) 또는 이미지 검색부(503)의 동작을 수행하는 구성, 위치 검출부(204) 또는 위치 검출부(504)의 동작을 수행하는 구성 및 디바이스(50)의 결제 처리부(508)의 동작을 수행하는 구성 각각을 더 포함할 수도 있다.
데이터 통신부(701)는 네트워크를 통해 외부 디바이스(80)의 채팅 데이터를 수신한다. 이 때, 채팅 데이터는 텍스트, 이미지 데이터 및 이미지 데이터와 연관된 위치 정보 중 적어도 하나 이상을 포함한다. 또한, 데이터 통신부(701)는 네트워크를 통해 외부 디바이스(70)로 채팅 데이터를 전송할 수 있다.
데이터 통신부(701)는 채팅 데이터 관리 서버(10)를 경유하여 외부 디바이스(70)로부터 채팅 데이터를 수신할 수도 있고, 채팅 데이터 관리 서버(10)를 경유하지 않고, 외부 디바이스(80)로부터 직접 채팅 데이터를 수신할 수 있다. 또한, 데이터 통신부(701)는 채팅 데이터 관리 서버(10)와 채팅 데이터에 대한 정보(예를 들어, 식별 정보, 선택 정보 또는 식별 코드 중 어느 하나)를 송수신할 수도 있다.
텍스트 표시부(702)는 텍스트를 채팅 영역에 표시한다. 이 때, 텍스트는 외부 디바이스(80)로부터 수신된 텍스트 또는 사용자 인터페이스(704)로부터 입력된 텍스트이다. 채팅 영역은 디바이스(70)의 디스플레이에 표시된 영역으로서, 사용자 인터페이스(704)로부터 입력되거나 외부 디바이스(80)로부터 수신된 텍스트를 표시하는 그래픽 영역을 의미한다.
이미지 표시부(703)는 수신된 이미지 데이터를 수신된 위치 정보에 대응하는 영역에 표시한다. 이 때, 표시된 텍스트가 채팅 영역 내에서 위치 이동할 경우, 표시된 이미지 데이터도 채팅 영역 내에서 위치 이동될 수 있다. 또한, 수신된 위치 정보는 외부 디바이스(80)의 사용자 인터페이스를 통해 선택된 영역의 위치 정보를 의미하며, 위치 정보에 대응하는 영역은 수신된 이미지 데이터가 표시될 영역을 의미한다.
사용자 인터페이스(704)는 사용자로부터 제어 명령을 입력받는 도구 또는 장치를 의미한다. 이러한 사용자 인터페이스(704)는 키보드, 마우스, 터치 스크린 등과 같은 물리적인 입력 장치일 수도 있으나, 영상 출력 장치에 표현되는 그래픽 유저 인터페이스(GUI, Graphical User interface)일 수도 있다.
이미지 삭제부(705)는 데이터 통신부(701)가 외부 디바이스(80)로부터 전송된 이미지 데이터의 미표시 취지를 알리는 신호를 수신하는 경우, 표시된 이미지를 미표시시킨다. 이러한 이미지 삭제부(705)의 동작은 이미지 표시부(703)에 의해 수행될 수도 있다.
도 8은 도 1의 채팅 데이터 관리 서버(10)의 구성도이다. 도 8을 참조하면, 채팅 데이터 관리 서버(10)는 텍스트 관리부(101), 이미지 데이터 관리부(102) 및 위치 정보 관리부(103)를 포함한다. 다만, 도 8에 도시된 채팅 데이터 관리 서버(10)는 본 발명의 하나의 구현 예에 불과하며, 도 8에 도시된 구성요소들을 기초로 하여 여러 가지 변형이 가능하다. 예를 들어, 채팅 데이터 관리 서버(10)는 채팅 데이터 관리 서버(10) 내부의 각 구성을 제어하기 위한 관리자 인터페이스를 더 포함할 수도 있다.
텍스트 관리부(101)는 네트워크를 통해 연결된 복수의 디바이스 중 제 1 디바이스(81)로부터 텍스트를 수신하고, 수신된 텍스트를 제 2 디바이스(82)로 전송한다. 이미지 데이터 관리부(102)는 제 1 디바이스(81)로부터 이미지 데이터를 수신하고, 수신된 이미지 데이터를 상기 제 2 디바이스(82)로 전송한다. 이 때, 이미지 데이터 관리부(102)는 제 1 디바이스(81)로부터 이미지 데이터에 대한 정보(예를 들어, 식별 정보 또는 선택 정보)를 수신하고, 수신된 정보를 이용하여 이미지 데이터를 제 2 디바이스(82)로 전송할 수도 있다. 또한, 이미지 데이터 관리부(102)는 제 1 디바이스(81)로부터 이미지 데이터에 대한 정보(예를 들어, 식별 정보 또는 선택 정보)를 수신하고, 수신된 정보를 제 2 디바이스(82)로 전송한 후, 제 2 디바이스(82)로부터 이미지 데이터가 요청되는 경우, 제 2 디바이스(82)로 이미지 데이터를 전송할 수도 있다. 위치 정보 관리부(103)는 제 1 디바이스(81)로부터 이미지 데이터와 연관된 위치 정보를 수신하고, 수신된 위치 정보를 제 2 디바이스(82)로 전송한다. 이 때, 이미지 데이터는 제 1 디바이스의 채팅 영역 중 위치 정보에 대응하는 영역에 표시될 수 있다. 또한, 이미지 데이터는 제 2 디바이스의 채팅 영역 중 위치 정보에 대응하는 영역에 표시될 수 있다.
도 9는 도 1의 채팅 데이터 관리 서버(10)의 동작의 일 예를 설명하기 위한 도면이다. 이러한 도 9의 채팅 데이터 관리 서버(10)의 동작은 본 발명의 다양한 실시예들 중 하나의 실시예를 나타낸 것에 불과하므로, 도 9 및 이에 대한 설명을 통해 본 발명의 모든 실시예들이 한정되는 것은 아니다.
단계 S901에서 제 1 디바이스(81)의 채팅 영역과 제 2 디바이스(82)의 채팅 영역이 활성화된다. 이를 위해, 채팅 데이터 관리 서버(10)는 제 1 디바이스(81) 및 제 2 디바이스(82)과 채팅 영역의 활성화를 위한 신호를 송수신할 수 있다. 예를 들어, 채팅 데이터 관리 서버(10)는 제 1 디바이스(81) 또는 제 2 디바이스(82)로부터 채팅을 위한 요청을 수신하고, 수신한 채팅 요청에 대응하여 제 1 디바이스(81) 및 제 2 디바이스(82)로 채팅 영역 활성화에 대한 응답을 전송한다.
제 2 디바이스(82)가 사용자로부터 입력된 텍스트를 제 2 디바이스(82)의 채팅 영역에 표시하고(S902), 제 2 디바이스(82)가 채팅 데이터 관리 서버(10)로 표시된 텍스트를 전송하면(S903), 채팅 데이터 관리 서버(10)는 제 2 디바이스(82)로부터 수신한 텍스트를 제 1 디바이스(81)로 전송한다(S904).
제 1 디바이스(81)는 채팅 데이터 관리 서버(10)로부터 수신한 텍스트를 제 1 디바이스(81)의 채팅 영역에 표시하고(S905), 제 1 디바이스(81)의 사용자 인터페이스를 통해 선택된 이미지의 이미지 데이터를 검색하고(S906), 제 1 디바이스(81)의 사용자 인터페이스를 통해 선택된 영역의 위치 정보를 검출하고(S907), 검색된 이미지 데이터를 위치 정보에 대응하는 영역에 표시하고(S908), 검색된 이미지 데이터와 검출된 위치 정보를 채팅 데이터 관리 서버(10)로 전송한다(S909).
채팅 데이터 관리 서버(10)는 제 1 디바이스(81)로부터 이미지 데이터(또는 이미지 데이터에 대한 정보) 및 이미지 데이터와 연관된 위치 정보를 수신하고(S909), 수신된 이미지 데이터(또는 이미지 데이터에 대한 정보) 및 수신된 위치 정보를 제 2 디바이스(82)로 전송한다(S910). 제 2 디바이스(82)는 수신된 위치 정보에 대응하는 영역에 수신된 이미지 데이터를 표시한다(S910).
제 1 디바이스(81)는 제 1 디바이스(81)의 사용자 인터페이스를 통하여 표시된 이미지 데이터에 대한 선택을 입력받는 경우(S912), 제 1 디바이스(82)의 채팅 영역에서 이미지 데이터를 미표시하고(S913), 이미지 데이터의 미표시 취지를 알리는 알림 신호를 채팅 데이터 관리 서버(10)로 전송한다(S914).
채팅 데이터 관리 서버(10)는 제 1 디바이스(81)로부터 이미지 데이터의 미표시 취지를 알리는 알림 신호를 수신하고(S914), 수신된 알림 신호를 제 2 디바이스(82)로 전송한다(S915). 제 2 디바이스(82)는 수신된 알림 신호에 기초하여 제 2 디바이스(82)의 채팅 영역에 표시된 이미지를 미표시한다.
도 8 및 9를 통하여 채팅 데이터 관리 서버(10)에 대해서 설명되지 아니한 사항은 앞서 도 1 내지 도 7을 통해 채팅 데이터 관리 서버(10)에 대해서 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능한 내용이므로 이하 설명을 생략하고, 도 1 내지 도 7을 통해 설명된 내용을 준용한다. 이 때, 도 8의 제 1 디바이스(81) 또는 제 2 디바이스(82) 각각은 도 1 내지 도 7을 통해 설명된 디바이스(21 내지 24), 디바이스(20), 디바이스(30), 디바이스(50), 디바이스(60), 디바이스(70) 또는 디바이스(80) 중 어느 하나이다.
도 10은 본 발명의 일 실시예에 따른 이미지 표시 방법의 동작 흐름도이다. 도 10에 도시된 실시예에 따른 이미지 표시 방법은 도 5에 도시된 실시예에 따른 디바이스(20) 또는 도 5에 도시된 실시예에 따른 디바이스(50)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 2에 도시된 실시예에 따른 디바이스(20) 또는 도 5에 도시된 실시예에 따른 디바이스(50)에 관하여 이상에서 기술된 내용은 도 10에 도시된 실시예에 따른 이미지 표시 방법에도 적용된다. 설명의 편의를 위하여 이하의 각 단계는 도 5의 디바이스(50)의 각 구성에 의하여 수행되는 것처럼 설명하도록 하겠으나, 도 2의 다비이스(50)의 각 구성에 의하여도 수행될 수 있다.
단계 S1001에서 데이터 통신부(501)는 네트워크를 통해 외부 디바이스의 텍스트를 수신한다. 단계 S1002에서 텍스트 표시부(502)는 수신된 텍스트를 채팅 영역에 표시한다. 단계 S1003에서 이미지 검색부(503)는 사용자 인터페이스(506)를 통해 선택된 이미지의 이미지 데이터를 검색한다. 단계 S1004에서 위치 검출부(504)는 채팅 영역 내에서 사용자 인터페이스(506)를 통해 선택된 영역의 위치 정보를 검출한다. 단계 S1005에서 이미지 표시부(507)는 검색된 이미지 데이터를 검출된 위치 정보에 대응하는 영역에 표시한다. 단계 S1006에서 이미지 표시부(507)는 표시된 텍스트가 채팅 영역 내에서 위치 이동할 경우, 표시된 이미지 데이터도 채팅 영역 내에서 위치 이동시킨다.
도 10에는 도시되지 않았으나, 이미지 표시 방법은 사용자 인터페이스(506)를 통해 이미지 데이터가 표시된 영역에 대한 선택을 입력받는 경우, 표시된 이미지 데이터를 미표시시키는 단계(도시되지 않음), 외부 이미지 데이터가 상기 데이터 통신부로 수신된 것을 알리는 알림 메시지를 상기 디바이스의 디스플레이에 표시하는 단계(도시되지 않음) 및 이미지 데이터에 대응하는 적어도 하나 이상의 결제 프로세스를 수생하는 단계를 더 포함할 수도 있다.
도 11은 본 발명의 다른 실시예에 따른 이미지 표시 방법의 동작 흐름도이다. 도 11에 도시된 실시예에 따른 이미지 표시 방법은 도 7에 도시된 실시예에 따른 디바이스(70)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 7에 도시된 실시예에 따른 디바이스(70)에 관하여 이상에서 기술된 내용은 도 11에 도시된 실시예에 따른 이미지 표시 방법에도 적용된다.
단계 S1101에서 데이터 통신부(701)는 네트워크를 통해 외부 디바이스(80)의 텍스트, 이미지 데이터 및 위치 정보를 수신한다. 단계 S1102에서 텍스트 표시부(702)는 수신된 텍스트를 채팅 영역에 표시한다. 단계 S1103에서 이미지 표시부(703)는 수신된 이미지 데이터를 수신된 위치 정보에 대응하는 영역에 표시한다. 단계 S1104에서 이미지 표시부(704)는 표시된 텍스트가 채팅 영역 내에서 위치 이동할 경우, 표시된 이미지 데이터도 채팅 영역 내에서 위치 이동시킨다.
도 11에는 도시되지 않았으나, 이미지 표시 방법은 데이터 통신부(701)가 외부 디바이스(80)로부터 전송된 이미지 데이터의 미표시 취지를 알리는 신호를 수신하는 경우, 표시된 이미지를 미표시시키는 단계(도시되지 않음)를 더 포함할 수도 있다.
도 12는 본 발명의 일 실시예에 따른 채팅 데이터 관리 방법의 동작 흐름도이다. 도 12에 도시된 실시예에 따른 채팅 데이터 관리 방법은 도 8에 도시된 실시예에 따른 채팅 데이터 관리 서버(10)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 8에 도시된 실시예에 따른 채팅 데이터 관리 서버(10)에 관하여 이상에서 기술된 내용은 도 12에 도시된 실시예에 따른 채팅 데이터 관리 방법에도 적용된다.
단계 S1201에서 텍스트 관리부(101)는 네트워크를 통해 연결된 복수의 디바이스 중 제 1 디바이스(81)로부터 텍스트를 수신하고, 수신된 텍스트를 제 2 디바이스(82)로 전송한다. 단계 S1202에서 이미지 데이터 관리부(102)는 제 1 디바이스(81)로부터 이미지 데이터에 대한 정보(또는 이미지 데이터)를 수신하고, 수신된 이미지 데이터에 대한 정보(또는 이미지 데이터)를 제 2 디바이스(82)로 전송한다. 위치 정보 관리부(S1203)는 제 1 디바이스(81)로부터 이미지 데이터와 연관된 위치 정보를 수신하고, 수신된 위치 정보를 제 2 디바이스(82)로 전송한다. 이 때, 이미지 데이터는 제 2 디바이스(82)의 채팅 영역 중 위치 정보에 대응하는 영역에 표시될 수 있다. 또한, 이미지 데이터는 제 1 디바이스(81)의 채팅 영역 중 위치 정보에 대응하는 영역에 표시될 수 있다.
도 10, 11 또는 12 각각을 통해 설명된 이미지 표시 방법 또는 채팅 데이터 관리 방법 각각은 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (16)

  1. 텍스트가 표시되는 채팅 영역에 이미지를 표시하는 디바이스에 있어서,
    네트워크를 통해 외부 디바이스의 텍스트를 수신하는 데이터 통신부;
    상기 수신된 텍스트를 상기 채팅 영역에 표시하는 텍스트 표시부;
    사용자 인터페이스를 통해 선택된 이미지의 이미지 데이터를 검색하는 이미지 검색부;
    상기 채팅 영역 내에서 상기 사용자 인터페이스를 통해 선택된 영역의 위치 정보를 검출하는 위치 검출부; 및
    상기 검색된 이미지 데이터를 상기 검출된 위치 정보에 대응하는 영역에 표시하는 이미지 표시부를 포함하되,
    상기 표시된 텍스트가 상기 채팅 영역 내에서 위치 이동할 경우, 상기 표시된 이미지 데이터도 상기 채팅 영역 내에서 위치 이동되는 것인, 디바이스.
  2. 제 1 항에 있어서,
    상기 이미지 데이터가 표시된 영역은 상기 텍스트가 표시된 영역의 전부 또는 일부에 오버랩되는 것인, 디바이스.
  3. 제 1 항에 있어서,
    상기 사용자 인터페이스를 통해 상기 이미지 데이터가 표시된 영역에 대한 선택을 입력받는 경우, 상기 표시된 이미지 데이터를 미표시시키는 이미지 삭제부를 더 포함하는, 디바이스.
  4. 제 3 항에 있어서,
    상기 이미지 삭제부가 상기 표시된 이미지 데이터를 미표시시키는 경우, 상기 데이터 통신부가 상기 이미지 데이터의 미표시 취지를 알리는 신호를 상기 외부 디바이스에게 송신하는 것인, 디바이스.
  5. 제 1 항에 있어서,
    상기 텍스트 표시부는 상기 사용자 인터페이스를 통해 선택된 영역이 상기 표시된 텍스트로부터 소정 거리 이내의 영역인 경우, 상기 표시된 텍스트에 강조 효과를 나타내는 것인, 디바이스.
  6. 제 1 항에 있어서,
    상기 위치 검출부는 상기 사용자 인터페이스를 통해 상기 표시된 이미지 데이터에 대한 이동 명령을 입력받는 경우, 상기 입력된 이동 명령에 기초하여 상기 표시된 이미지 데이터가 이동되는 목적지 영역의 위치 정보를 검출하고,
    상기 이미지 표시부는 상기 검출된 목적지 영역의 위치 정보에 대응하는 영역으로 상기 표시된 이미지 데이터를 이동시켜 표시시키는 것인, 디바이스.
  7. 제 1 항에 있어서,
    상기 사용자 인터페이스로부터 이미지 미표시 명령을 입력받는 경우, 상기 채팅 영역에 기 표시된 적어도 하나 이상의 이미지 데이터를 미표시시키는 이미지 삭제부를 더 포함하는, 디바이스.
  8. 제 1 항에 있어서,
    상기 채팅 영역은 구분 라인을 통해 적어도 둘 이상의 셀 영역으로 구분되고,
    상기 선택된 영역은 상기 구분 라인을 통해 구분된 적어도 둘 이상의 셀 영역 중 상기 사용자 인터페이스를 통해 선택된 어느 하나의 셀 영역인 것인, 디바이스.
  9. 제 1 항에 있어서,
    상기 사용자 인터페이스는 이미지가 사용된 시간에 따라 순차적으로 정렬된 복수의 이미지 리스트를 사용자에게 제공하는 것인, 디바이스.
  10. 제 1 항에 있어서,
    상기 사용자 인터페이스는 상기 이미지 데이터를 수정하기 위한 도구를 제공하는 것인, 디바이스.
  11. 제 1 항에 있어서,
    상기 이미지 표시부는 상기 데이터 통신부가 상기 외부 디바이스의 외부 이미지 데이터 및 외부 위치 정보를 수신하는 경우, 상기 채팅 영역 중 상기 외부 위치 정보에 대응하는 영역에 상기 외부 이미지 데이터를 표시하는 것인, 디바이스.
  12. 제 11 항에 있어서,
    상기 이미지 표시부는 상기 데이터 통신부가 상기 외부 이미지 데이터를 수신하는 경우, 상기 외부 이미지 데이터를 수신한 것을 알리는 알림 메시지를 상기 디바이스의 디스플레이에 표시하는 것인, 디바이스.
  13. 제 1 항에 있어서,
    상기 이미지 데이터에 관한 적어도 하나 이상의 결제 프로세스를 수생하는 결제 처리부를 더 포함하는, 디바이스.
  14. 텍스트가 표시되는 채팅 영역에 이미지를 표시하는 방법에 있어서,
    네트워크를 통해 외부 디바이스의 텍스트를 수신하는 단계;
    상기 수신된 텍스트를 상기 채팅 영역에 표시하는 단계;
    사용자 인터페이스를 통해 선택된 이미지의 이미지 데이터를 검색하는 단계;
    상기 채팅 영역 내에서 상기 사용자 인터페이스를 통해 선택된 영역의 위치 정보를 검출하는 단계;
    상기 검색된 이미지 데이터를 상기 검출된 위치 정보에 대응하는 영역에 표시하는 단계; 및
    상기 표시된 텍스트가 상기 채팅 영역 내에서 위치 이동할 경우, 상기 표시된 이미지 데이터도 상기 채팅 영역 내에서 위치 이동시키는 단계를 포함하는 이미지 표시 방법.
  15. 제 14 항에 있어서,
    상기 사용자 인터페이스를 통해 상기 이미지 데이터가 표시된 영역에 대한 선택을 입력받는 경우, 상기 표시된 이미지 데이터를 미표시시키는 단계;
    외부 이미지 데이터가 수신된 것을 알리는 알림 메시지를 상기 디바이스의 디스플레이에 표시하는 단계; 및
    상기 이미지 데이터에 관한 적어도 하나 이상의 결제 프로세스를 수행하는 단계를 더 포함하는 이미지 표시 방법.
  16. 채팅 데이터를 관리하는 서버에 있어서,
    네트워크를 통해 연결된 복수의 디바이스 중 제 1 디바이스로부터 텍스트를 수신하고, 수신된 텍스트를 제 2 디바이스로 전송하는 텍스트 관리부;
    상기 제 1 디바이스로부터 이미지 데이터에 대한 정보를 수신하고, 수신된 이미지 데이터에 대한 정보를 상기 제 2 디바이스로 전송하는 이미지 데이터 관리부; 및
    상기 제 1 디바이스로부터 상기 이미지 데이터와 연관된 위치 정보를 수신하고, 수신된 위치 정보를 상기 제 2 디바이스로 전송하는 위치 정보 관리부를 포함하되,
    상기 이미지 데이터는 상기 제 2 디바이스의 채팅 영역 중 상기 위치 정보에 대응하는 영역에 표시되는 것인 채팅 데이터 관리 서버.
PCT/KR2013/009392 2012-10-22 2013-10-21 채팅 영역에 이미지를 표시하는 디바이스 및 방법, 그리고 채팅 데이터를 관리하는 서버 WO2014065551A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015539499A JP6095790B2 (ja) 2012-10-22 2013-10-21 チャット領域にイメージを表示するデバイス及び方法、そしてチャットデータを管理するサーバ
US14/437,005 US9847955B2 (en) 2012-10-22 2013-10-21 Device and method for displaying image in chatting area and server for managing chatting data
US15/811,833 US10666586B2 (en) 2012-10-22 2017-11-14 Device and method for displaying image in chatting area and server for managing chatting data

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2012-0117286 2012-10-22
KR1020120117286A KR101390228B1 (ko) 2012-10-22 2012-10-22 채팅 영역에 이미지를 표시하는 디바이스 및 방법, 그리고 채팅 데이터를 관리하는 서버

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US14/437,005 A-371-Of-International US9847955B2 (en) 2012-10-22 2013-10-21 Device and method for displaying image in chatting area and server for managing chatting data
US15/811,833 Continuation US10666586B2 (en) 2012-10-22 2017-11-14 Device and method for displaying image in chatting area and server for managing chatting data

Publications (1)

Publication Number Publication Date
WO2014065551A1 true WO2014065551A1 (ko) 2014-05-01

Family

ID=50544880

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2013/009392 WO2014065551A1 (ko) 2012-10-22 2013-10-21 채팅 영역에 이미지를 표시하는 디바이스 및 방법, 그리고 채팅 데이터를 관리하는 서버

Country Status (4)

Country Link
US (2) US9847955B2 (ko)
JP (1) JP6095790B2 (ko)
KR (1) KR101390228B1 (ko)
WO (1) WO2014065551A1 (ko)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI439960B (zh) 2010-04-07 2014-06-01 Apple Inc 虛擬使用者編輯環境
KR101390228B1 (ko) * 2012-10-22 2014-05-07 (주)카카오 채팅 영역에 이미지를 표시하는 디바이스 및 방법, 그리고 채팅 데이터를 관리하는 서버
KR102057944B1 (ko) * 2013-09-17 2019-12-23 삼성전자주식회사 단말 장치 및 그의 공유 방법
KR102138515B1 (ko) * 2013-10-01 2020-07-28 엘지전자 주식회사 이동단말기 및 그 제어방법
JP6672588B2 (ja) * 2014-02-19 2020-03-25 株式会社リコー 伝送システム、方法、プログラム及びシステム
KR102387268B1 (ko) * 2014-09-12 2022-04-15 에스케이플래닛 주식회사 말풍선 효과를 제공하는 메시징 서비스 제공 방법, 이를 위한 프로그램을 기록한 기록 매체 및 단말
TWI525462B (zh) * 2014-12-25 2016-03-11 Yu-Wei Huang Message graphic display method
CN105955808B (zh) * 2016-04-21 2018-12-11 北京小米移动软件有限公司 即时通信应用的任务管理方法及装置
CN111176509B (zh) * 2016-05-18 2022-01-25 苹果公司 在图形消息传送用户界面中应用确认选项
US11320982B2 (en) 2016-05-18 2022-05-03 Apple Inc. Devices, methods, and graphical user interfaces for messaging
US10368208B2 (en) 2016-06-12 2019-07-30 Apple Inc. Layers in messaging applications
US10595169B2 (en) * 2016-06-12 2020-03-17 Apple Inc. Message extension app store
AU2017100670C4 (en) 2016-06-12 2019-11-21 Apple Inc. User interfaces for retrieving contextually relevant media content
WO2018032271A1 (zh) * 2016-08-15 2018-02-22 北京小米移动软件有限公司 信息搜索方法、装置、电子设备及服务器
WO2018038277A1 (ko) * 2016-08-22 2018-03-01 스노우 주식회사 대화방을 통해 각 사용자의 상태를 반영한 화상 데이터를 공유하는 메시지 공유 방법메시지 공유 방법 및 상기 방법을 실행시키기 위한 컴퓨터 프로그램
CN117193618A (zh) * 2016-09-23 2023-12-08 苹果公司 头像创建和编辑
US10404640B2 (en) 2017-07-14 2019-09-03 Casey Golden Systems and methods for providing online chat-messages with configurable, interactive imagery
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
DK180212B1 (en) 2018-05-07 2020-08-19 Apple Inc USER INTERFACE FOR CREATING AVATAR
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
US11107261B2 (en) 2019-01-18 2021-08-31 Apple Inc. Virtual avatar animation based on facial feature movement
DK202070625A1 (en) 2020-05-11 2022-01-04 Apple Inc User interfaces related to time
US11921998B2 (en) 2020-05-11 2024-03-05 Apple Inc. Editing features of an avatar
US11657058B2 (en) * 2020-07-15 2023-05-23 Citrix Systems, Inc. Systems and methods of enhancing mental health and performance
CN112163398A (zh) * 2020-09-30 2021-01-01 金蝶软件(中国)有限公司 一种图表分享方法及其相关设备
US11714536B2 (en) 2021-05-21 2023-08-01 Apple Inc. Avatar sticker editor user interfaces
US11776190B2 (en) 2021-06-04 2023-10-03 Apple Inc. Techniques for managing an avatar on a lock screen

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040046272A (ko) * 2002-11-26 2004-06-05 엔에이치엔(주) 사용자 정의 이모티콘 이미지를 이용한 컴퓨터 네트워크상에서의 데이터 전송 서비스 제공방법 및 그를 구현하기위한 응용 프로그램을 기록한 컴퓨터가 읽을 수 있는기록매체
KR20070112515A (ko) * 2006-05-22 2007-11-27 (주)케이티에프테크놀로지스 휴대용 단말기의 특수문자 자동 완성 방법
KR20110037040A (ko) * 2009-10-05 2011-04-13 삼성전자주식회사 휴대 단말기 및 그의 화면 표시 방법

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001117849A (ja) 1999-10-18 2001-04-27 Sons Ltd チャットシステム、チャット支援方法およびそれを記録した媒体
JP3930489B2 (ja) * 2004-03-31 2007-06-13 株式会社コナミデジタルエンタテインメント チャットシステム、通信装置、その制御方法及びプログラム
GB0428049D0 (en) * 2004-12-22 2005-01-26 Carnall Murat Improvements to call management in a telecommunications system
WO2008059594A1 (fr) 2006-11-17 2008-05-22 Osaka Electro-Communication University Dispositif de support de composition musicale, et système de support de composition musicale
US7756536B2 (en) * 2007-01-31 2010-07-13 Sony Ericsson Mobile Communications Ab Device and method for providing and displaying animated SMS messages
US7912289B2 (en) * 2007-05-01 2011-03-22 Microsoft Corporation Image text replacement
US8930463B2 (en) * 2007-07-09 2015-01-06 Yahoo! Inc. Super-emoticons
US20090094555A1 (en) * 2007-10-05 2009-04-09 Nokia Corporation Adaptive user interface elements on display devices
KR101505688B1 (ko) * 2008-10-23 2015-03-24 엘지전자 주식회사 이동 단말기 및 그 정보 처리 방법
US8584031B2 (en) 2008-11-19 2013-11-12 Apple Inc. Portable touch screen device, method, and graphical user interface for using emoji characters
US20100185949A1 (en) * 2008-12-09 2010-07-22 Denny Jaeger Method for using gesture objects for computer control
US9130779B2 (en) * 2009-06-02 2015-09-08 Qualcomm Incorporated Method and apparatus for providing enhanced SMS/EMS/MMS
WO2011085248A1 (en) * 2010-01-07 2011-07-14 Swakker, Llc Methods and apparatus for modifying a multimedia object within an instant messaging session at a mobile communication device
KR20130009392A (ko) 2011-07-15 2013-01-23 삼성전자주식회사 컨트롤러의 동작 방법과 상기 컨트롤러를 포함하는 메모리 시스템
US9495661B2 (en) * 2011-09-26 2016-11-15 Sparxo, Inc Embeddable context sensitive chat system
US9152219B2 (en) * 2012-06-18 2015-10-06 Microsoft Technology Licensing, Llc Creation and context-aware presentation of customized emoticon item sets
KR101390228B1 (ko) * 2012-10-22 2014-05-07 (주)카카오 채팅 영역에 이미지를 표시하는 디바이스 및 방법, 그리고 채팅 데이터를 관리하는 서버

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040046272A (ko) * 2002-11-26 2004-06-05 엔에이치엔(주) 사용자 정의 이모티콘 이미지를 이용한 컴퓨터 네트워크상에서의 데이터 전송 서비스 제공방법 및 그를 구현하기위한 응용 프로그램을 기록한 컴퓨터가 읽을 수 있는기록매체
KR20070112515A (ko) * 2006-05-22 2007-11-27 (주)케이티에프테크놀로지스 휴대용 단말기의 특수문자 자동 완성 방법
KR20110037040A (ko) * 2009-10-05 2011-04-13 삼성전자주식회사 휴대 단말기 및 그의 화면 표시 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"[Android / messenger / SNS] line (Line) - Naver created a new smart phone messenger", NAVER BLOG, 22 January 2012 (2012-01-22) *

Also Published As

Publication number Publication date
US9847955B2 (en) 2017-12-19
JP2016502174A (ja) 2016-01-21
JP6095790B2 (ja) 2017-03-15
US20150281145A1 (en) 2015-10-01
US10666586B2 (en) 2020-05-26
US20180069814A1 (en) 2018-03-08
KR101390228B1 (ko) 2014-05-07

Similar Documents

Publication Publication Date Title
WO2014065551A1 (ko) 채팅 영역에 이미지를 표시하는 디바이스 및 방법, 그리고 채팅 데이터를 관리하는 서버
WO2020067585A1 (ko) 메신저 어플리케이션과 연관된 대화방을 디스플레이하는 방법 및 장치
CN109725975B (zh) 消息被读状态的提示方法、装置和电子设备
US10153995B2 (en) Method and apparatus for effecting web page access in a plurality of media applications
WO2017135797A2 (en) Method and electronic device for managing operation of applications
WO2013168885A1 (ko) 락 스크린의 제공 방법 및 그 제공 방법이 구현된 단말 장치
WO2013032236A2 (en) Method and apparatus for managing schedules in a portable terminal
WO2016148525A1 (ko) 이모티콘 탐색 방법 및 단말
WO2019117642A1 (ko) 사회적 네트워크 관리를 지원하는 서버 및 사용자 단말
WO2015183045A1 (ko) 채팅 메시지를 태깅하는 방법 및 디바이스
WO2016129811A1 (ko) 인스턴트 메시징 서비스에서 공식계정의 리치 메뉴를 제공하는 방법과 시스템 및 기록 매체
CN113591439B (zh) 一种信息交互方法、装置、电子设备及存储介质
WO2015133777A1 (ko) 소셜 네트워크 서비스 제공 방법 및 장치
CN114491349B (zh) 页面显示方法、装置、电子设备、存储介质和程序产品
CN111183441A (zh) 信息处理方法、信息处理装置及信息处理程序
CN111651110A (zh) 群聊消息显示方法、装置、电子设备及存储介质
CN113918055A (zh) 消息处理方法、装置和电子设备
US20170351650A1 (en) Digital conversation annotation
CN111897475A (zh) 消息查看方法及装置
WO2017175950A1 (ko) 사회적 네트워크 관리를 지원하는 서버 및 사용자 단말
CN115022272A (zh) 信息处理方法、装置、电子设备和存储介质
WO2019107799A1 (ko) 입력 필드의 이동 방법 및 장치
CN113885746A (zh) 消息发送方法、装置及电子设备
WO2014171613A1 (ko) 메시징 서비스 제공 방법, 이를 위한 프로그램을 기록한 기록 매체 및 단말
CN111368329A (zh) 消息展示方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13849932

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14437005

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2015539499

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13849932

Country of ref document: EP

Kind code of ref document: A1