WO2018038277A1 - 대화방을 통해 각 사용자의 상태를 반영한 화상 데이터를 공유하는 메시지 공유 방법메시지 공유 방법 및 상기 방법을 실행시키기 위한 컴퓨터 프로그램 - Google Patents

대화방을 통해 각 사용자의 상태를 반영한 화상 데이터를 공유하는 메시지 공유 방법메시지 공유 방법 및 상기 방법을 실행시키기 위한 컴퓨터 프로그램 Download PDF

Info

Publication number
WO2018038277A1
WO2018038277A1 PCT/KR2016/009218 KR2016009218W WO2018038277A1 WO 2018038277 A1 WO2018038277 A1 WO 2018038277A1 KR 2016009218 W KR2016009218 W KR 2016009218W WO 2018038277 A1 WO2018038277 A1 WO 2018038277A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
text
user
message
sharing
Prior art date
Application number
PCT/KR2016/009218
Other languages
English (en)
French (fr)
Inventor
전상철
정창영
김영훈
Original Assignee
스노우 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 스노우 주식회사 filed Critical 스노우 주식회사
Priority to PCT/KR2016/009218 priority Critical patent/WO2018038277A1/ko
Priority to JP2019510910A priority patent/JP6727413B2/ja
Priority to CN201680088655.6A priority patent/CN109716712A/zh
Priority to CN202211263165.9A priority patent/CN115766636A/zh
Priority to KR1020197004928A priority patent/KR102165271B1/ko
Publication of WO2018038277A1 publication Critical patent/WO2018038277A1/ko
Priority to US16/283,052 priority patent/US11025571B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • G06F40/109Font handling; Temporal or kinetic typography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • H04L51/046Interoperability with other network applications or services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/21Monitoring or handling of messages
    • H04L51/222Monitoring or handling of messages using geographical location information, e.g. messages transmitted or received in proximity of a certain spot or area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Definitions

  • the present invention relates to a message sharing message sharing method for sharing image data reflecting the state of each user via a chat room, and a computer program for executing the method.
  • Chat system is a system that communicates by sending and receiving video and messages using their respective terminals. Conventional users have been able to share text or image data input through each user terminal in a chat room.
  • the present invention extracts an object related to a user's emotion, location or surroundings in consideration of text input by a user, image data captured by a camera, and the like, and generates a message data in which the object is appropriately combined.
  • a method and a computer program can be provided.
  • the present invention can provide a message sharing method and computer program for controlling the generated image data and the text to be shared through a chat room.
  • a computer program according to an embodiment of the present invention may be stored in a medium to execute any one of the message sharing methods according to an embodiment of the present invention using a computer.
  • a computer readable recording medium for recording another method for implementing the present invention, another system, and a computer program for executing the method.
  • Message sharing method and computer program extracts an object related to the user's emotion, location or surroundings in consideration of text input by the user, image data taken by the camera, and the like, the object Can generate appropriately combined image data.
  • the message sharing method and the computer program according to the embodiments of the present invention can control to share the composite message through the chat room.
  • FIG. 1 is a block diagram showing the structure of a user terminal according to embodiments of the present invention.
  • FIG. 2 is a view showing the structure of a chat system according to embodiments of the present invention.
  • 4 through 8 are diagrams for describing examples of image data converted by the message sharing method and the generated composite messages.
  • 9 through 10 are flowcharts of message sharing methods according to embodiments of the present invention.
  • circuit refers to, alone or in any combination, hardwired circuitry, programmable circuitry, state machine circuitry, and / or firmware that stores instructions executed by, for example, programmable circuitry. It may include.
  • the application may be implemented as code or instructions that may be executed on programmable circuitry, such as a host processor or other programmable circuitry.
  • a module may be implemented as a circuit.
  • the circuit can be implemented as an integrated circuit, such as an integrated circuit chip.
  • FIG. 1 is a view showing a user terminal 100 according to an embodiment of the present invention.
  • a user terminal 100 may include a camera 110, an input unit 120, an output unit 130, a sensor unit 140, a processor 150, and a storage medium 160. ) May be included.
  • the camera 110 may obtain an image frame such as a still image or a moving image through an image sensor in a video call mode or a photographing mode.
  • the image captured by the image sensor may be processed by the processor 150 or a separate image processor (not shown).
  • the image frame processed by the camera 110 may be stored in the storage medium 160 or transmitted to the outside. Two or more cameras 110 may be provided according to the configuration of the terminal.
  • the camera 110 may further include a microphone that also receives an external sound signal and processes it into electrical voice data.
  • the microphone may use various noise reduction algorithms to remove noise generated while receiving an external sound signal.
  • the input unit 120 means a means for a user to input data for controlling the user terminal 100.
  • the user input unit 150 includes a key pad, a dome switch, a touch pad (contact capacitive type, pressure resistive type, infrared sensing type, surface ultrasonic conduction type, and integral type). Tension measurement method, piezo effect method, etc.), a jog wheel, a jog switch, and the like, but are not limited thereto.
  • the output unit 130 outputs the information processed or generated in the user terminal 100.
  • the output unit 130 may output a user interface provided when the game application is executed.
  • the output unit 130 and the touch pad form a layer structure and constitute a touch screen
  • the output unit 130 may be used as an input device in addition to the output device.
  • the output unit 130 may be a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, or a three-dimensional display. 3D display, an electrophoretic display.
  • the device 100 may include two or more display units 131 according to the implementation form of the device 100. In this case, the two or more display units 131 may be disposed to face each other using a hinge.
  • the sensor unit 140 may include a GPS sensor that calculates a geographical position of the user terminal 100 using satellite communication.
  • the processor 150 typically controls the overall operation of the user terminal 100.
  • the processor 150 may generally control the camera 110, the inputter 120, the outputter 130, the sensor 140, and the like through instructions stored in the storage medium 160.
  • the processor 150 may include any kind of device capable of processing data, such as a processor.
  • the 'processor' may refer to a data processing apparatus embedded in hardware having, for example, a circuit physically structured to perform a function represented by code or instructions included in a program.
  • a data processing device embedded in hardware, a microprocessor, a central processing unit (CPU), a processor core, a multiprocessor, and an application-specific integrated device (ASIC) It may include a processing device such as a circuit, a field programmable gate array (FPGA), etc., but the scope of the present invention is not limited thereto.
  • the storage medium 160 may store various data and software used during the operation of the user terminal 100, such as an operating system, an application, a program, a library, and a driver.
  • the storage medium 160 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), Random Access Memory (RAM) Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM), Magnetic Memory, Magnetic It may include a storage medium of at least one type of disk, optical disk.
  • the user terminal 100 may operate a web storage or a cloud server that performs a storage function of the storage medium 160 on the Internet.
  • Programs stored in the storage medium 160 may be classified into a plurality of modules according to their functions.
  • the programs may be classified into a UI module, a touch screen module, a notification module, and the like.
  • the image receiver 161 receives image data generated by the camera 110.
  • the image receiver 161 captures image data for a preset time on the basis of a time point at which transmission is input through the input unit 120.
  • the text receiver 162 receives the text input through the input unit 120.
  • the object extracting unit 163 analyzes the image data and the text, analyzes the text, uses the at least one of a result of analyzing the image data and a sensing value obtained from the sensor unit 140.
  • the object refers to sensory data such as visual data or audio data, and may further include an effect of modifying a basic image such as animation effects.
  • the object extractor 163 may extract the first object related to the user using the result of analyzing the text. More specifically, the text input by the user may be analyzed using a natural language processing method, and an object related to the user may be extracted using the analyzed result.
  • the object extractor 163 separates the text input by the user into morpheme units, extracts adjectives representing the emotions of the user from the text, and has the emotions of the user based on the extracted adjectives. You can extract objects related to. For example, when the text input by the user includes the adjective 'sad', the object extractor 163 may extract an image corresponding to the sad emotion of the user as an object. In addition, the object extractor 163 may be divided into morpheme units, extract a verb corresponding to the current behavior of the user from the text, and extract an object related to the current behavior of the user based on the extracted verb. have.
  • the object extractor 163 may extract the theater image as an object related to the user's action.
  • the object extractor 163 separates the text input by the user into morpheme units, extracts an adverb indicating a location where the user is located among the text, and extracts an object related to the location where the user is located based on the adverb. can do.
  • the object extractor 163 may analyze image data photographed through a camera and extract an object related to the user by using the result of analyzing the image data. More specifically, the object extractor 163 determines an area corresponding to a user currently present in image data captured by the camera as an analysis area, extracts an edge or a feature point included in the analysis area, and A facial expression of a person included in the analysis region may be determined based on an edge or a feature point, and an object corresponding to the facial expression may be extracted. For example, when the image data photographed through the camera includes a person with an angry expression, the object extractor 163 may extract an image corresponding to 'angry' from the image data as an object.
  • the object extractor 163 determines an area corresponding to the user present in the image data currently captured by the camera as the analysis area, extracts an edge or a feature point included in the analysis area, and extracts the edge or feature point. Further text may be extracted from the image data by analyzing the mouth shape of the person included in the analysis region on the basis of. The object extractor 163 may generate an image corresponding to the additional text as a second object.
  • the object extractor 163 extracts a face region corresponding to a human face included in the image data by using a face recognition algorithm, and corresponds to the face region to form a first object or a first object related to the user. 2 You can place objects.
  • the object extractor 163 may extract an object related to the user in consideration of the position of the user acquired by the sensor unit. For example, when the location of the user acquired by the sensor unit is 'Paris', the object extractor 163 may extract the Eiffel tower, which is a representative building corresponding to the 'Paris', as an object related to the user. . In this case, the object extractor 163 may extract a representative building corresponding to the location of the user, the location itself, a background around the location, and the like as an object related to the user.
  • the object extractor 163 may extract an object related to the user in consideration of weather information obtained through another application (search, portal, weather notification, etc.) mounted in the user terminal or obtained through the sensor unit. For example, when the current weather is 'cloudy', the object extractor 163 may extract an image, such as a cloud or a gray sky, corresponding to the 'cloudy' as an object.
  • another application search, portal, weather notification, etc.
  • the object extractor 163 may extract an image, such as a cloud or a gray sky, corresponding to the 'cloudy' as an object.
  • the object extractor 163 may determine a season at the current time point by using date and time information, and extract an image according to the season as an object.
  • the date and time information may be obtained through the base station, the Internet network, or measured based on information input by the user.
  • the object extracting unit 163 may extract an image of sprouting in response to spring as an object, and extract an image of a beach, a bikini, or the like as an object in response to the summer, and in response to autumn, the image of the autumn leaves may be extracted. It can be extracted as an object, and images such as snow or snowman can be extracted as objects in response to winter.
  • the object extractor 163 may determine a season at the current time point by using date and time information, and extract an image according to the season as an object.
  • the object extractor 163 may extract an image of a tree, Santa Claus, or the like corresponding to Christmas as the season as an object. If the current view is a duplicate, the object extractor 163 may extract an image such as 'samgyetang', 'air conditioner', 'water play', 'beach', etc. corresponding to the 'duplicate' season. .
  • the object extracted by the object extractor 163 may be two-dimensional data, or may be three-dimensional data changed over time.
  • the object extractor 163 may add animation effects to the extracted object.
  • the object extractor 163 may add an animation effect of turning the fan blades to the fan.
  • the object extractor 163 may add a tear effect or a raining animation effect to express a rainy weather in order to express a sad person.
  • the object extractor 163 may add an effect of gradually increasing the firecrackers to express the firecrackers.
  • the content generator 164 may edit the image data to further include the extracted object. More specifically, the content generator 164 may determine a display position of each object so that the extracted object is properly represented. The content generation unit 164 may determine the position of the extracted object in consideration of the human face in the image data in relation to the shy image, the angry image, and the like, which should be properly displayed on the human face. In addition, the content generation unit 164 may edit the image data to display the extracted object on the background of the image data. For example, the content generation unit 164 may include the text obtained from the image data in the image data, and change the image data to be expressed in such a way that the text is ejected from the mouth of a person. The content generator 164 may allow the extracted “angry” image to exist above the head of a person. The content generator 164 may change the image data so that the extracted “tear” image flows through the human eye.
  • the content generation unit 164 may convert the image data into thumbnails. In this case, the content generation unit 164 may convert the image data into thumbnails according to the profile format of the user. The content generating unit 164 may convert the size (resolution) of the image data or delete a part of the image data according to the profile format. In addition, the content generator 164 may reduce the size of the image data by lowering the resolution of the image data according to the profile format.
  • the profile refers to user related information displayed together with the message provided in the chat room.
  • the content generator 164 may generate a composite message combining the converted image data and the text.
  • the content generating unit 164 analyzes the image data and the text, analyzes the image data, analyzes the text, and considers at least one of the sensing values. You can convert it to an image.
  • the content generator 164 may change the font type, the font size, and the font color of the text, but may express the text as an image. That is, the content generator 164 may generate a complex message combining the converted image data and the text converted into the image.
  • the content generator 164 not only provides the text input by the user, but also generates a composite message combining the currently photographed image data including an object reflecting the user's emotion, location or current weather, season, season, and the like.
  • the user terminal 100 may provide a complex message visualizing information such as the emotion, location, and weather of the user, and acquire additional information related to the user without recognizing the text. can do.
  • the content generation unit 164 may change the font, font size, text color, etc. for representing the text even when providing the text.
  • the content generation unit 164 may be configured to display morphemes included in the text with different fonts, font sizes, and text colors, even for one text.
  • the content generating unit 164 may also display a text display method in two dimensions, and may include an animation effect in which text is generated from a mouth of a person included in image data.
  • an animation effect provided with text may be an effect flying from the left or the right, an effect flying from the top or the bottom.
  • the content provider 165 may provide the converted image data and the text to be shared with other users through a chat room.
  • the content provider 165 provides the generated composite message to be shared with other users through a chat room.
  • the content provider 165 provides the composite message through a chat room that can exchange messages between a plurality of users.
  • the size of the compound message may vary depending on the input image data, text or extracted object.
  • the content providing unit 165 provides the animation effect included in the composite message only for a preset default time, for example, 15 minutes after the first providing, and after 15 minutes, without the animation effect included in the composite message.
  • Compound messages can be provided two-dimensionally.
  • the generated composite message may be set as a profile picture of each user, and more specifically, may function temporarily as a profile only in the corresponding chat room.
  • the user terminal 100 may extract an object from the input text or image data to more visually express the emotion, mood, state, etc. to be delivered by the user.
  • the user terminal 100 according to the embodiments of the present invention may receive a user's selection of an object to be added to image data shared through a chat room.
  • the user terminal 100 according to the embodiments of the present invention may share data other than text through a chat room, and in particular, converts data corresponding to a plurality of input data types into a single content. Can be provided.
  • the user terminal 100 may select from among a plurality of pre-stored objects an object that may further maximize the feeling of “I love you” in response to the “I love you” input by the user.
  • the user terminal 100 arranges the messages shared in the chat room in a time series and generates one data, so that the object or compound added to the image data even after a long time has passed since the input of each message.
  • Messages can convey different states (location, time, weather, emotions, etc.) at the time the message is entered. That is, the user terminal 100 may further transmit a location where each user is located, weather at the time when each message is input, time at which each message is input, or the like through an object or a compound message.
  • FIG. 2 is a view showing the structure of a chat system according to embodiments of the present invention.
  • the user may access the chat server 200 through the user terminals 100, 101, and 102.
  • the user terminal 100 may download a chat application provided by the chat server 200.
  • the user terminal 100 may transmit usage information of at least one other application mounted to the chat server 200.
  • the plurality of user terminals 100 refers to a communication terminal capable of using a web service in a wired / wireless communication environment.
  • the user terminal 100 may be a personal computer 101 of the user, or may be a portable terminal 102 of the user.
  • the portable terminal 102 is illustrated as a smart phone, but the spirit of the present invention is not limited thereto.
  • a terminal equipped with an application capable of web browsing may be used without limitation.
  • the user terminal 100 may include a computer (eg, desktop, laptop, tablet, etc.), a media computing platform (eg, cable, satellite set-top box, digital video recorder), a handheld computing device ( PDAs, email clients, etc.), any form of cell phone, or any other type of computing or communication platform, but the invention is not so limited.
  • a computer eg, desktop, laptop, tablet, etc.
  • a media computing platform eg, cable, satellite set-top box, digital video recorder
  • any form of cell phone e.g., any other type of computing or communication platform, but the invention is not so limited.
  • the chat server 200 may provide a general chat service.
  • the chat server 200 may create and remove a chat room according to a request received from a user.
  • the chat server 200 may receive a compound message generated by the first user terminal and provide the compound message to other user terminals included in the chat room.
  • the communication network 300 connects the plurality of user terminals 100 and the chat server 200. That is, the communication network 300 refers to a communication network that provides a connection path for transmitting and receiving data after the user terminals 100 access the chat server 200.
  • the communication network 300 may be, for example, wired networks such as local area networks (LANs), wide area networks (WANs), metropolitan area networks (MANs), integrated service digital networks (ISDNs), wireless LANs, CDMA, Bluetooth, satellite communications, and the like. Although it may encompass a wireless network, the scope of the present invention is not limited thereto.
  • FIG 3 is a view for explaining a user interface of a chat room provided to a user terminal.
  • the user interface of the chat room provided to the user terminal may include a first area A1 for providing a message exchanged through the chat room and a second area A2 for providing text and image data acquired through the user terminal in advance. have.
  • the first area A1 is generally arranged in chronological order. When a new message is input, a new message is added at the bottom, and thus the message located at the top may be out of the display area.
  • the first area A1 may be provided with a message along with profile information of a user who inputs the message.
  • the user terminal 100 may display image data S1 captured by the camera in a part of the second area A2 instead of the user's profile information.
  • the user terminal 100 may display the text S2 input by the user in the remaining area of the second area A2.
  • image data including text and extracted objects may be provided as a separate region in the lowermost region S3 of the first region A1.
  • a compound message combining text data input by a user and image data including an extracted object may be provided in the lowermost area S3 of the first area A1.
  • a single message combining the image data, the text, the image data and the object extracted through the text may be provided in one area without distinguishing the image data and the area displaying the text. do.
  • the area S3 in which the message is displayed may also be provided as separate areas of image data and text.
  • the area provided to the chat room may be represented as data input by the user as a whole.
  • the sender of each message can be more easily recognized.
  • 4 through 8 are diagrams for describing examples of image data converted by the message sharing method and the generated composite messages.
  • the input text may be included in a speech bubble connected to a person included in image data.
  • FIG. 4 illustrates an example of extracting an object based on location information of a user terminal and generating image data or a composite message including the object.
  • the location of the user terminal is' fly '
  • the image data can be converted as shown in FIG.
  • the location of the user terminal is 'Paris', as shown in FIG. Can be generated.
  • the object may be extracted based on the location information of the user terminal.
  • the extracted object is represented together with the image data photographed at the present time.
  • the compound message may be converted into text and provided with an image. As shown in FIG. 4C, the compound message may further include text represented by a speech bubble.
  • FIG. 5 illustrates an example of extracting an object based on weather information determined by a user terminal and generating image data or a composite message including the object.
  • the weather information retrieved based on a location and a current time of the user terminal In the case of 'rain', image data may be generated as shown in FIG. 4B including the 'rainy background' in order to more easily recognize the obtained weather.
  • a composite message may be generated as shown in FIG. 4 (c) including 'rainy background' in order to more easily recognize the acquired weather. have.
  • FIG. 6 illustrates an example of generating a compound message including an object related to a user's emotion extracted from text input by a user, and reflecting image data or a compound message by reflecting 'per hungry' input by the user. Can be generated. Specifically, a person and a face shape included in the image data photographed according to the input text 'hunger' as shown in FIG. 6 (b) may further include an image representing the hunger and an emoticon.
  • the user terminal 100 may analyze the text 'not too much' by the user and determine the user's emotion as 'angry' through the context of the text.
  • the image data or the composite message may include an image corresponding to 'angry' on the person shape of the image data.
  • the compound message may change the display method of the input text, that is, change the characters of the text larger and thicker, and change the shape of the speech bubble as shown in FIG. 7 (c) according to the user's emotion. have.
  • the speech balloon may have a jagged shape in correspondence with the user's 'angry'.
  • the message sharing method may include adding an image expressing the emotion in relation to the emotion of the user acquired through text or image data, changing a font corresponding to the emotion, and ancillary animation. The effect can be reflected.
  • the image data or the composite message may further include a tree image related to the season, and the user's clothes may be added to the image data.
  • the tuxedos can be overlapped, taking into account the entered text. That is, when the input text is a date application, the user's clothes may be changed to a tuxedo corresponding thereto.
  • FIG. 9 is a flowchart of a message sharing method according to embodiments of the present invention.
  • the message sharing method may include image data receiving step S110, text receiving step S120, sensing value receiving step S130, object extracting step S140, and image data. It may include an editing step (S150).
  • the user terminal 100 receives image data photographed through a camera. According to the input by the user, image data is taken for a preset time, for example, for 2 seconds. In S120, the user terminal 100 receives text input through an input unit. In S130, the user terminal 100 may receive a sensing value of the user's location, the surrounding weather, time, etc. through the sensor unit.
  • the user terminal 100 analyzes the text and the image data, and analyzes the text, using the at least one of a result of analyzing the image data and a sensing value obtained from the sensor unit.
  • the related, first object may be extracted. Since the operation of S140 is the same as the operation of the object extraction unit 163, detailed description thereof will be omitted.
  • the user terminal 100 may edit the image data to further include the extracted object.
  • the user terminal 100 may determine a display position of each object so that the extracted object is properly represented.
  • the user terminal 100 may determine the location of the extracted object in consideration of the human face in the image data in relation to the shy image, the angry image, and the like, which should be properly displayed on the face of the person.
  • the user terminal 100 may edit the image data to display the extracted object on the background of the image data.
  • the user terminal 100 edits the image data so that the first object is represented at the determined position.
  • the user terminal 100 may convert the edited image data into thumbnails.
  • the thumbnail may be set to each user's profile. Converting to thumbnail refers to changing the size of the edited image data, removing a part of the image data, or reducing the capacity of the image data.
  • a message sharing method may include image data receiving step S210, text receiving step S220, sensing value receiving step S230, object extracting step S240, and image data. It may include an editing step (S250), a compound message generation step (S260).
  • the user terminal 100 receives image data photographed through a camera. According to the input by the user, image data is taken for a preset time, for example, for 2 seconds. In S220, the user terminal 100 receives the text input through the input unit. In S230, the user terminal 100 may receive a sensing value of the user's location, the surrounding weather, time, etc. through the sensor unit.
  • the user terminal 100 analyzes the text and the image data, and analyzes the text, using the at least one of a result of analyzing the image data and a sensing value obtained from the sensor unit.
  • the related, first object may be extracted. Since the operation of S240 is the same as the operation of the object extraction unit 163, detailed description thereof will be omitted.
  • the user terminal 100 may edit the image data to further include the extracted object.
  • the user terminal 100 may determine a display position of each object so that the extracted object is properly represented.
  • the user terminal 100 may determine the location of the extracted object in consideration of the human face in the image data in relation to the shy image, the angry image, and the like, which should be properly displayed on the face of the person.
  • the user terminal 100 may edit the image data to display the extracted object on the background of the image data.
  • the user terminal 100 edits the image data so that the first object is represented at the determined position.
  • the user terminal 100 may convert the edited image data into thumbnails.
  • the user terminal 100 may generate the converted image data and the text as one compound message.
  • the user terminal 100 may convert the text into an image.
  • the composite message may include the converted image data and the text converted into the image.
  • Embodiments according to the present invention described above may be implemented in the form of a computer program that can be executed through various components on a computer, such a computer program may be recorded on a computer readable medium.
  • the media may be magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, and ROMs.
  • Hardware devices specifically configured to store and execute program instructions such as memory, RAM, flash memory, and the like.
  • the medium may include an intangible medium implemented in a form that can be transmitted on a network.
  • the medium may be a form of a software or an application that can be transmitted and distributed through a network.
  • the computer program may be specially designed and configured for the present invention, or may be known and available to those skilled in the computer software field.
  • Examples of computer programs may include not only machine code generated by a compiler, but also high-level language code executable by a computer using an interpreter or the like.
  • connection or connection members of the lines between the components shown in the drawings by way of example shows a functional connection and / or physical or circuit connections, in the actual device replaceable or additional various functional connections, physical It may be represented as a connection, or circuit connections.
  • such as "essential”, “important” may not be a necessary component for the application of the present invention.

Abstract

본 실시예에 따르면, 촬상부, 입력부, 센서부, 및 프로세서를 포함하는 컴퓨터를 이용하여, 상기 촬상부를 통해 촬영된 화상 데이터를 수신하는 단계; 상기 입력부를 통해 사용자에 의해 입력된 텍스트를 수신하는 단계; 상기 프로세서가 상기 텍스트 및 상기 화상 데이터를 분석하고, 상기 텍스트를 분석한 결과, 상기 화상 데이터를 분석한 결과 및 상기 센서부로부터 획득된 센싱값 중 적어도 하나를 이용하여 상기 사용자와 관련된, 제1 객체를 추출하는 단계; 상기 추출된 제1 객체를 더 포함하도록 상기 화상 데이터를 편집하고, 상기 편집한 화상 데이터를 썸네일로 변환하는 단계; 상기 변환된 화상 데이터 및 상기 텍스트를 대화방을 통해 다른 사용자와 공유하는 단계;를 포함하는 메시지 공유 방법을 실행시키기 위하여 컴퓨터 판독 가능한 매체에 저장된 컴퓨터 프로그램이 개시된다.

Description

대화방을 통해 각 사용자의 상태를 반영한 화상 데이터를 공유하는 메시지 공유 방법메시지 공유 방법 및 상기 방법을 실행시키기 위한 컴퓨터 프로그램
본 발명은 대화방을 통해 각 사용자의 상태를 반영한 화상 데이터를 공유하는 메시지 공유 메시지 공유 방법 및 상기 방법을 실행시키기 위한 컴퓨터 프로그램에 관한 것이다.
채팅 시스템은 각자의 단말기를 이용하여 영상과 메시지를 주고 받아서 대화하는 시스템이다. 종래의 복수의 사용자들은 각 사용자 단말을 통해 입력된 텍스트 또는 화상 데이터를 대화방에 올려 공유할 수 있었다.
본 발명은 사용자에 의해 입력된 텍스트, 카메라에 의해 촬영된 화상 데이터 등을 고려하여 사용자의 감정, 위치 또는 주변 상황과 관련된 객체를 추출하고, 상기 객체가 적절하게 결합된 화상 데이터를 생성하는 메시지 공유 방법 및 컴퓨터 프로그램을 제공할 수 있다.
또한, 본 발명은 상기 생성된 화상 데이터 및 상기 텍스트를 대화방을 통해 공유하도록 제어하는 메시지 공유 방법 및 컴퓨터 프로그램을 제공할 수 있다.
본 발명의 실시예에 따른 컴퓨터 프로그램은 컴퓨터를 이용하여 본 발명의 실시예에 따른 메시지 공유 방법 중 어느 하나의 방법을 실행시키기 위하여 매체에 저장될 수 있다.
이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공된다.
전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해 질 것이다.
본 발명의 실시예들에 따른 메시지 공유 방법 및 컴퓨터 프로그램은 사용자에 의해 입력된 텍스트, 카메라에 의해 촬영된 화상 데이터 등을 고려하여 사용자의 감정, 위치 또는 주변 상황과 관련된 객체를 추출하고, 상기 객체가 적절하게 결합된 화상 데이터를 생성할 수 있다.
또한, 본 발명의 실시예들에 따른 메시지 공유 방법 및 컴퓨터 프로그램은 상기 복합 메시지를 상기 대화방을 통해 공유하도록 제어할 수 있다.
도 1은 본 발명의 실시예들에 따른 사용자 단말의 구조를 나타내는 블록도이다.
도 2는 본 발명의 실시예들에 따른 채팅 시스템의 구조를 나타내는 도면이다.
도 4 내지 도 8은 메시지 공유 방법에 의해 변환된 화상 데이터들 및 생성된 복합 메시지들의 예시들을 설명하기 위한 도면들이다.
도 9 내지 도 10은 본 발명의 실시예들에 따른 메시지 공유 방법들의 흐름도이다.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다.
이하의 실시예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는한, 복수의 표현을 포함한다.
이하의 실시예에서, 포함하다 또는 가지다 등의 용어는 명세서 상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징을 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다.
어떤 실시예가 달리 구현 가능한 경우에 특정한 공정 순서는 설명되는 순서와 다르게 수행될 수도 있다. 예를 들어, 연속하여 설명되는 두 공정이 실질적으로 동시에 수행될 수도 있고, 설명되는 순서와 반대의 순서로 진행될 수 있다.
이하의 실시예에서, "회로"는, 예를 들어, 프로그램가능한 회로에 의해 실행되는 인스트럭션을 저장하는 하드와이어드 회로, 프로그램가능한 회로, 상태 머신 회로, 및/또는 펌웨어를 단독으로 또는 임의의 조합으로 포함할 수 있다. 애플리케이션은 호스트 프로세서 또는 다른 프로그램가능한 회로와 같은 프로그램가능한 회로 상에서 실행될 수 있는 코드 또는 인스트럭션으로서 구현될 수 있다. 본원의 임의의 실시예에서 사용되는 바와 같은, 모듈은,회로로서 구현될 수 있다. 회로는 집적 회로 칩과 같은 집적 회로로서 구현될 수 있다.
이하의 실시예에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.
도 1은 본 발명의 실시예에 따른 사용자 단말(100)을 나타내는 도면이다.
도 1을 참조하면, 본 발명의 실시예에 따른 사용자 단말(100)은 카메라(110), 입력부(120), 출력부(130), 센서부(140), 프로세서(150), 저장 매체(160)를 포함할 수 있다.
카메라(110)는 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 프로세서(150) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다. 카메라(110)에서 처리된 화상 프레임은 저장 매체(160)에 저장되거나 외부로 전송될 수도 있다. 카메라(110)는 단말기의 구성 태양에 따라 2개 이상이 구비될 수도 있다.
카메라(110)는 외부의 음향 신호 역시 입력 받아 전기적인 음성 데이터로 처리하는 마이크로폰을 더 포함할 수 있다. 마이크로폰은 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다.
입력부(120)는, 사용자가 사용자 단말(100)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력부(150)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.
출력부(130)에는, 사용자 단말(100)에서 처리되거나 생성된 정보를 출력한다. 예를 들어, 출력부(130)는, 게임 애플리케이션 실행 시 제공되는 사용자 인터페이스를 출력할 수 있다. 한편, 출력부(130)와 터치패드가 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 출력부(130)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 출력부(130)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. 그리고 디바이스(100)의 구현 형태에 따라 디바이스(100)는 디스플레이부(131)를 2개 이상 포함할 수도 있다. 이때, 2개 이상의 디스플레이부(131)는 힌지(hinge)를 이용하여 마주보게 배치될 수 있다.
센서부(140)는 위성통신을 이용하여 사용자 단말(100)의 지리적 위치를 산출하는 GPS 센서를 포함할 수 있다.
프로세서(150)는 통상적으로 사용자 단말(100)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(150)는 저장 매체(160)에 저장된 명령어들을 통해 카메라(110), 입력부(120), 출력부(130), 센서부(140) 등을 전반적으로 제어할 수 있다. 프로세서(150)는 프로세서(processor)와 같이 데이터를 처리할 수 있는 모든 종류의 장치를 포함할 수 있다. 여기서, '프로세서(processor)'는, 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
저장 매체(160)는 운영 체제, 애플리케이션, 프로그램, 라이브러리 및 드라이버와 같은, 사용자 단말(100)의 동작 중에 사용되는 다양한 데이터 및 소프트웨어를 저장할 수 있다. 저장 매체(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 사용자 단말(100)는 인터넷(internet)상에서 저장 매체(160)의 저장 기능을 수행하는 웹 스토리지(web storage) 또는 클라우드 서버를 운영할 수도 있다.
저장 매체(160)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, UI 모듈, 터치 스크린 모듈, 알림 모듈 등으로 분류될 수 있다.
다음으로, 저장 매체(160)에 저장된 구성요소들을 상세히 설명하겠다.
영상 수신부(161)는 상기 카메라(110)를 통해 생성된 화상 데이터를 수신한다. 영상 수신부(161)는 입력부(120)를 통해 전송이 입력된 시점을 기준으로 미리 설정된 시간 동안 화상 데이터를 촬영하게 된다.
텍스트 수신부(162)는 상기 입력부(120)를 통해 입력된 텍스트를 수신한다.
객체 추출부(163)는 상기 화상 데이터 및 상기 텍스트를 분석하고, 상기 텍스트를 분석한 결과, 상기 화상 데이터를 분석한 결과 및 상기 센서부(140)로부터 획득된 센싱값 중 적어도 하나를 이용하여 상기 사용자와 관련된 객체를 추출할 수 있다. 여기서, 객체는 시각적 데이터 또는 청각적 데이터 등과 같은 감각적 데이터를 말하며, 애니메이션 효과 등과 같이 기본적인 이미지를 변형하는 효과를 더 포함할 수 있다. 객체 추출부(163)는 객체 추출부(163)는 텍스트를 분석한 결과를 이용하여 상기 사용자와 관련된 제1 객체를 추출할 수 있다. 좀더 구체적으로는 사용자에 의해 입력된 텍스트를 자연어 처리 하는 방법을 이용하여, 분석하고, 상기 분석한 결과를 이용하여 상기 사용자와 관련된 객체를 추출할 수 있다. 좀더 구체적으로 객체 추출부(163)는 사용자에 의해 입력된 텍스트를 형태소 단위로 분리하고, 상기 텍스트 중에서, 사용자의 감정을 나타내는 형용사를 추출하고, 상기 추출된 형용사를 기초로 상기 사용자가 가지고 있는 감정과 관련된 객체를 추출할 수 있다. 예를 들어, 사용자에 의해 입력된 텍스트가 '슬픈'이라는 형용사를 포함하는 경우, 객체 추출부(163)는 사용자의 슬픈 감정과 대응되는 이미지를 객체로 추출할 수 있다. 또한, 객체 추출부(163)는 형태소 단위로 분리하고, 상기 텍스트 중에서, 사용자의 현재 행위와 대응되는 동사를 추출하고, 상기 추출된 동사를 기초로 상기 사용자의 현재 행위와 관련된 객체를 추출할 수 있다. 예를 들어, 사용자에 의해 입력된 텍스트가 '영화를 보다'라는 동사를 포함하고 있는 경우, 객체 추출부(163)는 극장 이미지를 사용자의 행위와 관련된 객체로 추출할 수 있다. 객체 추출부(163)는 사용자에 의해 입력된 텍스트를 형태소 단위로 분리하고, 상기 텍스트 중에서, 사용자가 위치한 위치를 나타내는 부사를 추출하고, 상기 부사를 기초로 상기 사용자가 위치한 위치와 관련된 객체를 추출할 수 있다.
객체 추출부(163)는 카메라를 통해 촬영된 화상 데이터를 분석하고, 상기 화상 데이터를 분석한 결과를 이용하여 상기 사용자와 관련된 객체를 추출할 수 있다. 좀더 구체적으로, 객체 추출부(163)는 현재 카메라를 통해 촬영된 화상 데이터에 존재하는 사용자와 대응되는 영역을 분석 영역으로 결정하고, 상기 분석 영역에 포함된 엣지, 또는 특징점 등을 추출하고, 상기 엣지 또는 특징점 등을 기초로 상기 분석 영역에 포함된 사람의 얼굴 표정을 결정하고, 상기 얼굴 표정과 대응되는 객체를 추출할 수 있다. 예를 들어, 카메라를 통해 촬영된 화상 데이터가 화난 표정의 사람을 포함하는 경우, 객체 추출부(163)는 상기 화상 데이터로부터 '화남'과 대응되는 이미지를 객체로 추출할 수 있다.
객체 추출부(163)는 현재 카메라를 통해 촬영된 화상 데이터에 존재하는 사용자와 대응되는 영역을 분석 영역으로 결정하고, 상기 분석 영역에 포함된 엣지, 또는 특징점 등을 추출하고, 상기 엣지 또는 특징점 등을 기초로 상기 분석 영역에 포함된 사람의 입모양을 분석함으로써, 상기 화상 데이터로부터 추가 텍스트를 추출할 수도 있다. 객체 추출부(163)는 상기 추가 텍스트와 대응되는 이미지를 제2 객체로 생성할 수 있다.
다른 실시예에서, 객체 추출부(163)는 얼굴 인식 알고리즘을 이용하여 상기 화상 데이터에 포함된 사람 얼굴과 대응되는 얼굴 영역을 추출하고, 상기 얼굴 영역과 대응시켜 상기 사용자와 관련된 제1 객체 또는 제2 객체를 위치시킬 수 있다.
객체 추출부(163)는 센서부에 의해 획득된 사용자의 위치를 고려하여, 사용자와 관련된 객체를 추출할 수도 있다. 예를 들어, 센서부에 의해 획득된 사용자의 위치가 '파리'인 경우, 객체 추출부(163)는 상기 '파리'와 대응되는 대표 건축물인 에펠탑 등을 사용자와 관련된 객체로 추출할 수 있다. 이때, 객체 추출부(163)는 사용자의 위치와 대응되는 대표 건축물, 위치 자체, 위치 주변의 배경 등을 사용자와 관련된 객체로 추출할 수 있다.
객체 추출부(163)는 사용자 단말에 탑재된 다른 어플리케이션(검색, 포털, 날씨 알림 등)을 통해 획득되거나, 센서부를 통해 획득된 날씨 정보를 고려하여, 사용자와 관련된 객체를 추출할 수 있다. 예를 들어, 현재 날씨가 '흐림'인 경우, 객체 추출부(163)는 상기 '흐림'과 대응되는 구름, 회색 하늘 등과 같은 이미지를 객체로 추출할 수 있다.
다른 실시예에서, 객체 추출부(163)는 날짜 및 시간 정보를 이용하여, 현재 시점의 계절을 결정하고, 상기 계절에 따른 이미지를 객체로 추출할 수 있다. 여기서, 날짜 및 시간 정보는 기지국을 통해 획득되거나, 인터넷 망을 통해 획득되거나, 사용자에 의해 입력된 정보를 기초로 측정될 수 있다. 객체 추출부(163)는 봄과 대응하여 새싹이 돋아나는 이미지를 객체로 추출할 수 있고, 여름과 대응하여 해수욕장, 비키니 등의 이미지를 객체로 추출할 수 있고, 가을과 대응하여, 단풍 이미지를 객체로 추출할 수 있고, 겨울과 대응하여 눈이 내리거나 눈사람과 같은 이미지를 객체로 추출할 수 있다.
다른 실시예에서, 객체 추출부(163)는 날짜 및 시간 정보를 이용하여, 현재 시점의 시즌을 결정하고, 상기 시즌에 따른 이미지를 객체로 추출할 수 있다. 현재 시점이 크리스마스 시즌인 경우, 객체 추출부(163)는 시즌인 크리스마스와 대응되는 트리, 산타클로스 등의 이미지를 객체로 추출할 수 있다. 현재 시점이 중복인 경우, 객체 추출부(163)는 시즌인 '중복(中伏)과 대응되는 '삼계탕', '에어컨', '물놀이', '해변' 등과 같은 이미지를 객체로 추출할 수 있다.
객체 추출부(163)를 통해 추출된 객체는 2차원의 데이터 일 수도 있고, 시간에 따라 변경되는 3차원의 데이터 일 수도 있다. 물론, 다른 실시예에서, 객체 추출부(163)는 추출된 객체에 애니메이션 효과를 추가할 수 있다. 객체 추출부(163)는 선풍기에 대해서, 선풍기 날개가 돌아가는 애니메이션 효과를 추가할 수 있다. 객체 추출부(163)는 슬픈 사람을 표현하기 위해서, 눈물이 흐르는 효과 또는 비 오는 날씨를 표현하기 위한 비가 내리는 애니메이션 효과를 추가할 수 있다. 객체 추출부(163)는 폭죽을 표현하기 위해서 폭죽이 점차적으로 커지는 효과를 추가할 수 있다.
컨텐츠 생성부(164)는 상기 추출된 객체를 더 포함하도록 상기 화상 데이터를 편집할 수 있다. 좀더 구체적으로, 컨텐츠 생성부(164)는 상기 추출된 객체가 적절히 표현되도록 각 객체의 표시 위치를 결정할 수 있다. 컨텐츠 생성부(164)는 사람의 얼굴에 적절하게 표시되어야 하는, 부끄럼 이미지, 화남 이미지 등과 관련하여, 화상 데이터에 있는 사람 얼굴을 고려하여 상기 추출된 객체의 위치를 결정할 수 있다. 또한, 컨텐츠 생성부(164)는 화상 데이터의 배경에 상기 추출된 객체를 표시하도록 상기 화상 데이터를 편집할 수 있다. 예를 들어, 컨텐츠 생성부(164)는 화상 데이터로부터 획득된 텍스트를 화상 데이터에 포함시킬 수 있으며, 사람의 입에서 상기 텍스트가 뿜어져 나오는 식으로 표현되도록 화상 데이터를 변경할 수 있다. 컨텐츠 생성부(164)는 추출된 '화남' 이미지를 사람의 머리 위쪽에 존재하도록 할 수 있다. 컨텐츠 생성부(164)는 추출된 '눈물' 이미지를 사람의 눈에서 흐르도록 화상 데이터를 변경할 수 있다.
또한, 컨텐츠 생성부(164)는 상기 화상 데이터를 썸네일로 변환할 수 있다. 이때, 컨텐츠 생성부(164)는 상기 화상 데이터를 상기 사용자의 프로필 형식에 따른 썸네일로 변환할 수 있다. 컨텐츠 생성부(164)는 프로필 형식에 맞춰 상기 화상 데이터의 크기(해상도)를 변환하거나, 상기 화상 데이터의 일부를 삭제할 수 있다. 추가적으로, 컨텐츠 생성부(164)는 프로필 형식에 맞춰 상기 화상 데이터의 해상도를 낮춰, 상기 화상 데이터의 용량을 줄일 수도 있다. 여기서, 프로필(profile)은 대화방에서 제공되는 메시지와 함께 표시되는 사용자 관련 정보를 말한다.
컨텐츠 생성부(164)는 상기 변환된 화상 데이터, 상기 텍스트를 결합한 복합 메시지를 생성할 수 있다. 이때, 텍스트에 대해서도, 컨텐트 생성부(164)는 상기 화상 데이터 및 상기 텍스트를 분석하고, 상기 화상 데이터를 분석한 결과, 상기 텍스트를 분석한 결과, 상기 센싱값 중 적어도 하나를 고려하여, 텍스트를 이미지로 변환할 수 있다. 컨텐츠 생성부(164)는 텍스트의 폰트 종류, 폰트 크기, 폰트 색을 변경할 수도 있으나, 텍스트를 이미지 처럼 표현할 수도 있다. 즉, 컨텐츠 생성부(164)는 상기 변환된 화상 데이터, 상기 이미지로 변환된 텍스트를 결합한 복합 메시지를 생성할 수 있다. 컨텐츠 생성부(164)는 사용자에 의해 입력된 텍스트를 제공할 뿐만 아니라, 사용자의 감정, 위치 또는 현재 날씨, 계절, 시즌 등을 반영한 객체를 포함하는 현재 촬영된 화상 데이터를 결합한 복합 메시지를 생성할 수 있다. 이를 통해, 본 발명의 실시예들에 따른 사용자 단말(100)는 사용자의 감정, 위치, 날씨 등의 정보를 시각화시킨 복합 메시지를 제공할 수 있으며, 텍스트의 인지 없이도 사용자와 관련된 부수적인 정보를 획득할 수 있다. 다른 실시예에서, 컨텐츠 생성부(164)는 텍스트를 제공함에 있어서도, 텍스트를 표현하는 폰트, 폰트 크기, 글자 색 등을 변경할 수 있다. 컨텐츠 생성부(164)는 하나의 텍스트에 대해서도, 서로 다른 폰트, 폰트 크기, 글자 색으로 상기 텍스트에 포함된 형태소를 구분하여 표시할 수 있도록 할 수 있다. 또한, 컨텐츠 생성부(164)는 텍스트를 표시하는 방식 역시 2차원으로 표현할 수도 있고, 화상 데이터에 포함된 사람의 입에서부터 텍스트가 생성되는 애니메이션 효과를 포함하여 제공할 수 있다. 예를 들어, 텍스트가 제공되는 애니메이션 효과는 좌측 또는 우측에서 날아오는 효과, 위 또는 아래에서 날아오는 효과 등 일 수 있다.
컨텐츠 제공부(165)는 상기 변환된 화상 데이터 및 상기 텍스트를 대화방을 통해 다른 사용자와 공유되도록 제공할 수 있다. 컨텐츠 제공부(165)는 상기 생성된 복합 메시지가 대화방을 통해 다른 사용자와 공유되도록 제공한다. 컨텐츠 제공부(165)는 복수의 사용자들 사이에 메시지를 주고 받을 수 있는 대화방을 통해 상기 복합 메시지를 제공한다. 복합 메시지의 크기는 입력된 화상 데이터, 텍스트 또는 추출된 객체에 따라 다를 수 있다. 다른 실시예에서, 컨텐츠 제공부(165)는 복합 메시지에 포함된 애니메이션 효과를 처음 제공 후 미리 설정된 기본 시간, 예를 들어 15분 동안만 제공하고, 15분이 경과하면 복합 메시지에 포함된 애니메이션 효과 없이 복합 메시지를 2차원적으로 제공할 수 있다.
다른 실시예에서, 생성된 복합 메시지는 각 사용자의 프로필 사진으로 설정될 수 있으며, 좀더 구체적으로는 해당 대화방에서만 일시적으로 프로필로써 기능할 수 있다.
본 발명의 실시예들에 따른 사용자 단말(100)은 입력된 텍스트 또는 화상 데이터로부터 객체를 추출함으로써, 사용자가 전달하고자 하는 감정, 기분, 상태 등을 좀더 시각적으로 표현할 수 있다. 또한, 본 발명의 실시예들에 따른 사용자 단말(100)은 대화방을 통해 공유하는 화상 데이터에 추가하고자 하는 객체를 사용자로부터 선택 받을 수도 있다. 본 발명의 실시예들에 따른 사용자 단말(100)은 일반적인 채팅 시스템과 달리 텍스트 이외의 데이터를 대화방을 통해 공유할 수 있으며, 특히 입력된 복수의 데이터 타입들에 해당하는 데이터들을 하나의 컨텐츠로 변환하여 제공할 수 있다. 예를 들어, 사용자 단말(100)은 사용자에 의해 입력된 '사랑해'와 대응하여, '사랑해'라는 감정을 좀더 극대화할 수 있는 객체를 미리 저장된 복수의 아이콘들 중에서 선택할 수 있다. 사용자 단말(100)은 추출된 객체를 반영하여 대화방에서 공유된 메시지들을 시계열적으로 배열시켜 하나의 데이터로 생성함으로써, 각 메시지가 입력된 시점으로부터 시간이 많이 흐른 이후에도 화상 데이터에 추가된 객체 또는 복합 메시지를 통해 해당 메시지가 입력된 시점에 다른 상태(위치, 시간, 날씨, 감정 등)를 전달할 수 있다. 즉, 사용자 단말(100)은 객체 또는 복합 메시지를 통해 각 사용자가 위치한 위치, 각 메시지가 입력된 시점의 날씨, 각 메시지가 입력된 시점의 시간 등을 더 전달할 수 있다.
도 2는 본 발명의 실시예들에 따른 채팅 시스템의 구조를 나타내는 도면이다.
사용자는 사용자 단말(100, 101, 102)을 통해 채팅 서버(200)에 접속할 수 있다. 사용자 단말(100)은 채팅 서버(200)가 제공하는 채팅 애플리케이션을 다운로드 받을 수 있다. 또한, 사용자 단말(100)은 탑재된 하나 이상의 다른 애플리케이션의 이용 정보를 채팅 서버(200)로 전송할 수도 있다.
복수 개의 사용자 단말기(100)들은 유무선 통신 환경에서 웹 서비스를 이용할 수 있는 통신 단말기를 의미한다. 여기서, 사용자 단말기(100)는 사용자의 퍼스널 컴퓨터(101)일 수도 있고, 또는 사용자의 휴대용 단말(102)일 수도 있다. 도 2에서는 휴대용 단말기(102)가 스마트폰으로 도시되었지만, 본 발명의 사상은 이에 제한되지 아니하며, 상술한 바와 같이 웹 브라우징이 가능한 애플리케이션을 탑재한 단말은 제한 없이 차용될 수 있다.
이를 더욱 상세히 설명하면, 사용자 단말기(100)는 컴퓨터(예를 들면, 데스크톱, 랩톱, 태블릿 등), 미디어 컴퓨팅 플랫폼(예를 들면, 케이블, 위성 셋톱박스, 디지털 비디오 레코더), 핸드헬드 컴퓨팅 디바이스(예를 들면, PDA, 이메일 클라이언트 등), 핸드폰의 임의의 형태, 또는 다른 종류의 컴퓨팅 또는 커뮤니케이션 플랫폼의 임의의 형태를 포함할 수 있으나, 본 발명이 이에 한정되는 것은 아니다.
채팅 서버(200)는 일반적인 채팅 서비스를 제공할 수 있다. 채팅 서버(200)는 사용자로부터의 수신된 요청에 따라 대화방을 신설, 제거할 수도 있다. 채팅 서버(200)는 제1 사용자 단말기에 의해 생성된 복합 메시지를 수신하고, 대화방에 포함된 다른 사용자 단말기로 상기 복합 메시지를 제공할 수 있다.
한편, 통신망(300)은 복수 개의 사용자 단말기(100)들과 채팅 서버(200)를 연결하는 역할을 수행한다. 즉, 통신망(300)은 사용자 단말기(100)들이 채팅 서버(200)에 접속한 후 데이터를 송수신할 수 있도록 접속 경로를 제공하는 통신망을 의미한다. 통신망(300)은 예컨대 LANs(Local Area Networks), WANs(Wide Area Networks), MANs(Metropolitan Area Networks), ISDNs(Integrated Service Digital Networks) 등의 유선 네트워크나, 무선 LANs, CDMA, 블루투스, 위성 통신 등의 무선 네트워크를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
도 3은 사용자 단말에 제공되는 대화방의 사용자 인터페이스를 설명하기 위한 도면이다.
사용자 단말에 제공되는 대화방의 사용자 인터페이스는 대화방을 통해 주고 받은 메시지를 제공하는 제1 영역(A1) 및 사용자 단말을 통해 획득된 텍스트와 화상 데이터를 미리 제공하는 제2 영역(A2)를 포함할 수 있다.
제1 영역(A1)은 시간 순서로 배열되는 것이 일반적이며, 새로운 메시지가 입력되게 되면 새로운 메시지가 하단에 추가되며, 이에 따라 제일 상단에 위치한 메시지는 표시 영역을 벗어날 수 있다. 제1 영역(A1)은 메시지와 함께 상기 메시지를 입력한 사용자의 프로필 정보가 함께 제공될 수 있다. 특히, 본 발명의 실시예들에 따른 사용자 단말(100)은 제2 영역(A2)의 일부에 카메라를 통해 촬영된 화상 데이터(S1)를 사용자의 프로필 정보 대신에 표시할 수 있다. 또한, 본 발명의 실시예들에 따른 사용자 단말(100)은 제2 영역(A2)의 나머지 영역에 사용자에 의해 입력된 텍스트(S2)를 표시할 수 있다. 사용자에 의해 입력된 텍스트 및 화상 데이터에 대한 전송을 위한 입력이 수신되면, 제1 영역(A1)의 제일 하측 영역(S3)에 텍스트 및 추출된 객체를 포함하는 화상 데이터가 별개의 영역으로 제공될 수 있다. 다른 실시예에서, 제1 영역(A1)의 제일 하측 영역(S3)에 사용자에 의해 입력된 텍스트 및 추출된 객체를 포함하는 화상 데이터를 결합한 복합 메시지가 제공될 수 있다. 메시지가 표시되는 영역(S3)은 화상 데이터 및 텍스트를 표시하는 영역의 구분 없이 하나의 영역에 상기 화상 데이터, 상기 텍스트, 상기 화상 데이터와 상기 텍스트를 통해 추출된 객체를 결합한 하나의 메시지가 제공되기도 한다. 메시지가 표시되는 영역(S3)은 화상 데이터 및 텍스트가 별개의 영역으로 제공하기도 한다.
이를 통해, 본 발명의 실시예들에 따른 메시지 공유 방법은 대화방으로 제공되는 영역이 전체적으로 사용자에 의해 입력된 데이터로 표현될 수 있다. 또한, 본 발명의 실시예에 따라 대화자인 사용자를 촬영한 화상 데이터를 함께 제공함으로써, 각 메시지의 발신자가 좀더 쉽게 인지될 수 있도록 한다.
도 4 내지 도 8은 메시지 공유 방법에 의해 변환된 화상 데이터들 및 생성된 복합 메시지들의 예시들을 설명하기 위한 도면들이다.
도 4 내지 도 8에 도시된 바와 같이 입력된 텍스트는 화상 데이터에 포함된 사람과 연결된 말풍선에 포함될 수 있다.
도 4는 사용자 단말의 위치 정보를 기초로 객체를 추출하고 상기 객체를 포함하는 화상 데이터 또는 복합 메시지를 생성한 예에 대한 것으로, 사용자 단말의 위치가 '파리'인 경우, 상기 사용자의 위치인 '파리'가 좀더 쉽게 인지될 수 있도록 '파리'의 대표 이미지인 에펠탑을 배경으로 포함하도록 도 4(b)와 같이 화상 데이터를 변환할 수 있다. 도 4(c)와 같이 사용자 단말의 위치가 '파리'인 경우, 상기 사용자의 위치인 '파리'가 좀더 쉽게 인지될 수 있도록 '파리'의 대표 이미지인 에펠탑을 배경으로 포함하는 복합 메시지를 생성할 수 있다. 특히, 추출된 사용자의 위치가 평소에 자주 방문하지 않았던 장소이거나, 해당 대화방에 포함된 다른 사용자의 위치와 다른 국가인 경우, 사용자 단말의 위치 정보를 기초로 객체를 추출할 수 있다. 추출된 객체는 현재 시점에 촬영된 화상 데이터와 함께 표현되게 된다. 또한, 복합 메시지는 텍스트를 이미지로 변환하여 함께 제공할 수 있다. 도 4(c)에 도시된 바와 같이 복합 메시지는 말풍선으로 표현된 텍스트를 더 포함하게 된다.
도 5는 사용자 단말에 의해 결정된 날씨 정보를 기초로 객체를 추출하고, 상기 객체를 포함하는 화상 데이터 또는 복합 메시지를 생성한 예에 대한 것으로, 사용자 단말의 위치 및 현재 시간을 기초로 검색된 날씨 정보가 '비'인 경우, 획득된 날씨를 좀더 쉽게 인지시키기 위해서 '비 오는 배경'을 포함하는 도 4(b)와 같이 화상 데이터를 생성할 수 있다. 사용자 단말의 위치 및 현재 시간을 기초로 검색된 날씨 정보가 '비'인 경우, 획득된 날씨를 좀더 쉽게 인지시키기 위해서 '비 오는 배경'을 포함하는 도 4(c)와 같이 복합 메시지를 생성할 수 있다.
도 6은 사용자에 의해 입력된 텍스트로부터 추출된 사용자의 감정과 관련된 객체를 포함하는 복합 메시지를 생성한 예에 대한 것으로, 사용자에 의해 입력된 '배고프당'을 반영시켜, 화상 데이터 또는 복합 메시지를 생성할 수 있다. 구체적으로, 도 6(b)와 같이 입력된 텍스트인 '배고픔'에 따라 촬영된 화상 데이터에 포함된 사람, 얼굴 형상은 상기 배고픔을 나타내는 이미지, 이모티콘을 추가로 포함할 수 있다.
도 7은 사용자에 의해 입력된 텍스트 및 화상 데이터로부터 추출된 사용자의 감정과 관련된 객체를 포함하는 화상 데이터 또는 복합 메시지를 생성한 예에 대한 것이다. 즉, 사용자 단말(100)은 사용자에 의해 텍스트인'너무 하는거 아니니'를 분석하여, 상기 텍스트의 문맥을 통해, 사용자의 감정을 '화남'으로 결정할 수 있다. 결정된 사용자의 감정에 따라 화상 데이터 또는 복합 메시지는 화상 데이터의 사람 형상 위에 '화남'과 대응되는 이미지를 포함시킬 수 있다. 또한, 복합 메시지는 입력된 텍스트의 표시 방법도 변경할 수 있는데, 즉, 텍스트의 글자를 좀더 크고 굵게 변경할 수 있고, 말풍선의 모양도 사용자의 감정에 따라 도 7(c)에 도시된 바와 같이 변경할 수 있다. 말풍선의 모양은 사용자의 '화남'과 대응하여 삐죽삐죽한 모양을 가질 수 있다. 정리하면, 본 발명의 실시예들에 따른 메시지 공유 방법은 텍스트 또는 화상 데이터를 통해 획득된 사용자의 감정과 관련하여 상기 감정을 표현하는 이미지의 추가, 상기 감정과 대응되는 폰트의 변경, 부수적인 애니메이션 효과의 반영 등을 할 수 있다.
도 8은 시간 정보를 통해 획득된 시즌 정보 및 사용자에 의해 입력된 텍스트를 고려하여 추출된 객체를 포함하는 화상 데이터 또는 복합 메시지를 생성한 예에 대한 것이다. 도 8에 도시된 바와 같이, 시간 정보와 대응되는 시즌이 크리스마스인 경우, 화상 데이터 또는 복합 메시지는 상기 시즌과 관련된 트리 이미지를 더 포함할 수 있고, 촬영된 화상 데이터에 추가적으로 사용자의 의상을 크리스마스와 어울리며, 입력된 텍스트를 고려하여, 턱시도를 오버랩 시킬 수 있다. 즉, 입력된 텍스트가 데이트 신청인 경우, 사용자의 의상을 그에 맞는 턱시도로 변경할 수 있다.
도 9는 본 발명의 실시예들에 따른 메시지 공유 방법의 흐름도이다.
도 9를 참조하면, 본 발명의 실시예들에 따른 메시지 공유 방법은 화상 데이터 수신 단계(S110), 텍스트 수신 단계(S120), 센싱 값 수신 단계(S130), 객체 추출 단계(S140), 화상 데이터 편집 단계(S150)를 포함할 수 있다.
S110에서는 사용자 단말(100)은 카메라를 통해 촬영된 화상 데이터를 수신한다. 사용자에 의한 입력에 따라 미리 설정된 시간 동안, 예를 들어 2초 동안 화상 데이터를 촬영하게 된다. S120에서는 사용자 단말(100)은 입력부를 통해 입력된 텍스트를 수신한다. S130에서는 사용자 단말(100)은 센서부를 통해 사용자의 위치, 주변의 날씨, 시간 등의 센싱 값을 수신할 수 있다.
S140에서는 사용자 단말(100)은 상기 텍스트 및 상기 화상 데이터를 분석하고, 상기 텍스트를 분석한 결과, 상기 화상 데이터를 분석한 결과 및 상기 센서부로부터 획득된 센싱값 중 적어도 하나를 이용하여 상기 사용자와 관련된, 제1 객체를 추출할 수 있다. S140의 동작은 객체 추출부(163)의 동작과 동일하므로, 상세한 설명을 생략한다.
S150에서는 사용자 단말(100)은 추출된 객체를 더 포함하도록 상기 화상 데이터를 편집할 수 있다. 사용자 단말(100)은 상기 추출된 객체가 적절히 표현되도록 각 객체의 표시 위치를 결정할 수 있다. 사용자 단말(100)은 사람의 얼굴에 적절하게 표시되어야 하는, 부끄럼 이미지, 화남 이미지 등과 관련하여, 화상 데이터에 있는 사람 얼굴을 고려하여 상기 추출된 객체의 위치를 결정할 수 있다. 또한, 사용자 단말(100)은 화상 데이터의 배경에 상기 추출된 객체를 표시하도록 상기 화상 데이터를 편집할 수 있다. 사용자 단말(100)은 결정된 위치에 상기 제1 객체가 표현되도록 화상 데이터를 편집하게 된다. 또한, 사용자 단말(100)은 편집된 화상 데이터를 썸네일로 변환할 수 있다. 썸네일은 각 사용자의 프로필로 설정될 수 있다. 썸네일로 변환한다는 것은 상기 편집된 화상 데이터의 크기를 변경하거나, 화상 데이터의 일부를 제거하거나 화상 데이터의 용량을 줄이는 것을 말한다.
도 10을 참조하면, 본 발명의 실시예들에 따른 메시지 공유 방법은 화상 데이터 수신 단계(S210), 텍스트 수신 단계(S220), 센싱 값 수신 단계(S230), 객체 추출 단계(S240), 화상 데이터 편집 단계(S250), 복합 메시지 생성 단계(S260)를 포함할 수 있다.
S210에서는 사용자 단말(100)은 카메라를 통해 촬영된 화상 데이터를 수신한다. 사용자에 의한 입력에 따라 미리 설정된 시간 동안, 예를 들어 2초 동안 화상 데이터를 촬영하게 된다. S220에서는 사용자 단말(100)은 입력부를 통해 입력된 텍스트를 수신한다. S230에서는 사용자 단말(100)은 센서부를 통해 사용자의 위치, 주변의 날씨, 시간 등의 센싱 값을 수신할 수 있다.
S240에서는 사용자 단말(100)은 상기 텍스트 및 상기 화상 데이터를 분석하고, 상기 텍스트를 분석한 결과, 상기 화상 데이터를 분석한 결과 및 상기 센서부로부터 획득된 센싱값 중 적어도 하나를 이용하여 상기 사용자와 관련된, 제1 객체를 추출할 수 있다. S240의 동작은 객체 추출부(163)의 동작과 동일하므로, 상세한 설명을 생략한다.
S250에서는 사용자 단말(100)은 추출된 객체를 더 포함하도록 상기 화상 데이터를 편집할 수 있다. 사용자 단말(100)은 상기 추출된 객체가 적절히 표현되도록 각 객체의 표시 위치를 결정할 수 있다. 사용자 단말(100)은 사람의 얼굴에 적절하게 표시되어야 하는, 부끄럼 이미지, 화남 이미지 등과 관련하여, 화상 데이터에 있는 사람 얼굴을 고려하여 상기 추출된 객체의 위치를 결정할 수 있다. 또한, 사용자 단말(100)은 화상 데이터의 배경에 상기 추출된 객체를 표시하도록 상기 화상 데이터를 편집할 수 있다. 사용자 단말(100)은 결정된 위치에 상기 제1 객체가 표현되도록 화상 데이터를 편집하게 된다. 또한, 사용자 단말(100)은 편집된 화상 데이터를 썸네일로 변환할 수 있다.
S260에서는 사용자 단말(100)은 상기 변환된 화상 데이터 및 상기 텍스트를 하나의 복합 메시지로 생성할 수 있다. 사용자 단말(100)은 상기 텍스트를 이미지로 변환할 수 있으며, 이런 경우, 복합 메시지는 상기 변환된 화상 데이터 및 상기 이미지로 변환된 텍스트를 포함할 수 있다.
이상 설명된 본 발명에 따른 실시예는 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다. 나아가, 매체는 네트워크 상에서 전송 가능한 형태로 구현되는 무형의 매체를 포함할 수 있으며, 예를 들어 소프트웨어 또는 애플리케이션 형태로 구현되어 네트워크를 통해 전송 및 유통이 가능한 형태의 매체일 수도 있다.
한편, 상기 컴퓨터 프로그램은 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.
본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, "필수적인", "중요하게" 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.
본 발명의 명세서(특히 특허청구범위에서)에서 "상기"의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 본 발명에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 발명의 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 본 발명에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 본 발명이 한정되는 것은 아니다. 본 발명에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 본 발명을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 발명의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.

Claims (20)

  1. 촬상부, 입력부, 센서부, 및 프로세서를 포함하는 컴퓨터를 이용하여,
    상기 촬상부를 통해 촬영된 화상 데이터를 수신하는 단계;
    상기 입력부를 통해 사용자에 의해 입력된 텍스트를 수신하는 단계;
    상기 프로세서가 상기 텍스트 및 상기 화상 데이터를 분석하고, 상기 텍스트를 분석한 결과, 상기 화상 데이터를 분석한 결과 및 상기 센서부로부터 획득된 센싱값 중 적어도 하나를 이용하여 상기 사용자와 관련된, 제1 객체를 추출하는 단계;
    상기 추출된 제1 객체를 더 포함하도록 상기 화상 데이터를 편집하고, 상기 편집한 화상 데이터를 썸네일 형식으로 변환하는 단계;
    상기 변환된 화상 데이터 및 상기 텍스트를 대화방을 통해 다른 사용자와 공유하는 단계;를 포함하는 메시지 공유 방법을 실행시키기 위하여 컴퓨터 판독 가능한 매체에 저장된 컴퓨터 프로그램.
  2. 제1항에 있어서,
    상기 사용자와 관련된 제1 객체를 추출하는 단계는
    상기 텍스트를 형태소 단위로 분리하고, 상기 텍스트 중에서 사용자의 감정을 나타내는 형용사를 추출하고, 상기 형용사를 기초로 상기 사용자가 가지고 있는 감정과 관련된 제1 객체를 추출하는, 메시지 공유 방법을 실행시키기 위하여 컴퓨터 판독 가능한 매체에 저장된 컴퓨터 프로그램.
  3. 제1항에 있어서,
    상기 사용자와 관련된 제1 객체를 추출하는 단계는
    상기 화상 데이터를 분석하여 사람의 형상과 대응되는 영역을 추출하고, 상기 영역에 포함된 엣지(edge)를 통해 사용자의 감정을 결정하고, 상기 사용자의 감정과 관련된 제1 객체를 추출하는, 메시지 공유 방법을 실행시키기 위하여 컴퓨터 판독 가능한 매체에 저장된 컴퓨터 프로그램.
  4. 제1항에 있어서,
    상기 사용자와 관련된 제1 객체를 추출하는 단계는
    상기 센서부를 통해 획득된 위치 또는 시간을 고려하여, 사용자 단말의 위치 또는 시간과 대응되는 제1 객체를 추출하는, 메시지 공유 방법을 실행시키기 위하여 컴퓨터 판독 가능한 매체에 저장된 컴퓨터 프로그램.
  5. 제1항에 있어서,
    상기 화상 데이터를 변환하는 단계는
    얼굴 인식 알고리즘을 이용하여, 상기 화상 데이터에 포함된 사람 얼굴을 중심으로 상기 추출된 제1 객체를 추가하며, 상기 사람 얼굴을 중심으로 화상 데이터의 크기를 조정하는, 메시지 공유 방법을 실행시키기 위하여 컴퓨터 판독 가능한 매체에 저장된 컴퓨터 프로그램.
  6. 제1항에 있어서,
    상기 공유하는 단계는
    상기 제1 객체를 고려하여, 상기 텍스트의 폰트, 폰트의 크기, 글자 색 중 적어도 하나를 변경하고, 상기 폰트가 변경된 텍스트를 대화방을 통해 다른 사용자와 공유하는, 메시지 공유 방법을 실행시키기 위하여 컴퓨터 판독 가능한 매체에 저장된 컴퓨터 프로그램.
  7. 제1항에 있어서,
    상기 공유하는 단계는
    상기 변환된 화상 데이터 및 상기 텍스트를 결합한 복합 메시지를 생성하고, 상기 복합 메시지를 대화방을 통해 다른 사용자와 공유하는, 메시지 공유 방법을 실행시키기 위하여 컴퓨터 판독 가능한 매체에 저장된 컴퓨터 프로그램.
  8. 제7항에 있어서,
    상기 공유하는 단계는
    상기 프로세서가 상기 텍스트 및 상기 화상 데이터를 분석하고, 상기 텍스트를 분석한 결과, 상기 화상 데이터를 분석한 결과 및 상기 센서부로부터 획득된 센싱값 중 적어도 하나를 이용하여 상기 텍스트를 이미지로 변환하고, 상기 변환된 텍스트 및 상기 변환된 화상 데이터를 결합한 복합 메시지를 생성하고, 상기 복합 메시지를 대화방을 통해 다른 사용자와 공유하는, 메시지 공유 방법을 실행시키기 위하여 컴퓨터 판독 가능한 매체에 저장된 컴퓨터 프로그램.
  9. 제1항에 있어서,
    상기 공유하는 단계는
    상기 화상 데이터에 포함된 사람의 입모양을 분석하여 획득된 텍스트를 제2 객체로 추출하고, 상기 화상 데이터가 상기 제2 객체를 포함하도록 변경하고, 상기 변경된 화상 데이터 및 상기 텍스트를 대화방을 통해 다른 사용자와 공유하는, 메시지 공유 방법을 실행시키기 위하여 컴퓨터 판독 가능한 매체에 저장된 컴퓨터 프로그램.
  10. 제1항에 있어서,
    상기 변환된 화상 데이터는
    각 사용자의 프로필 정보로 등록될 수 있는, 메시지 공유 방법을 실행시키기 위하여 컴퓨터 판독 가능한 매체에 저장된 컴퓨터 프로그램.
  11. 촬상부, 입력부, 및 프로세서를 포함하는 컴퓨터의 메시지 공유 방법에 있어서,
    상기 촬상부를 통해 촬영된 화상 데이터를 수신하는 단계;
    상기 입력부를 통해 사용자에 의해 입력된 텍스트를 수신하는 단계;
    상기 프로세서가 상기 텍스트 및 상기 화상 데이터를 분석하고, 상기 텍스트를 분석한 결과, 상기 화상 데이터를 분석한 결과 및 상기 센서부로부터 획득된 센싱값 중 적어도 하나를 이용하여 상기 사용자와 관련된, 제1 객체를 추출하는 단계;
    상기 추출된 제1 객체를 더 포함하도록 상기 화상 데이터를 편집하고, 상기 편집한 화상 데이터를 썸네일로 변환하는 단계;
    상기 변환된 화상 데이터 및 상기 텍스트를 대화방을 통해 다른 사용자와 공유하는 단계;를 포함하는 메시지 공유 방법.
  12. 제11항에 있어서,
    상기 사용자와 관련된 제1 객체를 추출하는 단계는
    상기 텍스트를 형태소 단위로 분리하고, 상기 텍스트 중에서 사용자의 감정을 나타내는 형용사를 추출하고, 상기 형용사를 기초로 상기 사용자가 가지고 있는 감정과 관련된 제1 객체를 추출하는, 메시지 공유 방법.
  13. 제11항에 있어서,
    상기 사용자와 관련된 제1 객체를 추출하는 단계는
    상기 화상 데이터를 분석하여 사람의 형상과 대응되는 영역을 추출하고, 상기 영역에 포함된 엣지(edge)를 통해 사용자의 감정을 결정하고, 상기 사용자의 감정과 관련된 제1 객체를 추출하는, 메시지 공유 방법.
  14. 제11항에 있어서,
    상기 사용자와 관련된 제1 객체를 추출하는 단계는
    상기 센서부를 통해 획득된 위치 또는 시간을 고려하여, 사용자 단말의 위치 또는 시간과 대응되는 제1 객체를 추출하는, 메시지 공유 방법.
  15. 제11항에 있어서,
    상기 화상 데이터를 변환하는 단계는
    얼굴 인식 알고리즘을 이용하여, 상기 화상 데이터에 포함된 사람 얼굴을 중심으로 상기 추출된 제1 객체를 추가하며, 상기 사람 얼굴을 중심으로 화상 데이터의 크기를 조정하는, 메시지 공유 방법.
  16. 제11항에 있어서,
    상기 공유하는 단계는
    상기 제1 객체를 고려하여, 상기 텍스트의 폰트, 폰트의 크기, 글자 색 중 적어도 하나를 변경하고, 상기 폰트가 변경된 텍스트를 대화방을 통해 다른 사용자와 공유하는, 메시지 공유 방법.
  17. 제11항에 있어서,
    상기 공유하는 단계는
    상기 변환된 화상 데이터 및 상기 텍스트를 결합한 복합 메시지를 생성하고, 상기 복합 메시지를 대화방을 통해 다른 사용자와 공유하는, 메시지 공유 방법.
  18. 제17항에 있어서,
    상기 공유하는 단계는
    상기 프로세서가 상기 텍스트 및 상기 화상 데이터를 분석하고, 상기 텍스트를 분석한 결과, 상기 화상 데이터를 분석한 결과 및 상기 센서부로부터 획득된 센싱값 중 적어도 하나를 이용하여 상기 텍스트를 이미지로 변환하고, 상기 변환된 텍스트 및 상기 변환된 화상 데이터를 결합한 복합 메시지를 생성하고, 상기 복합 메시지를 대화방을 통해 다른 사용자와 공유하는, 메시지 공유 방법.
  19. 제11항에 있어서,
    상기 공유하는 단계는
    상기 화상 데이터에 포함된 사람의 입모양을 분석하여 획득된 텍스트를 제2 객체로 추출하고, 상기 화상 데이터가 상기 제2 객체를 포함하도록 변경하고, 상기 변경된 화상 데이터 및 상기 텍스트를 대화방을 통해 다른 사용자와 공유하는, 메시지 공유 방법.
  20. 제11항에 있어서,
    상기 변환된 화상 데이터는
    각 사용자의 프로필 정보로 등록될 수 있는, 메시지 공유 방법.
PCT/KR2016/009218 2016-08-22 2016-08-22 대화방을 통해 각 사용자의 상태를 반영한 화상 데이터를 공유하는 메시지 공유 방법메시지 공유 방법 및 상기 방법을 실행시키기 위한 컴퓨터 프로그램 WO2018038277A1 (ko)

Priority Applications (6)

Application Number Priority Date Filing Date Title
PCT/KR2016/009218 WO2018038277A1 (ko) 2016-08-22 2016-08-22 대화방을 통해 각 사용자의 상태를 반영한 화상 데이터를 공유하는 메시지 공유 방법메시지 공유 방법 및 상기 방법을 실행시키기 위한 컴퓨터 프로그램
JP2019510910A JP6727413B2 (ja) 2016-08-22 2016-08-22 メッセージ共有方法及びコンピュータプログラム
CN201680088655.6A CN109716712A (zh) 2016-08-22 2016-08-22 通过聊天室共享反映各用户状态的图像数据的消息共享方法及执行该方法的计算机程序
CN202211263165.9A CN115766636A (zh) 2016-08-22 2016-08-22 消息共享方法及计算机可读介质
KR1020197004928A KR102165271B1 (ko) 2016-08-22 2016-08-22 대화방을 통해 각 사용자의 상태를 반영한 화상 데이터를 공유하는 메시지 공유 방법메시지 공유 방법 및 상기 방법을 실행시키기 위한 컴퓨터 프로그램
US16/283,052 US11025571B2 (en) 2016-08-22 2019-02-22 Message sharing method for sharing image data reflecting status of each user via chat room and computer program for executing same method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2016/009218 WO2018038277A1 (ko) 2016-08-22 2016-08-22 대화방을 통해 각 사용자의 상태를 반영한 화상 데이터를 공유하는 메시지 공유 방법메시지 공유 방법 및 상기 방법을 실행시키기 위한 컴퓨터 프로그램

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/283,052 Continuation US11025571B2 (en) 2016-08-22 2019-02-22 Message sharing method for sharing image data reflecting status of each user via chat room and computer program for executing same method

Publications (1)

Publication Number Publication Date
WO2018038277A1 true WO2018038277A1 (ko) 2018-03-01

Family

ID=61244989

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/009218 WO2018038277A1 (ko) 2016-08-22 2016-08-22 대화방을 통해 각 사용자의 상태를 반영한 화상 데이터를 공유하는 메시지 공유 방법메시지 공유 방법 및 상기 방법을 실행시키기 위한 컴퓨터 프로그램

Country Status (5)

Country Link
US (1) US11025571B2 (ko)
JP (1) JP6727413B2 (ko)
KR (1) KR102165271B1 (ko)
CN (2) CN109716712A (ko)
WO (1) WO2018038277A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102116309B1 (ko) * 2018-12-17 2020-05-28 주식회사 인공지능연구원 가상 캐릭터와 텍스트의 동기화 애니메이션 출력 시스템

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10271079B1 (en) 2015-10-20 2019-04-23 Halogen Networks, LLC Live video streaming system and method
US10203855B2 (en) * 2016-12-09 2019-02-12 Snap Inc. Customized user-controlled media overlays
KR102616403B1 (ko) * 2016-12-27 2023-12-21 삼성전자주식회사 전자 장치 및 그의 메시지 전달 방법
KR102448382B1 (ko) * 2018-01-22 2022-09-28 삼성전자주식회사 텍스트와 연관된 이미지를 제공하는 전자 장치 및 그 동작 방법
JP7013929B2 (ja) * 2018-02-23 2022-02-01 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
US10616666B1 (en) * 2018-02-27 2020-04-07 Halogen Networks, LLC Interactive sentiment-detecting video streaming system and method
US10929155B2 (en) * 2018-05-11 2021-02-23 Slack Technologies, Inc. System, method, and apparatus for building and rendering a message user interface in a group-based communication system
US10891969B2 (en) * 2018-10-19 2021-01-12 Microsoft Technology Licensing, Llc Transforming audio content into images
KR20200134544A (ko) * 2019-05-22 2020-12-02 라인플러스 주식회사 대화방의 컨텐츠 저작권을 보호하는 방법, 시스템, 및 비-일시적인 컴퓨터 판독가능한 기록 매체
KR20210041757A (ko) 2019-10-08 2021-04-16 삼성전자주식회사 전자 장치 및 그 제어 방법
US11750546B2 (en) 2019-12-31 2023-09-05 Snap Inc. Providing post-capture media overlays for post-capture processing in a messaging system
US11164353B2 (en) 2019-12-31 2021-11-02 Snap Inc. Layering of post-capture processing in a messaging system
US11695718B2 (en) 2019-12-31 2023-07-04 Snap Inc. Post-capture processing in a messaging system
US11237702B2 (en) 2019-12-31 2022-02-01 Snap Inc. Carousel interface for post-capture processing in a messaging system
CN111464827A (zh) * 2020-04-20 2020-07-28 玉环智寻信息技术有限公司 一种数据处理方法、装置、计算设备及存储介质
KR20210130583A (ko) * 2020-04-22 2021-11-01 라인플러스 주식회사 인스턴트 메시징 애플리케이션을 통해 콘텐츠를 공유하는 방법 및 시스템
KR20210144443A (ko) 2020-05-22 2021-11-30 삼성전자주식회사 인공지능 가상 비서 서비스에서의 텍스트 출력 방법 및 이를 지원하는 전자 장치
KR102619836B1 (ko) * 2021-01-04 2023-12-29 주식회사 카카오 말풍선 배치 기법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060121679A (ko) * 2005-05-25 2006-11-29 오끼 덴끼 고오교 가부시끼가이샤 화상 합성 장치, 그리고 그 장치를 사용한 통신 단말기 및화상 커뮤니케이션 시스템, 그리고 그 시스템에 있어서의채팅 서버
KR100868638B1 (ko) * 2007-08-07 2008-11-12 에스케이 텔레콤주식회사 영상 통화 말풍선 제공 시스템 및 방법
KR20090129580A (ko) * 2008-06-13 2009-12-17 (주)티아이스퀘어 음성/문자 인식을 이용한 멀티미디어 콘텐츠 합성 메시지전송 방법 및 장치
KR20140132977A (ko) * 2013-05-09 2014-11-19 에스케이플래닛 주식회사 위치 정보를 고려한 사진 데이터 표시 방법, 이를 위한 장치 및 시스템
US20150281145A1 (en) * 2012-10-22 2015-10-01 Daum Kakao Corp. Device and method for displaying image in chatting area and server for managing chatting data

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001245269A (ja) * 2000-02-25 2001-09-07 Sony Corp コミュニケーション・データ作成装置及び作成方法、コミュニケーション・データ再生装置及び再生方法、並びに、プログラム記憶媒体
US7574016B2 (en) * 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
EP1667031A3 (en) * 2004-12-02 2009-01-14 NEC Corporation HTML-e-mail creation system
JP4218637B2 (ja) * 2004-12-28 2009-02-04 沖電気工業株式会社 情報端末装置
US20070160004A1 (en) 2006-01-10 2007-07-12 Ketul Sakhpara Local Radio Group
JP4775066B2 (ja) * 2006-03-28 2011-09-21 カシオ計算機株式会社 画像加工装置
JP4559459B2 (ja) * 2006-09-12 2010-10-06 三星電子株式会社 モバイルアドホックネットワークで通信するように動作可能なモバイル装置、及びその装置間のデータ交換セッションを確立する方法、及びコンピュータ読取り可能な媒体
US8416981B2 (en) * 2007-07-29 2013-04-09 Google Inc. System and method for displaying contextual supplemental content based on image content
US20090142001A1 (en) 2007-11-30 2009-06-04 Sanyo Electric Co., Ltd. Image composing apparatus
JP2009135720A (ja) * 2007-11-30 2009-06-18 Sanyo Electric Co Ltd 画像合成装置
KR101678434B1 (ko) * 2010-04-02 2016-12-06 엘지전자 주식회사 이동단말기 및 그 제어방법
JP5353835B2 (ja) * 2010-06-28 2013-11-27 ブラザー工業株式会社 情報処理プログラムおよび情報処理装置
US20130120429A1 (en) * 2011-11-16 2013-05-16 Nickolas S. Sukup Method of representing emotion in a text message
KR20140094878A (ko) * 2013-01-23 2014-07-31 삼성전자주식회사 사용자 단말 및 사용자 단말에서 사용자 인식을 이용한 영상 처리 방법
KR102130796B1 (ko) * 2013-05-20 2020-07-03 엘지전자 주식회사 이동 단말기 및 이의 제어방법
JP2015028686A (ja) * 2013-07-30 2015-02-12 カシオ計算機株式会社 ソーシャルタイムラインを作成する方法、ソーシャル・ネットワーク・サービスシステム、サーバー、端末並びにプログラム
CN103533241B (zh) * 2013-10-14 2017-05-10 厦门美图网科技有限公司 一种智能滤镜的拍照方法
KR102306538B1 (ko) * 2015-01-20 2021-09-29 삼성전자주식회사 콘텐트 편집 장치 및 방법
JP6152151B2 (ja) * 2015-09-18 2017-06-21 ヤフー株式会社 情報提供装置、情報提供方法及び情報提供プログラム
CN105228013B (zh) * 2015-09-28 2018-09-07 百度在线网络技术(北京)有限公司 弹幕信息处理方法、装置及弹幕视频播放器

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060121679A (ko) * 2005-05-25 2006-11-29 오끼 덴끼 고오교 가부시끼가이샤 화상 합성 장치, 그리고 그 장치를 사용한 통신 단말기 및화상 커뮤니케이션 시스템, 그리고 그 시스템에 있어서의채팅 서버
KR100868638B1 (ko) * 2007-08-07 2008-11-12 에스케이 텔레콤주식회사 영상 통화 말풍선 제공 시스템 및 방법
KR20090129580A (ko) * 2008-06-13 2009-12-17 (주)티아이스퀘어 음성/문자 인식을 이용한 멀티미디어 콘텐츠 합성 메시지전송 방법 및 장치
US20150281145A1 (en) * 2012-10-22 2015-10-01 Daum Kakao Corp. Device and method for displaying image in chatting area and server for managing chatting data
KR20140132977A (ko) * 2013-05-09 2014-11-19 에스케이플래닛 주식회사 위치 정보를 고려한 사진 데이터 표시 방법, 이를 위한 장치 및 시스템

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102116309B1 (ko) * 2018-12-17 2020-05-28 주식회사 인공지능연구원 가상 캐릭터와 텍스트의 동기화 애니메이션 출력 시스템

Also Published As

Publication number Publication date
CN109716712A (zh) 2019-05-03
JP2019526861A (ja) 2019-09-19
US20190190865A1 (en) 2019-06-20
JP6727413B2 (ja) 2020-07-22
US11025571B2 (en) 2021-06-01
CN115766636A (zh) 2023-03-07
KR20190026927A (ko) 2019-03-13
KR102165271B1 (ko) 2020-10-13

Similar Documents

Publication Publication Date Title
WO2018038277A1 (ko) 대화방을 통해 각 사용자의 상태를 반영한 화상 데이터를 공유하는 메시지 공유 방법메시지 공유 방법 및 상기 방법을 실행시키기 위한 컴퓨터 프로그램
US20200402304A1 (en) Electronic device and method for managing custom object on basis of avatar
WO2019156332A1 (ko) 증강현실용 인공지능 캐릭터의 제작 장치 및 이를 이용한 서비스 시스템
WO2017142278A1 (en) Apparatus and method for providing dynamic panorama function
WO2020130281A1 (en) Electronic device and method for providing avatar based on emotion state of user
CN110968736A (zh) 视频生成方法、装置、电子设备及存储介质
WO2018174314A1 (ko) 스토리영상 제작 방법 및 시스템
WO2020153785A1 (ko) 전자 장치 및 이를 이용한 감정 정보에 대응하는 그래픽 오브젝트를 제공하는 방법
WO2019125060A1 (ko) 전화번호 연관 정보를 제공하기 위한 전자 장치 및 그의 동작 방법
WO2022154270A1 (ko) 요약 영상 생성 방법 및 그 전자 장치
WO2015126097A1 (en) Interactive server and method for controlling the server
CN110379406B (zh) 语音评论转换方法、系统、介质和电子设备
CN111950255A (zh) 诗词生成方法、装置、设备及存储介质
WO2021085812A1 (ko) 전자장치 및 그 제어방법
WO2018174311A1 (ko) 얼굴 인식 카메라의 동적 컨텐츠를 제공하는 방법 및 시스템
WO2017116015A1 (ko) 콘텐츠 인식 기술 기반 콘텐츠 자동 생성 방법 및 시스템
WO2021149930A1 (en) Electronic device and story generation method thereof
WO2022211509A1 (ko) 컨텐츠 입력에 기초하여 스티커를 제공하는 전자 장치 및 방법
WO2020045909A1 (en) Apparatus and method for user interface framework for multi-selection and operation of non-consecutive segmented information
WO2012057561A2 (ko) 인스턴트 메신저 서비스 제공시스템 및 그 제공방법, 및 통신 단말기 및 그 통신방법
CN108255917B (zh) 图像管理方法、设备及电子设备
WO2019216484A1 (ko) 전자 장치 및 그 동작방법
JPWO2017051577A1 (ja) 感情誘導システム、および感情誘導方法
JP6707715B2 (ja) 学習装置、推定装置、学習方法及びプログラム
WO2018169276A1 (ko) 언어 정보를 처리하기 위한 방법 및 그 전자 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16914256

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20197004928

Country of ref document: KR

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2019510910

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 24.06.2019)

122 Ep: pct application non-entry in european phase

Ref document number: 16914256

Country of ref document: EP

Kind code of ref document: A1