KR20180080986A - artificial intelligence information system for emoticon service based on machine learning - Google Patents

artificial intelligence information system for emoticon service based on machine learning Download PDF

Info

Publication number
KR20180080986A
KR20180080986A KR1020170171044A KR20170171044A KR20180080986A KR 20180080986 A KR20180080986 A KR 20180080986A KR 1020170171044 A KR1020170171044 A KR 1020170171044A KR 20170171044 A KR20170171044 A KR 20170171044A KR 20180080986 A KR20180080986 A KR 20180080986A
Authority
KR
South Korea
Prior art keywords
terminal
emoticon
server
text
emoticons
Prior art date
Application number
KR1020170171044A
Other languages
Korean (ko)
Inventor
이효섭
Original Assignee
주식회사 플랫팜
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 플랫팜 filed Critical 주식회사 플랫팜
Priority to KR1020170171044A priority Critical patent/KR20180080986A/en
Publication of KR20180080986A publication Critical patent/KR20180080986A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • G06Q50/30
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N99/005
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • General Business, Economics & Management (AREA)
  • Computing Systems (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Operations Research (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

The present invention relates to a machine learning-based artificial intelligence emoticon service providing system. According to an embodiment of the present invention, a machine learning-based artificial intelligence emoticon providing system comprises: a first terminal into which at least one piece of first content is inputted; a server to receive the first content from the first terminal, classify text included in the first content into preset units to generate a plurality of pieces of second text, filter at least one piece of third text satisfying a preset condition among the plurality of pieces of second text, and determine at least one first emoticon matching the third text among a plurality of previously stored emoticons; and a second terminal to receive the first emoticon from the server.

Description

머신 러닝 기반의 인공지능 이모티콘 서비스 제공 시스템 {artificial intelligence information system for emoticon service based on machine learning}Technical Field [0001] The present invention relates to an artificial intelligence information providing system,

본 발명은 머신 러닝 기반의 인공지능 이모티콘 서비스 제공 시스템에 관한 것이다.The present invention relates to a machine learning based artificial intelligent emoticons service providing system.

개인용 컴퓨터, 노트북, 휴대폰 등과 같은 단말기는 다양한 기능을 수행할 수 있도록 구성될 수 있다. 그러한 다양한 기능들의 예로 데이터 및 음성 통신 기능, 카메라를 통해 사진이나 동영상을 촬영하는 기능, 음성 저장 기능, 스피커 시스템을 통한 음악 파일의 재생 기능, 이미지나 비디오의 디스플레이 기능 등이 있다. 일부 단말기는 게임을 실행할 수 있는 추가적 기능을 포함하고, 다른 일부 단말기는 멀티미디어 기기로서 구현되기도 한다. 더욱이 최근의 단말기는 방송이나 멀티캐스트(multicast) 신호를 수신하여 비디오나 텔레비전 프로그램을 시청할 수 있다.A terminal such as a personal computer, a notebook computer, a mobile phone, or the like can be configured to perform various functions. Examples of such various functions include a data and voice communication function, a function of photographing a video or a moving image through a camera, a voice storage function, a music file playback function through a speaker system, and an image or video display function. Some terminals include additional functions to execute games, and some other terminals are also implemented as multimedia devices. Moreover, recent terminals can receive a broadcast or multicast signal to view a video or television program.

일반적으로 단말기는 이동 가능 여부에 따라 이동 단말기(mobile/portable terminal) 및 고정 단말기(stationary terminal)로 나뉠 수 있다. 다시 이동 단말기는 사용자의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치형 단말기(vehicle mount terminal)로 나뉠 수 있다.In general, a terminal can be divided into a mobile terminal (mobile / portable terminal) and a stationary terminal according to whether the terminal can be moved. The mobile terminal can be divided into a handheld terminal and a vehicle mount terminal according to whether the user can directly carry the mobile terminal.

이와 같은 단말기(terminal)는 기능이 다양화됨에 따라 예를 들어, 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재생, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다.Such a terminal has various functions, for example, in the form of a multimedia device having multiple functions such as photographing and photographing of a moving picture, reproduction of a music or video file, reception of a game and broadcasting, etc. .

이러한 단말기의 기능 지지 및 증대를 위해, 단말기의 구조적인 부분 및/또는 소프트웨어적인 부분을 개량하는 것이 고려될 수 있다.In order to support and enhance the functionality of such terminals, it may be considered to improve the structural and / or software parts of the terminal.

한편, 단말을 이용한 모바일 환경에서 사용자의 소통하는 방식은 점차 비주얼 커뮤니케이션 중심으로 이동하고 있으며, 사용자가 전달하고자 하는 메시지를 시각화하여 디자인해주는 에이전트가 필요하다.Meanwhile, in a mobile environment using a terminal, a method of communicating a user is gradually moving toward the center of visual communication, and an agent for visualizing and designing a message to be transmitted by the user is needed.

현재 단말 사용자 자신만의 감성 표현을 위해 다양한 아이콘, 사진 등으로 소통하려는 시도가 있지만, 그 과정이 번거로워 섬세하고 풍부한 표현이 어렵다는 문제점이 있다.Currently, there are attempts to communicate with various icons, pictures, etc. in order to express their own emotions. However, the process is complicated and difficult to express delicately and richly.

따라서 인공지능과 디자인 테크놀로지를 더하고 다양한 캐릭터를 융합하여 즐거운 사용자 경험을 제공하는 방법이 요구되고 있는 실정이다.Therefore, there is a need for a method of providing a pleasant user experience by adding artificial intelligence and design technology and fusing various characters.

대한민국 특허청 출원번호 제10-2012-0131936호Korea Patent Office Application No. 10-2012-0131936

본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 안출된 것으로서, 머신 러닝 기반의 인공지능 이모티콘 서비스 제공 시스템을 사용자에게 제공하는데 그 목적이 있다. SUMMARY OF THE INVENTION It is an object of the present invention to provide a system for providing an artificial intelligent emotion service based on a machine learning to a user.

구체적으로 본 발명은 사용자의 메시지에 담긴 감정 요소와 맥락을 머신러닝 기반의 인공지능 기술로 분석하고 캐릭터 이모티콘을 실시간으로 표현하는 시스템 및 어플리케이션을 사용자에게 제공하는데 그 목적이 있다.Specifically, the present invention aims to provide a system and an application for analyzing emotional elements and contexts contained in a user's message using a machine learning-based artificial intelligence technology and expressing character emoticons in real time.

본 발명은 메시지 분석을 통해 맥락 데이터(감정, 환경, 사물 등 요소)를 인식하고, 이를 시각적 의사소통 도구인 이모티콘으로 재가공하는 인공지능 기술 융합을 사용자에게 제공하는 것에 목적이 있다.An object of the present invention is to provide a user with an artificial intelligence convergence that recognizes context data (emotion, environment, objects, etc.) through message analysis and re-processes the data into emoticons as visual communication tools.

또한, 본 발명은 텍스트를 입력하는 사용 환경을 고려해서 특정 서비스나 어플리케이션에 국한하지 않고 범용으로 쓸 수 있는 어플리케이션 및 API를 사용자에게 제공하는 것에 목적이 있다.It is also an object of the present invention to provide a user with an application and an API that can be used for general purposes without limiting to a specific service or application in consideration of a use environment for inputting text.

또한, 본 발명은 사용자의 대화 습관 패턴을 학습하여 사용할수록 정확해지는 워드벡터 기반의 인공지능 머신러닝 시스템을 구축하고, 사용자에게 제공하는 것에 목적이 있다.It is another object of the present invention to provide an artificial intelligence machine learning system based on a word vector that is more accurate as the user learns and uses the conversation habit pattern and provides the same to a user.

본 발명은 모바일 커뮤니케이션의 대부분을 차지하는 메시징 커뮤니케이션에 인공지능과 디자인 테크놀로지를 접목하여 더 정확하고 편리한 커뮤니케이션 경험을 제안하고, 번거로운 사용과 제한된 표현으로 텍스트 보조역할에 그치는 현재의 이모티콘 사용 경험을 혁신하여 인공지능이 대화를 분석하고 실시간으로 그래픽 요소를 재조합하여 무한한 표현이 가능하도록 하는 것이 목적이다.The present invention proposes a more accurate and convenient communication experience by combining artificial intelligence and design technology in messaging communication, which occupies most of mobile communication, and innovates the experience of using current emoticons, The goal is to enable intelligence to analyze the dialogue and recombine graphical elements in real time to enable unlimited expression.

또한, 본 발명은 메시지 어플리케이션 뿐만 아니라 입력 인터페이스를 사용하는 SNS, 블로그, 미디어 등에서 끊임없이 창작되는 콘텐츠에 디자인을 입히는 테크놀로지로 발전시키는 것이 목적이다.It is another object of the present invention to develop a technology for designing contents that are constantly created in SNS, blog, media and the like using an input interface as well as a message application.

한편, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It is to be understood that both the foregoing general description and the following detailed description of the present invention are exemplary and explanatory and are not intended to limit the invention to the precise form disclosed. It can be understood.

상술한 과제를 실현하기 위한 본 발명의 일예와 관련된 머신 러닝 기반의 인공지능 이모티콘 제공 시스템에 있어서, 적어도 하나의 제 1 컨텐츠가 입력되는 제 1 단말; 상기 제 1 단말로부터 상기 제 1 컨텐츠를 수신하고, 상기 제 1 컨텐츠에 포함된 텍스트를 미리 설정된 단위로 분류하여 복수의 제 2 텍스트를 생성하며, 상기 복수의 제 2 텍스트 중 미리 설정된 조건을 만족하는 적어도 하나의 제 3 텍스트를 필터링하고, 미리 저장된 복수의 이모티콘 중 상기 제 3 텍스트에 매칭되는 적어도 하나의 제 1 이모티콘을 결정하는 서버; 및 상기 서버로부터 상기 제 1 이모티콘을 수신하는 제 2 단말;을 포함할 수 있다.According to an embodiment of the present invention, there is provided a system for providing artificial intelligence emoticons based on a machine learning method, the system comprising: a first terminal for inputting at least one first content; A second terminal for receiving the first content from the first terminal, generating a plurality of second texts by classifying the text included in the first content into a predetermined unit, A server for filtering at least one third text and determining at least one first emoticon matching the third text among a plurality of previously stored emoticons; And a second terminal for receiving the first emoticon from the server.

또한, 상기 제 1 컨텐츠는, 텍스트 정보, 이미지 정보, 동영상 정보 및 음성 정보를 포함할 수 있다.The first content may include text information, image information, moving image information, and audio information.

또한, 상기 제 1 컨텐츠가 이미지 정보 또는 동영상 정보인 경우, 상기 서버는, 상기 이미지 정보 또는 동영상 정보에 포함된 텍스트를 추출하고, 상기 추출한 텍스트를 상기 미리 설정된 단위로 분류하여 상기 복수의 제 2 텍스트를 생성하며, 상기 제 1 컨텐츠가 음성 정보인 경우, 상기 서버는, 상기 음성 정보를 텍스트 정보로 변환하고, 상기 변환된 텍스트 정보를 상기 미리 설정된 단위로 분류하여 상기 복수의 제 2 텍스트를 생성할 수 있다.If the first content is image information or moving image information, the server extracts text included in the image information or moving image information, classifies the extracted text into the predetermined unit, If the first content is audio information, the server converts the audio information into text information, and generates the plurality of second texts by classifying the converted text information into the preset unit .

또한, 상기 미리 설정된 단위는 형태소 단위이고, 상기 서버는 상기 복수의 제 2 텍스트 중 적어도 일부를 기본형 동사로 변환할 수 있다.The predetermined unit may be a morpheme unit, and the server may convert at least some of the plurality of second texts to basic verbs.

또한, 상기 미리 설정된 조건은, 의미(meaning)를 갖는 텍스트인지 여부일 수 있다.In addition, the predetermined condition may be whether the text has a meaning.

또한, 상기 제 3 텍스트는 복수이고, 상기 복수의 제 3 텍스트에 매칭되는 제 1 이모티콘은 복수일 수 있다.The plurality of third texts may be plural, and the plurality of first emoticons matching the plurality of third texts may be plural.

또한, 상기 서버는, 상기 복수의 제 3 텍스트를 미리 지정된 복수의 카테고리 중 적어도 하나의 카테고리로 분류하고, 상기 분류된 상기 제 3 텍스트의 개수를 카테고리 별로 카운팅(counting)하며, 상기 카테고리 별로 카운팅 된 결과값을 각 카테고리에 속한 제 3 텍스트에 부여하고, 상기 미리 저장된 복수의 이모티콘 중 상기 복수의 제 3 텍스트에 매칭되는 복수의 제 1 이모티콘을 결정하며, 상기 복수의 제 3 텍스트 각각의 결과값에 따라 상기 복수의 제 1 이모티콘의 배치 순서를 결정할 수 있다.The server may classify the plurality of third texts into at least one category among a plurality of predetermined categories, count the number of the classified third texts by category, Assigning a result value to a third text belonging to each category, determining a plurality of first emoticons matching the plurality of third texts among the plurality of emoticons stored in advance, The arrangement order of the plurality of first emoticons can be determined.

또한, 상기 서버는, 상기 복수의 제 1 이모티콘과 상기 배치 순서를 상기 제 1 단말로 전송하고, 상기 제 1 단말은, 상기 복수의 제 1 이모티콘을 상기 배치 순서에 따라 표시하고, 상기 제 1 단말의 사용자가 상기 복수의 제 1 이모티콘 중 제 2 이모티콘을 선택하는 경우, 상기 제 2 이모티콘에 대한 정보를 상기 서버로 전송하며, 상기 서버는, 상기 제 2 이모티콘을 상기 제 2 단말로 전송할 수 있다.The server may transmit the plurality of first emoticons and the arrangement order to the first terminal, the first terminal displays the plurality of first emoticons according to the arrangement order, Transmits the information on the second emoticon to the server when the user of the first emoticon selects the second emoticon among the plurality of first emoticons, and the server can transmit the second emoticon to the second terminal.

또한, 상기 제 1 단말을 통해 적어도 하나의 제 2 컨텐츠가 추가 입력되는 경우, 상기 서버는 상기 제 1 단말로부터 상기 제 2 컨텐츠를 수신하고, 상기 제 2 컨텐츠에 포함된 텍스트를 미리 설정된 단위로 분류하여 복수의 제 2-2 텍스트를 생성하며, 상기 복수의 제 2-2 텍스트 중 미리 설정된 조건을 만족하는 적어도 하나의 제 3-2 텍스트를 필터링하고, 상기 미리 저장된 복수의 이모티콘 중 상기 제 3-2 텍스트에 매칭되는 적어도 하나의 제 1 이모티콘을 추가적으로 결정할 수 있다.When at least one second content is additionally input through the first terminal, the server receives the second content from the first terminal, classifies the text included in the second content into a predetermined unit Wherein the third-2-th text is generated by filtering the at least one third-2-th text satisfying a preset condition among the plurality of second-second texts, 2 < / RTI > text corresponding to the first emoticon.

또한, 상기 제 1 단말은 복수이고, 상기 복수의 제 1 단말, 제 2 단말 및 서버 간의 동작에 관련된 데이터는 상기 서버에 저장되며, 상기 서버는 상기 저장된 데이터를 누적하여 이용함으로써, 머신러닝(machine learning)을 수행할 수 있다.Also, the first terminal includes a plurality of first terminals, data related to operations between the first terminals, the second terminals and the server are stored in the server, and the server cumulatively uses the stored data, learning can be performed.

본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 안출된 것으로서, 머신 러닝 기반의 인공지능 이모티콘 서비스 제공 시스템을 사용자에게 제공할 수 있다.SUMMARY OF THE INVENTION The present invention has been made to overcome the above-mentioned problems, and it is an object of the present invention to provide a system for providing an artificial intelligent emoticons service based on a machine learning to a user.

구체적으로 본 발명은 사용자의 메시지에 담긴 감정 요소와 맥락을 머신러닝 기반의 인공지능 기술로 분석하고 캐릭터 이모티콘을 실시간으로 표현하는 시스템 및 어플리케이션을 사용자에게 제공할 수 있다.Specifically, the present invention can provide a system and an application for analyzing emotional elements and contexts contained in a user's message using a machine learning-based artificial intelligence technology and expressing character emoticons in real time.

또한, 본 발명은 메시지 분석을 통해 맥락 데이터(감정, 환경, 사물 등 요소)를 인식하고, 이를 시각적 의사소통 도구인 이모티콘으로 재가공하는 인공지능 기술 융합을 사용자에게 제공할 수 있다.In addition, the present invention can provide a user with artificial intelligence convergence that recognizes context data (emotion, environment, objects, etc.) through message analysis and re-processes the data into emoticons as visual communication tools.

또한, 본 발명은 텍스트를 입력하는 사용 환경을 고려해서 특정 서비스나 어플리케이션에 국한하지 않고 범용으로 쓸 수 있는 어플리케이션 및 API를 사용자에게 제공할 수 있다.In addition, the present invention can provide a user with an application and an API that can be used for general purposes without being limited to a specific service or application in consideration of a use environment for inputting text.

또한, 본 발명은 사용자의 대화 습관 패턴을 학습하여 사용할수록 정확해지는 워드벡터 기반의 인공지능 머신러닝 시스템을 구축하고, 사용자에게 제공할 수 있다.Further, according to the present invention, a word vector-based artificial intelligent machine learning system can be constructed and provided to a user as the learning habit pattern of a user is learned and used.

또한, 본 발명은 모바일 커뮤니케이션의 대부분을 차지하는 메시징 커뮤니케이션에 인공지능과 디자인 테크놀로지를 접목하여 더 정확하고 편리한 커뮤니케이션 경험을 제안하고, 번거로운 사용과 제한된 표현으로 텍스트 보조역할에 그치는 현재의 이모티콘 사용 경험을 혁신하여 인공지능이 대화를 분석하고 실시간으로 그래픽 요소를 재조합하여 무한한 표현이 가능하도록 할 수 있다.In addition, the present invention proposes a more accurate and convenient communication experience by combining artificial intelligence and design technology in messaging communication, which occupies most of the mobile communication, and provides the user with experience of present emoticon usage Allowing artificial intelligence to analyze the conversation and recombine graphic elements in real time to enable unlimited expression.

또한, 본 발명은 메시지 어플리케이션뿐만 아니라 입력 인터페이스를 사용하는 SNS, 블로그, 미디어 등에서 끊임없이 창작되는 콘텐츠에 디자인을 입히는 테크놀로지로 발전시킬 수 있다.In addition, the present invention can develop not only a message application but also a technology for designing contents that are constantly created in SNS, blog, media using an input interface.

또한, 본 발명은 구매한 캐릭터 이모티콘 콘텐츠를 반복적으로 사용하는 기존의 사용 방식과 달리 키워드, 감정, 사용빈도, 기호, 기후, 날짜, 시간, 장소, 이슈 등 다양한 변수를 분석하고 조합하여 매번 새로운 디자인 사용이 가능하다.The present invention analyzes and combines various variables such as keywords, emotion, usage frequency, preference, climate, date, time, place, issue, and the like, unlike the conventional usage method in which the purchased character emoticon contents are repeatedly used, It is possible to use.

또한, 본 발명은 입력하는 단어나 기호(개수) 요소에 따라 캐릭터 이모티콘 표현이 실시간으로 변화하여 사용자는 자신의 감정을 확인하고 표현할 수 있다.In addition, according to the present invention, a character emoticon expression changes in real time according to an input word or a symbol (number) element, so that a user can identify and express his / her emotions.

또한, 본 발명은 사용자 친화적인 UX 디자인을 통해 연산과정에서 발생하는 딜레이와 같은 기술적인 제약을 줄이고 커뮤니케이션 과정을 좀 더 사용자에게 친숙하게 전달할 수 있다.In addition, the present invention can reduce the technical constraints such as delays generated in the calculation process through the user-friendly UX design and communicate the communication process more intimately to the user.

또한, 본 발명은 머신 러닝을 통해 인공지능의 정확도를 지속적으로 높여갈 수 있다.Further, the present invention can continuously improve the accuracy of artificial intelligence through machine learning.

한편, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It should be understood, however, that the effects obtained by the present invention are not limited to the above-mentioned effects, and other effects not mentioned may be clearly understood by those skilled in the art to which the present invention belongs It will be possible.

본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 일 실시례를 예시하는 것이며, 발명의 상세한 설명과 함께 본 발명의 기술적 사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석 되어서는 아니 된다.
도 1은 본 발명이 제안하는 머신 러닝 기반의 인공지능 이모티콘 서비스 제공 시스템의 블록구성도를 도시한 것이다.
도 2는 본 발명에 적용되는 단말 또는 서버의 블록구성도를 도시한 것이다.
도 3은 본 발명이 제안하는 머신 러닝 기반의 인공지능 이모티콘 서비스 제공 방법을 설명하기 위한 순서도이다.
도 4는 도 3에서 설명한 머신 러닝 기반의 인공지능 이모티콘 서비스 제공 방법의 각 단계의 구체적인 일례를 도시한 것이다.
도 5는 본 발명과 관련하여, 사용자의 감정의 변화 또는 감정의 강도 변화에 따라 표현되는 이모티콘이 변화되는 구체적인 일례를 도시한 것이다.
도 6은 본 발명의 다른 일 실시예와 관련하여, 연관성 순으로 이모티콘을 배열하여 사용자가 선택하는 방법을 설명하는 순서도이다.
도 7은 본 발명의 또 다른 일 실시예와 관련하여, 이모티콘의 전송 전에 사용자로부터 추가적인 메시지가 입력되는 경우, 실시간으로 이를 반영하여 연관성 있는 이모티콘을 사용자가 선택하는 방법을 설명하는 순서도이다.
도 8은 도 6 또는 도 7에서 사용자가 입력한 컨텐츠를 통해 형태소를 분석하는 구체적인 일례를 도시한 것이다.
도 9는 도 8에서 분석된 형태소를 기초로 키워드를 추출하는 본 발명의 구체적인 일례를 도시한 것이다.
도 10은 도 9에서 추출한 키워드를 기초로 데이터 베이스 내 연관성 있는 이모티콘을 매칭하는 구체적인 작업의 일례를 도시한 것이다.
도 11은 도 10에서 매칭된 이모티콘을 연관성 순으로 사용자에게 배열하여 표시하는 구체적인 일례를 도시한 것이다.
도 12는 도 11에서 표시된 복수의 이모티콘 중 하나를 사용자가 선택하여, 선택한 이모티콘을 전송하는 구체적인 일례를 도시한 것이다.
도 13은 도 12에서 이모티콘의 전송 전에 사용자로부터 추가적인 메시지가 입력되는 경우, 실시간으로 이를 반영하는 구체적인 일례를 도시한 것이다.
도 14 및 도 15는 본 발명과 관련하여, 영어의 경우에 머신 러닝 기반의 인공지능 이모티콘 서비스를 제공하는 구체적인 일례를 도시한 것이다.
BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are incorporated in and constitute a part of the specification, illustrate a preferred embodiment of the invention and, together with the description, serve to provide a further understanding of the technical idea of the invention, It should not be construed as limited.
FIG. 1 is a block diagram of a machine learning based artificial intelligence emoticon service providing system proposed by the present invention.
2 is a block diagram of a terminal or a server according to the present invention.
FIG. 3 is a flowchart for explaining a method of providing an artificial intelligent emoticons service based on the machine learning proposed by the present invention.
FIG. 4 shows a concrete example of each step of the artificial intelligence emoticon service providing method based on the machine learning shown in FIG.
FIG. 5 shows a specific example in which the emoticon expressed in accordance with the change of the emotion of the user or the intensity of the emotion is changed, in the context of the present invention.
FIG. 6 is a flowchart illustrating a method of arranging emoticons in order of relevance and selecting by the user, according to another embodiment of the present invention.
7 is a flowchart illustrating a method for a user to select a related emoticon in real time when an additional message is input from a user before transmission of the emoticon is performed, according to another embodiment of the present invention.
FIG. 8 shows a specific example of analyzing the morpheme through the contents inputted by the user in FIG. 6 or FIG.
FIG. 9 shows a specific example of the present invention for extracting keywords based on the morpheme analyzed in FIG.
FIG. 10 shows an example of a concrete work for matching the related emoticons in the database based on the keyword extracted in FIG.
FIG. 11 shows a concrete example of arranging and matching emoticons matched in FIG. 10 to users in order of relevance.
FIG. 12 shows a specific example in which the user selects one of the plurality of emoticons displayed in FIG. 11 and transmits the selected emoticons.
FIG. 13 shows a specific example in which, when an additional message is input from the user before transmission of the emoticon in FIG. 12, it is reflected in real time.
14 and 15 show a specific example of providing a machine learning based artificial intelligence emoticone service in the case of English in connection with the present invention.

이모티콘(Emoji) 시장은 밀레니엄 세대를 중심으로 확산되었으며 현재는 세대를 가리지 않고 대중적으로 사용되며 지난해 기준 하루에 전 세계 60억 건 이상의 이모티콘이 전송되었다고 한다(2015년, Oxford University).The emoji market has spread around the millennial generation and is now widely used by generations, with more than 6 billion emoticons around the world sent in a day as of last year (Oxford University in 2015).

이모티콘은 간편한 사용, 다양한 감정 표현으로 진화하고 있으며 텍스트 커뮤니케이션에 즐거움을 주는 보조 수단에서 텍스트의 한계를 보완하는 새로운 방식의 커뮤니케이션 수단으로 진화해나가고 있다.Emoticons evolve into easy-to-use, diverse emotional expressions and evolve into new ways of communication that complement the limitations of text in ancillary means of enjoying text communication.

이모티콘 (Emoji) 해외시장으로, 페이스북은 별도 메신저 어플리케이션으로 무료 이모티콘을 서비스하고 있고, 중국 위챗은 유료 이모티콘을 판매한다.Emoji As a foreign market, Facebook offers free emoticons as a separate messenger application, and China Wichat sells paid emoticons.

또한, 스냅챗은 최근 1억 달러(약 1167억원)에 개인의 이모티콘을 제작해주는 Bitstrips을 인수하였다(2016년).In addition, Snapchat recently acquired Bitstrips (2016), which produces personal emoticons for $ 100 million.

국내시장으로 이모티콘(이모지) 시장은 1000억 규모로 캐릭터 인형 등 파생상품 시장까지 더하면 2000억원대로 추산되며 매년 사용량과 매출액에 있어 연 30-40% 사이의 급격한 성장세를 보이고 있다(2015년).The domestic market for emoji (emoji) is estimated to be 100 billion won, and the figure for character doll is estimated to be 200 billion won. The annual usage and sales are growing rapidly between 30-40% annually (2015).

카카오톡에서 사용되는 이모티콘 수는 하루 평균 2억 개에 달하며 이모티콘 스토어 방문자는 월평균 2700만 명으로 카카오톡 이용자 10명 중 7명은 월 1회 이상 이모티콘 스토어를 이용하고 있다(2015년).The average number of emoticons used in KakaoTalk is 200 million a day, and the monthly average of visitors to the emoticons store is 27 million. Seven of 10 users of KakaoTalk use the emoticons store more than once a month (2015).

현재, 닌텐도에서 2016년 출시한 '미토모(Miitomo)는 자신은 닮은 아바타를 생성하고 활용하는 게임으로 출시 3일만에 100만 다운로드를 기록하는 등 좋은 반응을 얻고 있다.Currently, Nintendo's Miitomo, launched in 2016, is a game that creates and utilizes similar avatars, and has gained a good response, with a million downloads in three days.

또한, 캐릭터를 포함하는 것이 아니라 인터넷상에 유행하는 GIF파일을 태그로 분류하여 적절한 결과물을 찾아주는 키보드 어플 Fleksy, SharingGIF도 많은 사용자가 즐겨 사용하고 있다.In addition, many users like Fleksy and SharingGIF are using the keyboard applications Fleksy and SharingGIF, which not only include characters but also sort out GIF files that are popular on the Internet by tags and find appropriate results.

결국, 단말을 이용한 모바일 환경에서 사용자의 소통하는 방식은 점차 비주얼 커뮤니케이션 중심으로 이동하고 있으며, 사용자가 전달하고자 하는 메시지를 시각화하여 디자인해주는 에이전트가 필요하다.As a result, in a mobile environment using a terminal, a method of communicating a user is gradually moving toward the center of visual communication, and an agent for visualizing and designing a message to be transmitted by the user is needed.

현재 단말 사용자 자신만의 감성 표현을 위해 다양한 아이콘, 사진 등으로 소통하려는 시도가 있지만, 그 과정이 번거로워 섬세하고 풍부한 표현이 어렵다는 문제점이 있다.Currently, there are attempts to communicate with various icons, pictures, etc. in order to express their own emotions. However, the process is complicated and difficult to express delicately and richly.

따라서 인공지능과 디자인 테크놀로지를 더하고 다양한 캐릭터를 융합하여 즐거운 사용자 경험을 제공하는 방법이 요구되고 있다.Therefore, it is required to add artificial intelligence and design technology and to combine various characters to provide a pleasant user experience.

본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 안출된 것으로서, 머신 러닝 기반의 인공지능 이모티콘 서비스 제공 시스템을 사용자에게 제공하고자 한다.SUMMARY OF THE INVENTION Accordingly, the present invention has been made to solve the above-mentioned problems occurring in the prior art, and an object of the present invention is to provide a system for providing an artificial intelligent emoticons service based on a machine learning.

구체적으로 본 발명은 사용자의 메시지에 담긴 감정 요소와 맥락을 머신러닝 기반의 인공지능 기술로 분석하고 캐릭터 이모티콘을 실시간으로 표현하는 시스템 및 어플리케이션을 사용자에게 제공하는데 그 목적이 있다.Specifically, the present invention aims to provide a system and an application for analyzing emotional elements and contexts contained in a user's message using a machine learning-based artificial intelligence technology and expressing character emoticons in real time.

본 발명은 메시지 분석을 통해 맥락 데이터(감정, 환경, 사물 등 요소)를 인식하고, 이를 시각적 의사소통 도구인 이모티콘으로 재가공하는 인공지능 기술 융합을 사용자에게 제공하는 것에 목적이 있다.An object of the present invention is to provide a user with an artificial intelligence convergence that recognizes context data (emotion, environment, objects, etc.) through message analysis and re-processes the data into emoticons as visual communication tools.

또한, 본 발명은 텍스트를 입력하는 사용 환경을 고려해서 특정 서비스나 어플리케이션에 국한하지 않고 범용으로 쓸 수 있는 어플리케이션 및 API를 사용자에게 제공하는 것에 목적이 있다.It is also an object of the present invention to provide a user with an application and an API that can be used for general purposes without limiting to a specific service or application in consideration of a use environment for inputting text.

또한, 본 발명은 사용자의 대화 습관 패턴을 학습하여 사용할수록 정확해지는 워드벡터 기반의 인공지능 머신러닝 시스템을 구축하고, 사용자에게 제공하는 것에 목적이 있다.It is another object of the present invention to provide an artificial intelligence machine learning system based on a word vector that is more accurate as the user learns and uses the conversation habit pattern and provides the same to a user.

또한, 본 발명은 모바일 커뮤니케이션의 대부분을 차지하는 메시징 커뮤니케이션에 인공지능과 디자인 테크놀로지를 접목하여 더 정확하고 편리한 커뮤니케이션 경험을 제안하고, 번거로운 사용과 제한된 표현으로 텍스트 보조역할에 그치는 현재의 이모티콘 사용 경험을 혁신하여 인공지능이 대화를 분석하고 실시간으로 그래픽 요소를 재조합하여 무한한 표현이 가능하도록 하는 것에 목적이 있다.In addition, the present invention proposes a more accurate and convenient communication experience by combining artificial intelligence and design technology in messaging communication, which occupies most of the mobile communication, and provides the user with experience of present emoticon usage The purpose of the artificial intelligence is to analyze the conversation and to reconfigure the graphical elements in real time to enable infinite representation.

또한, 본 발명은 메시지 어플리케이션뿐만 아니라 입력 인터페이스를 사용하는 SNS, 블로그, 미디어 등에서 끊임없이 창작되는 콘텐츠에 디자인을 입히는 테크놀로지로 발전시키는 것이 목적이다.It is another object of the present invention to develop a technology for designing contents that are constantly created in SNS, blog, media and the like using an input interface as well as a message application.

도 1은 본 발명이 제안하는 머신 러닝 기반의 인공지능 이모티콘 서비스 제공 시스템의 블록구성도를 도시한 것이다.FIG. 1 is a block diagram of a machine learning based artificial intelligence emoticon service providing system proposed by the present invention.

도 1을 참조하면, 본 발명이 제안하는 머신 러닝 기반의 인공지능 이모티콘 서비스 제공 시스템(1)은 컨텐츠 입력부(2), 이모티콘 생성부(3) 및 이모티콘 수신부(4)로 나뉠 수 있다.Referring to FIG. 1, a machine learning based artificial intelligence emoticon service providing system 1 proposed by the present invention can be divided into a content input unit 2, an emoticon generating unit 3, and an emoticon receiving unit 4.

컨텐츠 입력부(2)는 사용자로부터 텍스트, 보이스, 이미지, 동영상 등의 컨텐츠를 입력받는 기능을 제공한다.The content input unit 2 provides a function of receiving contents such as text, voice, image, and moving picture from a user.

다음으로, 이모티콘 생성부(3)는 컨텐츠 입력부(2)를 통해 입력받은 컨텐츠를 기초로 맥락을 파악하여 가장 적절한 이모티콘으로 자동 변환하고 전송하는 기능을 제공한다.Next, the emoticon generation unit 3 provides a function of recognizing the context based on the content input through the content input unit 2, automatically converting the context into the most appropriate emoticon, and transmitting the emoticon.

또한, 이모티콘 수신부(4) 는 이모티콘 생성부(3)로부터 이모티콘 데이터를 수신하여 사용자에게 표시하는 기능을 제공한다.The emoticon receiving unit 4 also provides a function of receiving emoticon data from the emoticon generating unit 3 and displaying it to the user.

컨텐츠 입력부(2), 이모티콘 생성부(3) 및 이모티콘 수신부(4) 각각은 단말 또는 서버가 될 수 있다.Each of the content input unit 2, the emoticon generating unit 3, and the emoticon receiving unit 4 may be a terminal or a server.

또한, 컨텐츠 입력부(2), 이모티콘 생성부(3) 및 이모티콘 수신부(4)는 근거리 통신 또는 원거리 통신을 이용하여 서로 간의 데이터를 교환할 수 있다.In addition, the content input unit 2, the emoticon generation unit 3, and the emoticon reception unit 4 can exchange data with each other using short-distance communication or long-distance communication.

여기서 적용되는 근거리 통신은 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee, Wi-Fi (Wireless Fidelity) 기술을 포함할 수 있다.The local area communication applied herein may include Bluetooth, Radio Frequency Identification (RFID), infrared data association (IrDA), Ultra Wideband (UWB), ZigBee, and Wi-Fi (Wireless Fidelity) technology.

또한, 적용되는 원거리 통신은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 기술을 포함할 수 있다.Also, the applicable telecommunication may be a code division multiple access (CDMA), a frequency division multiple access (FDMA), a time division multiple access (TDMA), an orthogonal frequency division multiple access (OFDMA), a single carrier frequency division multiple access ) Technology.

본 발명이 제안하는 머신 러닝 기반의 인공지능 이모티콘 서비스 제공 시스템(1)의 기능을 설명하기에 앞서, 컨텐츠 입력부(2), 이모티콘 생성부(3) 또는 이모티콘 수신부(4)이 될 수 있는 단말 또는 서버에 대해 구체적으로 설명한다.Before describing the function of the machine learning-based artificial intelligence emoticon service providing system 1 proposed by the present invention, the contents input unit 2, the emoticon generating unit 3, or the terminal which can be the emoticon receiving unit 4 Describe the server in detail.

도 2는 본 발명에 적용되는 단말 또는 서버의 블록구성도를 도시한 것이다.2 is a block diagram of a terminal or a server according to the present invention.

도 2를 참조하면 단말 또는 서버(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 2, the terminal or server 100 includes a wireless communication unit 110, an A / V input unit 120, a user input unit 130, a sensing unit 140, an output unit 150, An interface unit 170, a control unit 180, a power supply unit 190, and the like.

단, 도 2에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 단말 또는 서버(100) 장치가 구현될 수도 있다.However, the components shown in FIG. 2 are not essential, so that a terminal or server 100 device having more or fewer components may be implemented.

이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.

무선 통신부(110)는 단말 장치와 무선 통신 시스템 사이 또는 단말 장치와 단말 장치가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.The wireless communication unit 110 may include one or more modules for enabling wireless communication between the terminal apparatus and the wireless communication system or between the terminal apparatus and the network in which the terminal apparatus is located. For example, the wireless communication unit 110 may include a broadcast receiving module 111, a mobile communication module 112, a wireless Internet module 113, a short range communication module 114, and a location information module 115 .

방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. The broadcast receiving module 111 receives broadcast signals and / or broadcast-related information from an external broadcast management server through a broadcast channel.

상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다. The broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may refer to a server for generating and transmitting broadcast signals and / or broadcast related information, or a server for receiving broadcast signals and / or broadcast related information generated by the broadcast management server and transmitting the generated broadcast signals and / or broadcast related information. The broadcast signal may include a TV broadcast signal, a radio broadcast signal, a data broadcast signal, and a broadcast signal in which a data broadcast signal is combined with a TV broadcast signal or a radio broadcast signal.

상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다.The broadcast-related information may refer to a broadcast channel, a broadcast program, or information related to a broadcast service provider. The broadcast-related information may also be provided through a mobile communication network. In this case, it may be received by the mobile communication module 112.

상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.The broadcast-related information may exist in various forms. For example, an EPG (Electronic Program Guide) of DMB (Digital Multimedia Broadcasting) or an ESG (Electronic Service Guide) of Digital Video Broadcast-Handheld (DVB-H).

상기 방송 수신 모듈(111)은, 예를 들어, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템뿐만 아니라 다른 방송 시스템에 적합하도록 구성될 수도 있다.For example, the broadcast receiving module 111 may be a Digital Multimedia Broadcasting-Terrestrial (DMB-T), a Digital Multimedia Broadcasting-Satellite (DMB-S), a Media Forward Link Only And a Digital Broadcasting System (ISDB-T) (Integrated Services Digital Broadcast-Terrestrial). Of course, the broadcast receiving module 111 may be adapted to other broadcasting systems as well as the digital broadcasting system described above.

방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(160)에 저장될 수 있다.The broadcast signal and / or broadcast related information received through the broadcast receiving module 111 may be stored in the memory 160.

이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The mobile communication module 112 transmits and receives radio signals to at least one of a base station, an external terminal, and a server on a mobile communication network. The wireless signal may include various types of data depending on a voice call signal, a video call signal or a text / multimedia message transmission / reception.

무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 단말 장치에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The wireless Internet module 113 refers to a module for wireless Internet access, and may be built in or enclosed in a terminal device. WLAN (Wi-Fi), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access) and the like can be used as wireless Internet technologies.

근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short-range communication module 114 refers to a module for short-range communication. Bluetooth, Radio Frequency Identification (RFID), infrared data association (IrDA), Ultra Wideband (UWB), ZigBee, and the like can be used as a short range communication technology.

위치정보 모듈(115)은 단말 장치의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다.The position information module 115 is a module for obtaining the position of the terminal device, and a representative example thereof is a Global Position System (GPS) module.

도 2를 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.Referring to FIG. 2, an A / V (Audio / Video) input unit 120 is for inputting an audio signal or a video signal, and may include a camera 121 and a microphone 122. The camera 121 processes an image frame such as a still image or moving image obtained by the image sensor in the video communication mode or the photographing mode. The processed image frame can be displayed on the display unit 151. [

카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 사용 환경에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 121 may be stored in the memory 160 or transmitted to the outside through the wireless communication unit 110. [ Two or more cameras 121 may be provided depending on the use environment.

마이크(122)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 122 receives an external sound signal through a microphone in a communication mode, a recording mode, a voice recognition mode, or the like, and processes it as electrical voice data. The processed voice data can be converted into a form that can be transmitted to the mobile communication base station through the mobile communication module 112 when the voice data is in the call mode, and output. Various noise reduction algorithms may be implemented in the microphone 122 to remove noise generated in receiving an external sound signal.

사용자 입력부(130)는 사용자가 단말기의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. The user input unit 130 generates input data for a user to control the operation of the terminal. The user input unit 130 may include a key pad dome switch, a touch pad (static / static), a jog wheel, a jog switch, and the like.

센싱부(140)는 단말 장치의 개폐 상태, 단말 장치의 위치, 사용자 접촉 유무, 단말 장치의 방위, 단말 장치의 가속/감속 등과 같이 단말 장치의 현 상태를 감지하여 단말 장치의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들어 단말 장치가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등을 센싱할 수도 있다. 한편, 상기 센싱부(140)는 근접 센서(141)를 포함할 수 있다. The sensing unit 140 senses the current state of the terminal device, such as the open / close state of the terminal device, the position of the terminal device, the presence or absence of user contact, the orientation of the terminal device, Thereby generating a sensing signal. For example, when the terminal device is in the form of a slide phone, it is possible to sense whether the slide phone is opened or closed. It is also possible to sense whether the power supply unit 190 is powered on, whether the interface unit 170 is connected to an external device, and the like. Meanwhile, the sensing unit 140 may include a proximity sensor 141.

출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(152), 알람부(153), 햅틱 모듈(154) 및 프로젝터 모듈(155) 등이 포함될 수 있다.The output unit 150 is for generating an output relating to visual, auditory or tactile sense and includes a display unit 151, an acoustic output module 152, an alarm unit 153, a haptic module 154, 155), and the like.

디스플레이부(151)는 단말 장치에서 처리되는 정보를 표시(출력)한다. 예를 들어, 단말 장치가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 단말 장치가 화상 통화 모드 또는 촬영 모드인 경우에는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다. The display unit 151 displays (outputs) information processed by the terminal apparatus. For example, when the terminal device is in the call mode, a UI (User Interface) or GUI (Graphic User Interface) associated with the call is displayed. When the terminal device is in the video communication mode or the photographing mode, the photographed and / or received video or UI and GUI are displayed.

디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The display unit 151 may be a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), a flexible display display, and a 3D display.

이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 단말기 바디의 디스플레이부(151)가 차지하는 영역을 통해 단말기 바디의 후방에 위치한 사물을 볼 수 있다.Some of these displays may be transparent or light transmissive so that they can be seen through. This can be referred to as a transparent display, and a typical example of the transparent display is TOLED (Transparent OLED) and the like. The rear structure of the display unit 151 may also be of a light transmission type. With this structure, the user can see an object located behind the terminal body through the area occupied by the display unit 151 of the terminal body.

단말 장치의 구현 형태에 따라 디스플레이부(151)이 2개 이상 존재할 수 있다. 예를 들어, 단말 장치에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다. There may be two or more display units 151 depending on the implementation of the terminal apparatus. For example, in the terminal device, the plurality of display portions may be spaced apart or arranged integrally on one surface, and may be disposed on different surfaces, respectively.

디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.(Hereinafter, referred to as a 'touch screen') in which a display unit 151 and a sensor for sensing a touch operation (hereinafter, referred to as 'touch sensor') form a mutual layer structure, It can also be used as an input device. The touch sensor may have the form of, for example, a touch film, a touch sheet, a touch pad, or the like.

터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensor may be configured to convert a change in a pressure applied to a specific portion of the display unit 151 or a capacitance generated in a specific portion of the display unit 151 into an electrical input signal. The touch sensor can be configured to detect not only the position and area to be touched but also the pressure at the time of touch.

터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and transmits the corresponding data to the controller 180. Thus, the control unit 180 can know which area of the display unit 151 is touched or the like.

상기 근접 센서(141)는 상기 터치스크린에 의해 감싸지는 단말 장치의 내부 영역 또는 상기 터치 스크린의 근처에 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다. The proximity sensor 141 may be disposed in an inner region of the terminal device to be wrapped by the touch screen or in the vicinity of the touch screen. The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or a nearby object without mechanical contact using the force of an electromagnetic field or infrared rays. The proximity sensor has a longer life span than the contact sensor and its utilization is also high.

상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.Examples of the proximity sensor include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. And to detect the proximity of the pointer by the change of the electric field along the proximity of the pointer when the touch screen is electrostatic. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.

이하에서는 설명의 편의를 위해, 상기 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다.Hereinafter, for convenience of explanation, the act of recognizing that the pointer is positioned on the touch screen while the pointer is not in contact with the touch screen is referred to as "proximity touch & The act of actually touching the pointer on the screen is called "contact touch. &Quot; The position where the pointer is proximately touched on the touch screen means a position where the pointer is vertically corresponding to the touch screen when the pointer is touched.

상기 근접센서는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다. The proximity sensor detects a proximity touch and a proximity touch pattern (e.g., a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, a proximity touch movement state, and the like). Information corresponding to the detected proximity touch operation and the proximity touch pattern may be output on the touch screen.

또한, 색 감지 센서(142)는 외부의 대상에 포함된 색을 식별하는 기능을 제공하는 센서이다.In addition, the color sensor 142 is a sensor that provides a function of identifying a color included in an external object.

색 감지 센서(142)는 포토다이오드와 색 필터를 조합시켜 구성되는 색 식별센서로서, 특정한 색의 광량을 측정하는 단색의 색센서와, 중간색의 식별이 가능한 집적형 색센서가 있다. The color detection sensor 142 is a color identification sensor configured by combining a photodiode and a color filter. There are a monochromatic color sensor for measuring the amount of light of a specific color and an integrated color sensor capable of identifying a neutral color.

단색의 색 센서는 비결정성, Si 포토다이오드의 앞면에 특정한 색투과 특성을 가진 필터를 접착한 것으로서, 입사광은 색필터에 의하여 어느 범위에 파장만이 투과하여 포토다이오드에 도달한다. The monochromatic color sensor is a non-crystalline, adhered filter having a specific color transmission characteristic on the front surface of a Si photodiode. The incident light reaches a photodiode only through a wavelength in a certain range by a color filter.

집적형 색센서는 1개의 기판 위에 집적된 3개의 포토다이오드의 앞면에 빛의 3원색에 상당하는 적(R), 녹(G), 청(B)의 필터를 접착한 것이다. In the integrated color sensor, red (R), green (G), and blue (B) filters corresponding to the three primary colors of light are bonded to the front surfaces of three photodiodes integrated on one substrate.

그 때문에 입사광은 R, G, B의 성분만이 각 포토다이오드에 도달하기 때문에 빛의 3원색의 원리에 따라 본래의 색을 식별할 수 있다.Therefore, since only the R, G, and B components reach the respective photodiodes, the original color can be identified according to the principle of the three primary colors of light.

또한, 본 발명에 따른 색 감지 센서(142)는 카메라(121)를 통해 촬영된 대상에 포함된 적어도 하나의 색을 감지하는 기능을 제공할 수도 있다.In addition, the color sensing sensor 142 according to the present invention may provide a function of sensing at least one color included in an object photographed through the camera 121. [

또한, 디스플레이부(151)는 외부로 빛을 발산하는 빛 출력 기능을 제공할 수도 있다.Also, the display unit 151 may provide a light output function for emitting light to the outside.

현재, 단말 또는 서버(100)에서 빛 출력 기능은 손전등 기능 등으로 제공되고 있다.Currently, the light output function in the terminal or the server 100 is provided as a flashlight function or the like.

이러한 빛 출력 기능은 LED를 이용하는 구조를 통해 제공될 수도 있다.Such a light output function may be provided through a structure using an LED.

단, 본 발명의 구성이 이에 한정되는 것은 아니고 빛을 외부로 발산하는 기술적 내용이 모두 접목될 수 있음은 자명하다.However, the present invention is not limited thereto, and it is obvious that all the technical contents for emitting light to the outside can be applied.

음향 출력 모듈(152)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(152)은 단말 장치에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The audio output module 152 may output audio data received from the wireless communication unit 110 or stored in the memory 160 in a call signal reception mode, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, The sound output module 152 also outputs sound signals related to functions (e.g., call signal reception tones, message reception tones, etc.) performed in the terminal device. The audio output module 152 may include a receiver, a speaker, a buzzer, and the like.

알람부(153)는 단말 장치의 이벤트 발생을 알리기 위한 신호를 출력한다. 단말 장치에서 발생 되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부(153)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 상기 비디오 신호나 오디오 신호는 디스플레이부(151)나 음성 출력 모듈(152)을 통해서도 출력될 수 있어서, 그들(151,152)은 알람부(153)의 일부로 분류될 수도 있다.The alarm unit 153 outputs a signal for notifying the occurrence of an event of the terminal device. Examples of events that occur in a terminal device include receiving a call signal, receiving a message, inputting a key signal, and touch input. The alarm unit 153 may output a signal for notifying the occurrence of an event in a form other than the video signal or the audio signal, for example, vibration. The video signal or the audio signal may be output through the display unit 151 or the audio output module 152 so that they may be classified as a part of the alarm unit 153.

햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어가능하다. 예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다. The haptic module 154 generates various tactile effects that the user can feel. A typical example of the haptic effect generated by the haptic module 154 is vibration. The intensity and pattern of the vibration generated by the hit module 154 can be controlled. For example, different vibrations may be synthesized and output or sequentially output.

햅틱 모듈(154)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(eletrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다. In addition to the vibration, the haptic module 154 may include a pin arrangement vertically moving with respect to the contact skin surface, a spraying force or a suction force of the air through the injection port or the suction port, a touch on the skin surface, contact with an electrode, And various tactile effects such as an effect of reproducing a cold sensation using an endothermic or exothermic element can be generated.

햅틱 모듈(154)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(154)은 휴대 단말기의 구성 태양에 따라 2개 이상이 구비될 수 있다.The haptic module 154 can be implemented not only to transmit the tactile effect through the direct contact but also to allow the user to feel the tactile effect through the muscular sensation of the finger or arm. At least two haptic modules 154 may be provided according to the configuration of the portable terminal.

프로젝터 모듈(155)은, 단말 장치를 이용하여 이미지 프로젝트(project) 기능을 수행하기 위한 구성요소로서, 제어부(180)의 제어 신호에 따라 디스플레이부(151)상에 디스플레이되는 영상과 동일하거나 적어도 일부가 다른 영상을 외부 스크린 또는 벽에 디스플레이할 수 있다.The projector module 155 is a component for performing an image project function using the terminal device and may have the same or at least a part of the image displayed on the display part 151 in accordance with a control signal of the control part 180 Can display other images on an external screen or wall.

구체적으로, 프로젝터 모듈(155)은, 영상을 외부로 출력하기 위한 빛(일 예로서, 레이저 광)을 발생시키는 광원(미도시), 광원에 의해 발생한 빛을 이용하여 외부로 출력할 영상을 생성하기 위한 영상 생성 수단 (미도시), 및 영상을 일정 초점 거리에서 외부로 확대 출력하기 위한 렌즈(미도시)를 포함할 수 있다. 또한, 프로젝터 모듈(155)은, 렌즈 또는 모듈 전체를 기계적으로 움직여 영상 투사 방향을 조절할 수 있는 장치(미도시)를 포함할 수 있다.Specifically, the projector module 155 includes a light source (not shown) that generates light (for example, laser light) for outputting an image to the outside, a light source And a lens (not shown) for enlarging and outputting the image at a predetermined focal distance to the outside. Further, the projector module 155 may include a device (not shown) capable of mechanically moving the lens or the entire module to adjust the image projection direction.

프로젝터 모듈(155)은 디스플레이 수단의 소자 종류에 따라 CRT(Cathode Ray Tube) 모듈, LCD(Liquid Crystal Display) 모듈 및 DLP(Digital Light Processing) 모듈 등으로 나뉠 수 있다. 특히, DLP 모듈은, 광원에서 발생한 빛이 DMD(Digital Micromirror Device) 칩에 반사됨으로써 생성된 영상을 확대 투사하는 방식으로 프로젝터 모듈(151)의 소형화에 유리할 수 있다.The projector module 155 can be divided into a CRT (Cathode Ray Tube) module, an LCD (Liquid Crystal Display) module and a DLP (Digital Light Processing) module according to the type of the display means. In particular, the DLP module may be advantageous for miniaturization of the projector module 151 by enlarging and projecting an image generated by reflecting light generated from a light source on a DMD (Digital Micromirror Device) chip.

바람직하게, 프로젝터 모듈(155)은, 단말 장치의 측면, 정면 또는 배면에 길이 방향으로 구비될 수 있다. 물론, 프로젝터 모듈(155)은, 필요에 따라 단말 장치의 어느 위치에라도 구비될 수 있음은 당연하다.Preferably, the projector module 155 may be provided on the side, front or back side of the terminal device in the longitudinal direction. It goes without saying that the projector module 155 may be provided at any position of the terminal device as needed.

메모리부(160)는 제어부(180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 전화번호부, 메시지, 오디오, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. 상기 메모리부(160)에는 상기 데이터들 각각에 대한 사용 빈도(예를 들면, 각 전화번호, 각 메시지, 각 멀티미디어에 대한 사용빈도)도 함께 저장될 수 있다. 또한, 상기 메모리부(160)에는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The memory unit 160 may store a program for processing and controlling the control unit 180 and temporarily store the input / output data (e.g., telephone directory, message, audio, For example. The memory unit 160 may also store the frequency of use of each of the data (for example, each telephone number, each message, and frequency of use for each multimedia). In addition, the memory unit 160 may store data on vibration and sound of various patterns output when the touch is input on the touch screen.

메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 단말 장치는 인터넷(internet)상에서 상기 메모리(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The memory 160 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), a RAM (Random Access Memory), SRAM (Static Random Access Memory), ROM (Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM A disk, and / or an optical disk. The terminal device may operate in association with a web storage that performs a storage function of the memory 160 on the Internet.

인터페이스부(170)는 단말 장치에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 단말 장치 내부의 각 구성 요소에 전달하거나, 단말 장치 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다. The interface unit 170 serves as a path for communication with all external devices connected to the terminal device. The interface unit 170 receives data from an external device, receives power from the external device, transfers the data to each component in the terminal device, or transmits data in the terminal device to an external device. For example, a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, a port for connecting a device having an identification module, an audio I / O port, A video input / output (I / O) port, an earphone port, and the like may be included in the interface unit 170.

식별 모듈은 단말 장치의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 단말기와 연결될 수 있다. The identification module is a chip for storing various kinds of information for authenticating the use right of the terminal device and includes a user identification module (UIM), a subscriber identity module (SIM), a universal user identity module Module, USIM), and the like. Devices with identification modules (hereinafter referred to as "identification devices") can be manufactured in a smart card format. Therefore, the identification device can be connected to the terminal through the port.

상기 인터페이스부는 이동단말기가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 이동단말기에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동단말기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동단말기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.The interface unit may be a path through which power from the cradle is supplied to the mobile terminal when the mobile terminal is connected to an external cradle or a channel through which various command signals input from the cradle by the user are transmitted to the mobile terminal . The various command signals or the power source input from the cradle may be operated as a signal for recognizing that the mobile terminal is correctly mounted on the cradle.

제어부(controller, 180)는 통상적으로 단말 장치의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(181)은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다.The controller 180 typically controls the overall operation of the terminal device. For example, voice communication, data communication, video communication, and the like. The control unit 180 may include a multimedia module 181 for multimedia playback. The multimedia module 181 may be implemented in the control unit 180 or may be implemented separately from the control unit 180. [

상기 제어부(180)는 상기 터치스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. The controller 180 may perform a pattern recognition process for recognizing handwriting input or drawing input performed on the touch screen as characters and images, respectively.

전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 190 receives external power and internal power under the control of the controller 180 and supplies power necessary for operation of the respective components.

여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.The various embodiments described herein may be embodied in a recording medium readable by a computer or similar device using, for example, software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 제어부(180) 자체로 구현될 수 있다.According to a hardware implementation, the embodiments described herein may be implemented as application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays May be implemented using at least one of a processor, controllers, micro-controllers, microprocessors, and other electronic units for performing other functions. In some cases, The embodiments described may be implemented by the control unit 180 itself.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.According to a software implementation, embodiments such as the procedures and functions described herein may be implemented with separate software modules. Each of the software modules may perform one or more of the functions and operations described herein. Software code can be implemented in a software application written in a suitable programming language. The software code is stored in the memory 160 and can be executed by the control unit 180. [

전술한 이모티콘 서비스 제공 시스템(1)을 구성하는 컨텐츠 입력부(2), 이모티콘 생성부(3) 및 이모티콘 수신부(4)의 단말 또는 서버(100) 요소를 기초로 본 발명의 구체적인 기능을 설명한다.The specific functions of the present invention will be described based on the elements of the contents input unit 2, the emoticon generation unit 3 and the terminal of the emoticon reception unit 4 or the server 100 constituting the above-described emoticon service providing system 1. [

또한, 컴파일 이후 iOS와 Android에 각각 대응하는 Native APIs로 변환하고, 다양한 디바이스에 효율적인 대응이 가능한 구조를 제안한다.In addition, after compilation, it converts to native APIs corresponding to iOS and Android respectively, and proposes a structure that can efficiently cope with various devices.

또한, 본 발명은 사용자의 채팅 데이터를 분석 가공된 키토큰의 형태로 DB로 저장하고, DB 누적된 사용자 데이터는 워드벡터 기반의 인공지능 정확도 제고에 다시 기여함으로써, 사용량이 늘어날 수록 인공지능의 정확도가 높아지는 시스템을 제안한다(워드벡터 기반의 머신러닝).In addition, the present invention stores chat data of a user as a DB in the form of analyzed key token, and DB accumulated user data contributes again to enhancement of artificial intelligence based on a word vector. As the usage increases, accuracy of artificial intelligence (Word Vector based Machine Learning).

또한, 본 발명은 구매한 캐릭터 이모티콘 콘텐츠를 반복적으로 사용하는 기존의 사용 방식과 달리 키워드, 감정, 사용빈도, 기호, 기후, 날짜, 시간, 장소, 이슈 등 다양한 변수를 분석하고 조합하여 매번 새로운 디자인 사용이 가능하다.The present invention analyzes and combines various variables such as keywords, emotion, usage frequency, preference, climate, date, time, place, issue, and the like, unlike the conventional usage method in which the purchased character emoticon contents are repeatedly used, It is possible to use.

또한, 본 발명은 입력하는 단어나 기호(개수) 요소에 따라 캐릭터 이모티콘 표현이 실시간으로 변화하여 사용자는 자신의 감정을 확인하고 표현할 수 있다.In addition, according to the present invention, a character emoticon expression changes in real time according to an input word or a symbol (number) element, so that a user can identify and express his / her emotions.

또한, 본 발명은 사용자 친화적인 UX 디자인을 통해 연산과정에서 발생하는 딜레이와 같은 기술적인 제약을 줄이고 커뮤니케이션 과정을 좀 더 사용자에게 친숙하게 전달할 수 있다.In addition, the present invention can reduce the technical constraints such as delays generated in the calculation process through the user-friendly UX design and communicate the communication process more intimately to the user.

또한, 본 발명은 머신러닝을 통해 인공지능의 정확도를 지속적으로 높여갈 수 있다.Further, the present invention can continuously improve the accuracy of artificial intelligence through machine learning.

도 3은 본 발명이 제안하는 머신 러닝 기반의 인공지능 이모티콘 서비스 제공 방법을 설명하기 위한 순서도이다.FIG. 3 is a flowchart for explaining a method of providing an artificial intelligent emoticons service based on the machine learning proposed by the present invention.

도 3을 참조하면, 본 발명에 따른 컨텐츠 입력부(2)의 단말 또는 서버(100)가 사용자로부터 텍스트, 보이스, 이미지, 동영상 등의 컨텐츠를 입력받는 단계(S110)가 가장 먼저 수행된다.Referring to FIG. 3, a step S110 of receiving a content such as a text, a voice, an image, and a moving picture from a user by the terminal or the server 100 of the content input unit 2 according to the present invention is performed first.

이후, 이모티콘 생성부(3)의 단말 또는 서버(100)는 입력된 컨텐츠를 기초로 형태소를 분석하게 된다(S120).Then, the terminal of the emoticon generation unit 3 or the server 100 analyzes the morpheme based on the input content (S120).

S120 단계에서는 단말 또는 서버(100)의 제어부(180)가 형태소를 분석하고, 표현된 단어를 기본형 동사로 변환하는 등의 작업을 통해 키토큰으로 변환하는 작업을 수행한다.In step S120, the control unit 180 of the terminal or the server 100 analyzes the morpheme and converts the expressed word into a basic type verb.

또한, S120 단계 이후에, 이모티콘 생성부(3)의 단말 또는 서버(100)는 동사, 명사, 형용사, 문장부호 등을 통해 S110 단계에서 입력된 컨텐츠의 맥락을 분석하는 작업을 수행한다(S130).After step S120, the terminal or server 100 of the emoticon generation unit 3 performs an operation of analyzing the context of the content input in step S110 through a verb, a noun, an adjective, a punctuation mark, or the like (S130) .

S130 단계를 거쳐, 이모티콘 생성부(3)의 단말 또는 서버(100)가 키토큰 정보를 기초로 이모티콘과 매칭하는 작업을 수행한다(S140).The terminal of the emoticon generation unit 3 or the server 100 performs a task of matching with the emoticon based on the key token information in step S140.

S140 단계에서 단말 또는 서버(100)의 제어부(180)는 개별 이모티콘 태그를 적용하거나 이모티콘 카테고리를 통해 복수의 이모티콘을 이용할 수도 있다.In step S140, the controller 180 of the terminal or the server 100 may apply a separate emoticon tag or use a plurality of emoticons through an emoticon category.

S140 단계에서 이모티콘 매칭 작업이 완료되면, 이모티콘 생성부(3)의 단말 또는 서버(100)는 이모티콘 수신부(4)의 단말 또는 서버(100)로 결정된 이모티콘을 전송하게 된다(S150).When the emoticon matching operation is completed in step S140, the terminal of the emoticon generation unit 3 or the server 100 transmits the emoticon determined by the terminal of the emoticon receiving unit 4 or the server 100 (S150).

결국, 본 발명은 텍스트 및 보이스 메시지의 감정, 맥락을 분석해서 이모티콘으로 자동 전송해주는 스마트 어플리케이션을 제공하게 된다.As a result, the present invention provides a smart application that analyzes emotions and contexts of text and voice messages and automatically transmits them to emoticons.

이를 통해, 기존의 텍스트 방식으로는 표현하기 힘든 사용자의 감정을 1)인공지능 API로 분석하고 2)자체 에이전트를 활용하여 실시간으로 이모티콘을 디자인하여 서로의 감정을 교감할 수 있는 새로운 커뮤니케이션 경험을 제공한다.Through this, 1) analyzing user's emotions that can not be expressed in the existing text format with 1) artificial intelligence API, 2) designing emoticon in real time using its own agent, and providing new communication experience to communicate emotions with each other do.

도 4는 도 3에서 설명한 머신 러닝 기반의 인공지능 이모티콘 서비스 제공 방법의 각 단계의 구체적인 일례를 도시한 것이다.FIG. 4 shows a concrete example of each step of the artificial intelligence emoticon service providing method based on the machine learning shown in FIG.

도 4를 참조하면, S110 단계의 일례로서, 사용자가 “치킨키?치키이이이인치킨 먹으러 가자”라는 컨텐츠가 입력된다.Referring to FIG. 4, as an example of step S110, contents such as " Let's go to eat chicken chicken "

또한, 도 4를 참조하면, S120 단계의 일례로서, 이모티콘 생성부(3)의 단말 또는 서버(100)가 형태소 분석을 통해 “치킨”, “치키이이이”, “인”, “먹”, “으러”, “가자” 등을 추출하게 된다.4, the terminal 100 of the emoticon generation unit 3 or the server 100 may perform a morphological analysis such as "chicken," "chiki," "in," " , "Let's go", and so on.

또한, S120 단계의 일례로서, 기본형 동사로 변형하는 작업이 수행되고, “먹”을 “먹다”로 변형하고, “가자”를 “가다”로 변형하게 된다.As an example of step S120, a work of transforming into a basic verb is carried out, and the word " eat " is transformed into " eat "

이후, 도 4에서는 S130 단계의 일례로서, 형태소 분석된 “치킨”을 “배고플 때”, “먹다”를 “배고플 때” 및 “배부를 때”로 카테고리 매칭하고, “가다”를 “신날 때”의 카테고리로 매칭할 수 있다.In the following, FIG. 4 shows an example of step S130. In the example of step S130, the morphologically analyzed " chicken " is " hungry ", & Time "category.

또한, S140 단계의 일례로서, S120 단계에서 추출된 키토큰의 API 분석을 통해 “즐거움이 76%”, “슬픔이 42%”, “화남이 50%”, “두려움이 12%”, “놀람이 22%” 등의 상태를 추출할 수 있다.As an example of step S140, API analysis of the key token extracted in step S120 shows that "pleasure is 76%", "sadness is 42%", "angry 50%", "fear is 12%", This 22% "can be extracted.

이후, S130 및 S140 단계를 기초로, 확정된 이모티콘을 이모티콘 생성부(3)의 단말 또는 서버(100)는 이모티콘 수신부(4)의 단말 또는 서버(100)로 결정된 이모티콘을 전송하게 된다(S150).Subsequently, based on steps S130 and S140, the terminal of the emoticon generation unit 3 or the server 100 transmits the determined emoticon to the terminal of the emoticon receiving unit 4 or the emoticon determined by the server 100 (S150) .

*결국, 자체 알고리즘과 외부 API를 활용하여 현재 입력하고 있는 텍스트의 복수의 상황(예를 들어, 49가지 상황)과 및 감정(Joy, Sadness, Anger, Fear, Surprise)에 대해 맥락과 뉘앙스를 분석하고, 이모티콘 디자인의 감정톤(tone)을 정할 수 있다.Finally, we analyze the context and nuances of multiple textual situations (eg, 49 situations) and emotions (Joy, Sadness, Anger, Fear, Surprise) using our own algorithms and external APIs , And the emotional tone of the emoticon design can be determined.

또한, 추출된 키워드와 매칭된 이미지를 생성하고 정해진 규칙에 맞춰 조합하여 이모티콘을 생성할 수도 있다.It is also possible to generate an image matching the extracted keyword, and generate an emoticon by combining the image with a predetermined rule.

한편, 본 발명에서는 S150 단계에서 다양한 변수를 조합하여 무한한 경우의 수의 이모티콘으로 표현할 수도 있다.In the present invention, various variables may be combined to represent an infinite number of emoticons in step S150.

사용자는 자신의 감정과 상황이 정확한 분석을 통해 가장 적절한 이모티콘으로 변환되었을 때의 편리함과 감정이 교감되는 커뮤니케이션의 즐거움을 경험할 수 있다.Users can experience the pleasure of communicating the convenience and emotion when their emotions and situations are converted into the most appropriate emoticons through accurate analysis.

즉, 사용자의 감정, 대화의 전체적인 맥락, 사용된 키워드를 반영하여 이모티콘을 생성하고 클라우드의 콘텐츠를 불러오기 때문에 매번 상황에 맞게 제공할 수 있다.In other words, emoticon is generated by reflecting emotion of user, overall context of conversation, used keyword, and contents of cloud are retrieved, so that it can be provided according to each situation.

또한, 본 발명에서는 결과물에 이미지 프로세싱을 적용하여 같은 이모티콘에서도 감정의 강도에 따라 다르게 표현 할 수 있으며 이를 통해 좀 더 섬세하게 의사소통 할 수 있다.Also, in the present invention, image processing is applied to the result, so that the same emoticon can be expressed differently according to the intensity of emotions, thereby enabling more delicate communication.

도 5는 본 발명과 관련하여, 사용자의 감정의 변화 또는 감정의 강도 변화에 따라 표현되는 이모티콘이 변화되는 구체적인 일례를 도시한 것이다.FIG. 5 shows a specific example in which the emoticon expressed in accordance with the change of the emotion of the user or the intensity of the emotion is changed, in the context of the present invention.

도 5는 도 4에서 일예로 설명한 치킨과 관련된 이모티콘이 동일하게 표시되지만, (a), (b) 및 (c) 각각은 사용자의 감정의 변화 또는 감정의 강도 변화에 따라 색상, 크기 등이 변화되는 이모티콘이 표시되는 것의 일례를 도시한 것이다.5, emoticons related to the chicken described in FIG. 4 are displayed in the same manner, but each of (a), (b), and (c) shows a change in color, size, etc. according to a change in emotion or emotion intensity The emoticons are displayed.

한편, 본 발명의 다른 실시예에 따르면, 매칭되는 이모티콘을 사용자에게 제공하는 것 이외에 연관성 순으로 이모티콘을 배열하여 사용자가 선택하는 방법이 제공될 수도 있다.According to another embodiment of the present invention, a method of arranging emoticons in order of relevance and selecting by a user may be provided in addition to providing matching emoticons to a user.

도 6은 본 발명의 다른 일 실시예와 관련하여, 연관성 순으로 이모티콘을 배열하여 사용자가 선택하는 방법을 설명하는 순서도이다.FIG. 6 is a flowchart illustrating a method of arranging emoticons in order of relevance and selecting by the user, according to another embodiment of the present invention.

도 6을 참조하면, 가장 먼저, 본 발명에 따른 컨텐츠 입력부(2)의 단말 또는 서버(100)가 사용자로부터 텍스트, 보이스, 이미지, 동영상 등의 컨텐츠를 입력받는 단계(S110)가 가장 먼저 수행된다.Referring to FIG. 6, first, a step S110 of receiving a content such as text, voice, image, and moving image from a terminal of a terminal or a server 100 of the content input unit 2 according to the present invention is performed first .

다음으로, 이모티콘 생성부(3)의 단말 또는 서버(100)는 입력된 컨텐츠를 기초로 형태소를 분석하게 된다(S120).Next, the terminal of the emoticon generation unit 3 or the server 100 analyzes the morpheme based on the input content (S120).

또한, S120 단계 이후에, 이모티콘 생성부(3)의 단말 또는 서버(100)는 동사, 명사, 형용사, 문장부호 등을 통해 S110 단계에서 입력된 컨텐츠의 맥락을 분석하는 작업을 수행한다(S130).After step S120, the terminal or server 100 of the emoticon generation unit 3 performs an operation of analyzing the context of the content input in step S110 through a verb, a noun, an adjective, a punctuation mark, or the like (S130) .

이후, 이모티콘 생성부(3)의 단말 또는 서버(100)가 키토큰 정보를 기초로 이모티콘과 매칭하는 작업을 수행하는데, 전술한 S140 단계와 달리 데이터베이스(DB) 내 이모티콘과의 연관성을 연산하여 이모티콘을 매칭하는 단계(S210)를 수행한다.Thereafter, the terminal of the emoticon generation unit 3 or the server 100 performs a task of matching with the emoticon based on the key token information. Unlike the step S140 described above, the association with the emoticon in the database (DB) (S210).

즉, 도 4에서 일례로 설명한 형태소 분석된 “치킨”을 “배고플 때”, “먹다”를 배고플 때” 및 “배부를 때”로 카테고리 매칭하고, “가다”를 “신날 때”의 카테고리로 매칭한 경우, 매칭된 카테고리와의 연관성을 연산하여 이모티콘을 매칭할 수 있다.That is, the "chicken" analyzed by the morphological analysis described in FIG. 4 is classified into categories "when hungry", "when hungry", and "when distributed" The emoticon can be matched by calculating the association with the matched category.

또한, 도 4에서 일례로 설명한 API 분석을 통해 “즐거움이 76%”, “슬픔이 42%”, “화남이 50%”, “두려움이 12%”, “놀람이 22%” 등의 상태를 추출한 경우에는, 높은 상태에 연관되는 이모티콘을 매칭할 수도 있다.In addition, through the API analysis described in the example of FIG. 4, the state of "pleasure 76%", "sorrow 42%", "angry 50%", "fear 12%", "alarm 22% If extracted, the emoticon associated with the high state may be matched.

이후, 기존 방식과 달리, 이모티콘 생성부(3)의 단말 또는 서버(100)는 컨텐츠 입력부(2)의 단말 또는 서버(100)로 연관성 순으로 이모티콘을 배열하여 사용자에게 제공한다(S220).Unlike the conventional method, the terminal or server 100 of the emoticon generation unit 3 arranges the emoticons in order of relevance to the terminal of the content input unit 2 or the server 100 and provides them to the user (S220).

이때, 컨텐츠 입력부(2)의 단말 또는 서버(100)의 사용자는 연관성 순으로 배치된 이모티콘 중에서 특정 이모티콘을 선택하고(S230), 선택된 이모티콘이 이모티콘 수신부(4)의 단말 또는 서버(100)로 전송된다(S150).At this time, the terminal of the content input unit 2 or the user of the server 100 selects a specific emoticon among the emoticons arranged in order of association (S230), and transmits the selected emoticon to the terminal of the emoticon receiving unit 4 or the server 100 (S150).

이때, 사용자는 배치된 이모티콘들 중에서 연관성이 높아 전단에 배치된 이모티콘을 선택할 가능성이 더 높을 것이다.At this time, since the user is highly related among the arranged emoticons, the user is more likely to select the emoticons arranged at the front end.

한편, 이모티콘의 전송 전에 사용자로부터 추가적인 메시지가 입력되는 경우, 사용자의 컨텐츠 맥락이 변화되는 이벤트가 발생될 수도 있다.On the other hand, when an additional message is input from the user before the emoticon is transmitted, an event in which the content context of the user is changed may be generated.

따라서 본 발명에서는 이러한 이벤트에 대응하여 이모티콘의 전송 전에 사용자로부터 추가적인 메시지가 입력되는 경우, 실시간으로 이를 반영하여 연관성 있는 이모티콘을 사용자가 선택하는 방법을 제공할 수도 있다.Accordingly, in the present invention, when an additional message is input from the user before transmission of the emoticon in response to the event, the user may reflect the emoticon in real time to provide a method for the user to select the relevant emoticon.

도 7은 본 발명의 또 다른 일 실시예와 관련하여, 이모티콘의 전송 전에 사용자로부터 추가적인 메시지가 입력되는 경우, 실시간으로 이를 반영하여 연관성 있는 이모티콘을 사용자가 선택하는 방법을 설명하는 순서도이다.7 is a flowchart illustrating a method for a user to select a related emoticon in real time when an additional message is input from a user before transmission of the emoticon is performed, according to another embodiment of the present invention.

도 7의 S110 단계 내지 S130 단계와 S210 단계는 도 6에서 설명한 S110 단계 내지 S130 단계와 S210 단계에 각각 대응되므로, 명세서의 간명화를 위해 설명은 생략한다.The steps S110 to S130 and S210 in FIG. 7 correspond to the steps S110 to S130 and S210 described in FIG. 6, respectively, and therefore, a description thereof will be omitted for the sake of simplicity.

도 7의 과정에서는 도 6에서의 과정과 달리, S210 단계 이후에, 컨텐츠 입력부(2)의 단말 또는 서버(100)가 텍스트, 보이스, 이미지, 동영상 중 어느 하나가 추가로 입력되는지 여부를 판단하는 단계(S310)를 더 포함한다.7, after step S210, the terminal or the server 100 of the content input unit 2 determines whether any one of text, voice, image, and moving image is additionally inputted And further includes step S310.

이때, S310 단계에서 추가 입력된 컨텐츠가 없는 경우에는 도 6과 동일한 과정이 진행되지만, 추가 입력된 컨텐츠가 존재하는 경우에는, 이모티콘 생성부(3)의 단말 또는 서버(100)가 추가 입력된 컨텐츠를 기초로 형태소를 분석하는 단계(S320) 및 동사, 명사, 형용사, 문장부호 등을 통해 추가 입력된 컨텐츠의 맥락을 분석하는 작업을 수행한다(S330).If there is no additional content input in step S310, the same process as in FIG. 6 is performed. However, if the additional input content exists, the terminal of the emoticon generation unit 3 or the content Analyzing the morpheme on the basis of the morpheme, a noun, an adjective, and a punctuation mark (S330).

또한, 이모티콘 생성부(3)의 단말 또는 서버(100)는 추가된 키워드를 고려하여 이모티콘을 매칭(S340)하고, S340 단계에서 매칭된 결과와 기존의 S210 단계를 통해 매칭된 결과를 실시간으로 반영하고, 연관성 순으로 이모티콘을 배열하여 컨텐츠 입력부(2)의 단말 또는 서버(100)로 전송하게 된다(S350).The terminal or server 100 of the emoticon generation unit 3 matches the emoticon in step S340 in consideration of the added keyword and reflects the matching result in step S310 and the matching result in step S210 in real time And arranges the emoticons in the order of association, and transmits them to the terminal of the content input unit 2 or the server 100 (S350).

이후, 컨텐츠 입력부(2)의 단말 또는 서버(100)의 사용자는 연관성 순으로 배치된 이모티콘 중에서 특정 이모티콘을 선택하고(S230), 선택된 이모티콘이 이모티콘 수신부(4)의 단말 또는 서버(100)로 전송된다(S150).The user of the content input unit 2 or the user of the server 100 selects a specific emoticon among the emoticons arranged in order of relevancy at step S230 and transmits the selected emoticon to the terminal of the emoticon receiving unit 4 or the server 100 (S150).

도 6 및 도 7에서 설명한 각각의 단계에 대해 도면을 들어 구체적으로 설명한다.Each of the steps described in FIGS. 6 and 7 will be specifically described with reference to the drawings.

도 8은 도 6 또는 도 7에서 사용자가 입력한 컨텐츠를 통해 형태소를 분석하는 구체적인 일례를 도시한 것이다.FIG. 8 shows a specific example of analyzing the morpheme through the contents inputted by the user in FIG. 6 or FIG.

도 8은 도 6 또는 도 7의 S120 단계의 구체적인 일례를 도시한 것이다.FIG. 8 shows a specific example of step S120 in FIG. 6 or FIG.

도 8을 참조하면, 컨텐츠 입력부(2)의 단말 또는 서버(100)의 사용자가 “가는 길에 버스를 잘못타서 오늘 늦을 것 같은데 어떻게 하지?”라고 입력하는 일례가 도시된다.Referring to FIG. 8, there is shown an example in which the terminal of the content input unit 2 or the user of the server 100 inputs " What if the user mistakenly rides the bus on the way and is late today? &Quot;.

이 경우, 이모티콘 생성부(3)의 단말 또는 서버(100)는 “가다”, “길”, “버스”, “잘 못”, “타다”, “오늘”, “늦다”, “어떻게”, “하다”, “?”의 형태소를 분석할 수 있다.In this case, the terminal or the server 100 of the emoticon generation unit 3 can notify the emoticon generation unit 3 of the "Go", "Way", "Bus", "Bad", " The morphemes of "do" and "?" Can be analyzed.

다음으로, 도 9는 도 8에서 분석된 형태소를 기초로 키워드를 추출하는 본 발명의 구체적인 일례를 도시한 것이다.Next, FIG. 9 shows a specific example of the present invention for extracting keywords based on the morpheme analyzed in FIG.

도 9는 도 6 또는 도 7의 S130 단계의 구체적인 일례를 도시한 것이다.FIG. 9 shows a concrete example of step S130 in FIG. 6 or FIG.

도 9를 참조하면, 이모티콘 생성부(3)의 단말 또는 서버(100)는 “가다”, “길”, “버스”, “잘 못”, “타다”, “오늘”, “늦다”, “어떻게”, “하다”, “?”의 감정, 상황, 문장 부호 등 형태소에서 의미 요소가 강한 형태소를 골라낼 수 있다.9, the terminal or the server 100 of the emoticon generation unit 3 may select one of the following items as "Go", "Way", "Bus", "Bad", " A morpheme with strong semantic elements can be selected from morphemes such as "how," "do," and "?" Emotion, situation, and punctuation marks.

도 9에서는 “잘 못”, “늦다”, “어떻게”가 선택된 형태소가 될 수 있다.In Fig. 9, "bad", "late" and "how" can be selected morphemes.

또한, 도 10은 도 9에서 추출한 키워드를 기초로 데이터 베이스 내 연관성 있는 이모티콘을 매칭하는 구체적인 작업의 일례를 도시한 것이다.FIG. 10 shows an example of a specific operation for matching the related emoticons in the database based on the keyword extracted in FIG.

도 10은 도 6 또는 도 7의 S210 단계의 구체적인 일례를 도시한 것이다.FIG. 10 shows a specific example of the step S210 of FIG. 6 or FIG.

도 10을 참조하면, 도 9에서 선택된 형태소 “잘 못”, “늦다”, “어떻게”에 대응되는 복수의 이모티콘이 매칭되어 표시된다.Referring to FIG. 10, a plurality of emoticons corresponding to the morpheme "bad", "late", and "how" selected in FIG. 9 are matched and displayed.

이후, 이러한 복수의 이모키톤은 연관성 순서에 따라 배치될 수 있다.Thereafter, these plurality of emoticons may be arranged in order of relevance.

도 11은 도 10에서 매칭된 이모티콘을 연관성 순으로 사용자에게 배열하여 표시하는 구체적인 일례를 도시한 것이다.FIG. 11 shows a concrete example of arranging and matching emoticons matched in FIG. 10 to users in order of relevance.

도 11은 도 6의 S220 단계 또는 도 7의 S350 단계의 구체적인 일례를 도시한 것이다.FIG. 11 shows a specific example of step S220 of FIG. 6 or step S350 of FIG.

도 11을 참조하면, 0.0 내지 1.0의 점수를 나누어 연산된 수치에 의해 연관성이 높은 순서대로 해당 이모티콘 컨텐츠의 이미지 주소 URL이 리스트화되어 추천되는 구체적인 모습을 도시하고 있다.11, the image address URLs of the corresponding emoticon contents are listed and recommended in descending order of relevance by numerical values calculated by dividing scores of 0.0 to 1.0.

6개의 이모티콘은 각각 0.64, 0.63, 0.62, 0.71, 0.92, 0.59의 연관성 평가를 받을 수 있다.The six emoticons can be evaluated for relevance of 0.64, 0.63, 0.62, 0.71, 0.92, and 0.59, respectively.

도 12는 도 11에서 표시된 복수의 이모티콘 중 하나를 사용자가 선택하여, 선택한 이모티콘을 전송하는 구체적인 일례를 도시한 것이다.FIG. 12 shows a specific example in which the user selects one of the plurality of emoticons displayed in FIG. 11 and transmits the selected emoticons.

도 12를 참조하면, 도 11에서 연산된 0.64, 0.63, 0.62, 0.71, 0.92, 0.59에서 높은 순서대로 이모티콘이 배치되어 컨텐츠 입력부(2)의 단말 또는 서버(100)에 표시되고, 사용자는 특정 이모티콘을 선택할 수 있으며, S150 단계로서 선택된 이모티콘은 이모티콘이 이모티콘 수신부(4)의 단말 또는 서버(100)로 전송된다.Referring to FIG. 12, the emoticons are arranged in the order of 0.64, 0.63, 0.62, 0.71, 0.92, and 0.59 calculated in FIG. 11 and displayed on the terminal or server 100 of the content input unit 2, The emoticon selected in step S150 is transmitted to the terminal of the emoticon receiving unit 4 or the server 100. [

한편, 도 13은 도 7에서 설명한 S210 단계 이후에, 컨텐츠 입력부(2)의 단말 또는 서버(100)가 텍스트, 보이스, 이미지, 동영상 중 어느 하나가 추가로 입력되는지 여부를 판단하는 단계(S310)를 더 포함되는 일례를 도시한 것이다.13 is a flowchart illustrating an operation S310 of determining whether the terminal of the content input unit 2 or the server 100 is additionally inputting any one of text, voice, image, and moving image after step S210 described with reference to FIG. As shown in FIG.

도 13에서는, 이모티콘을 전송하기 이전에, 컨텐츠 입력부(2)의 단말 또는 서버(100)를 통해 “맨날 내가 기다렸으니까 쌤통이다 ㅋㅋ”라는 추가 텍스트가 입력된다.13, an additional text such as " I am always waiting because I have waited all the time " is inputted through the terminal of the contents input unit 2 or the server 100 before the emoticon is transmitted.

따라서 이모티콘 생성부(3)의 단말 또는 서버(100)가 추가 입력된 컨텐츠(“맨날 내가 기다렸으니까 쌤통이다 ㅋㅋ”)를 기초로 형태소를 분석하는 단계(S320) 및 동사, 명사, 형용사, 문장부호 등을 통해 추가 입력된 컨텐츠의 맥락을 분석하는 작업을 수행 (S330)하고, 추가된 키워드를 고려하여 이모티콘을 매칭(S340)하며, S340 단계에서 매칭된 결과와 기존의 S210 단계를 통해 매칭된 결과를 실시간으로 반영하고, 연관성 순으로 이모티콘을 배열하여 컨텐츠 입력부(2)의 단말 또는 서버(100)로 전송하게 된다(S350).Therefore, the terminal of the emoticon generation unit 3 or the server 100 analyzes the morpheme on the basis of the content ("I am always waiting for you because of waiting") (S320) and the step of verifying the morpheme, noun, adjective, (Step S330). The emoticon is matched with the added keyword in step S340. In step S340, the matching result is compared with the matched result in step S210 And transmits the emoticons to the terminal or the server 100 of the content input unit 2 in the order of association (S350).

이후, 컨텐츠 입력부(2)의 단말 또는 서버(100)의 사용자는 도 13에 도시된 것과 같이, S340 단계에서 매칭된 결과와 기존의 S210 단계를 통해 매칭된 결과를 실시간으로 반영하여 연관성 순으로 배치된 이모티콘 중에서 특정 이모티콘을 선택하고(S230), 선택된 이모티콘이 이모티콘 수신부(4)의 단말 또는 서버(100)로 전송할 수 있게 된다(S150).13, the terminal of the content input unit 2 or the user of the server 100 reflects the matched result in step S340 and the matched result in step S210 in real time, A selected emoticon is selected in step S230 and the selected emoticon can be transmitted to the terminal of the emoticon receiving unit 4 or the server 100 in step S150.

한편, 전술한 본 발명의 구성에서는 “한글”을 기초로 적용되는 일례에 대해서 설명하였으나 본 발명의 내용이 한글에 제한되는 것은 아니다.On the other hand, in the above-described configuration of the present invention, an example in which "Korean" is applied is described, but the contents of the present invention are not limited to Hangul.

도 14 및 도 15는 본 발명과 관련하여, 영어의 경우에 머신 러닝 기반의 인공지능 이모티콘 서비스를 제공하는 구체적인 일례를 도시한 것이다.14 and 15 show a specific example of providing a machine learning based artificial intelligence emoticone service in the case of English in connection with the present invention.

도 14를 참조하면, 컨텐츠 입력부(2)의 단말 또는 서버(100)의 사용자가 “Yes, I’m on my-“ 의 텍스트(210)를 디스플레이부(151)를 통해 입력하는 경우, 도 3, 도 6 또는 도 7의 방법에 따라 복수의 관련된 이모티콘(220)이 디스플레이부(151) 상에 표시되는 구체적인 일례가 도시된다.14, when the terminal of the content input unit 2 or the user of the server 100 inputs the text 210 of "Yes, I'm on my-" through the display unit 151, A specific example in which a plurality of related emoticons 220 are displayed on the display unit 151 according to the method of Fig. 6 or Fig. 7 is shown.

또한, 도 15를 참조하면, 컨텐츠 입력부(2)의 단말 또는 서버(100)의 사용자가 “it seems to be a little late…because I go- “ 의 텍스트(230)를 디스플레이부(151)를 통해 입력하는 경우, 도 3, 도 6 또는 도 7의 방법에 따라 복수의 관련된 이모티콘(240)이 디스플레이부(151) 상에 표시되는 구체적인 일례가 도시된다.Referring to FIG. 15, when the terminal of the content input unit 2 or the user of the server 100 receives the " it seems to be a little late ... when the text 230 of "because I go-" is input through the display unit 151, a plurality of related emoticons 240 are displayed on the display unit 151 according to the method of FIG. 3, FIG. 6, A specific example is shown.

한편, 전술한 본 발명에 따른 머신 러닝 기반의 인공지능 이모티콘 서비스 제공 시스템(1)은 이모티콘 이미지가 기기나 OS에 저장되지 않고, 클라우드에서 관리되어 사용 맥락에 맞춰 실시간으로 유동적으로 제공하는 시스템으로 활용될 수 있다.Meanwhile, the machine learning-based artificial intelligence emoticons service providing system 1 according to the present invention can be applied to a system in which emoticon images are not stored in a device or an OS, but are managed in the cloud, .

또한, 전술한 본 발명에 따른 머신 러닝 기반의 인공지능 이모티콘 서비스 제공 시스템(1)은 스마트폰(단말)에 입력된 텍스트의 데이터 유형(감정, 상황, 정보)을 분류하여 별도의 조형 원칙에 따라 그래픽 이미지로 자동 변환되는 시스템으로 활용될 수 있다.In addition, the system 1 for providing an artificial intelligence service based on machine learning according to the present invention classifies the data type (emotion, situation, information) of text input to a smart phone (terminal) It can be used as a system that is automatically converted into a graphic image.

또한, 전술한 본 발명에 따른 머신 러닝 기반의 인공지능 이모티콘 서비스 제공 시스템(1)은 인스턴트 메시지의 텍스트에서 검출한 형태소와 의미 요소를 간접 광고 이미지로 치환하여, 이 기반의 광고 서비스를 제공하는 시스템으로 활용될 수 있다.In addition, the machine learning-based artificial intelligence emoticon service providing system 1 according to the present invention includes a system for replacing a morpheme and a semantic element detected in the text of an instant message with an indirect advertisement image, .

또한, 전술한 본 발명에 따른 머신 러닝 기반의 인공지능 이모티콘 서비스 제공 시스템(1)은 채팅 시 전송한 음성 메시지에서 상황과 감정을 인식하여 이모티콘으로 대체하고, 이모티콘에 그 음성 메시지를 입혀서 함께 전송하는 시스템으로 활용될 수 있다.In addition, the machine learning-based artificial intelligence emoticon service providing system 1 according to the present invention recognizes the situation and emotion in a voice message transmitted at the time of chatting, replaces it with emoticons, and transmits the voice message to the emoticon System can be utilized as a system.

전술한 본 발명의 구성이 적용되는 경우, 머신 러닝 기반의 인공지능 이모티콘 서비스 제공 시스템을 사용자에게 제공할 수 있다.When the above-described configuration of the present invention is applied, a machine learning-based artificial intelligence emoticons service providing system can be provided to a user.

구체적으로 본 발명은 사용자의 메시지에 담긴 감정 요소와 맥락을 머신러닝 기반의 인공지능 기술로 분석하고 캐릭터 이모티콘을 실시간으로 표현하는 시스템 및 어플리케이션을 사용자에게 제공할 수 있다.Specifically, the present invention can provide a system and an application for analyzing emotional elements and contexts contained in a user's message using a machine learning-based artificial intelligence technology and expressing character emoticons in real time.

또한, 본 발명은 메시지 분석을 통해 맥락 데이터(감정, 환경, 사물 등 요소)를 인식하고, 이를 시각적 의사소통 도구인 이모티콘으로 재가공하는 인공지능 기술 융합을 사용자에게 제공할 수 있다.In addition, the present invention can provide a user with artificial intelligence convergence that recognizes context data (emotion, environment, objects, etc.) through message analysis and re-processes the data into emoticons as visual communication tools.

또한, 본 발명은 텍스트를 입력하는 사용 환경을 고려해서 특정 서비스나 어플리케이션에 국한하지 않고 범용으로 쓸 수 있는 어플리케이션 및 API를 사용자에게 제공할 수 있다.In addition, the present invention can provide a user with an application and an API that can be used for general purposes without being limited to a specific service or application in consideration of a use environment for inputting text.

또한, 본 발명은 사용자의 대화 습관 패턴을 학습하여 사용할수록 정확해지는 워드벡터 기반의 인공지능 머신러닝 시스템을 구축하고, 사용자에게 제공할 수 있다.Further, according to the present invention, a word vector-based artificial intelligent machine learning system can be constructed and provided to a user as the learning habit pattern of a user is learned and used.

또한, 본 발명은 모바일 커뮤니케이션의 대부분을 차지하는 메시징 커뮤니케이션에 인공지능과 디자인 테크놀로지를 접목하여 더 정확하고 편리한 커뮤니케이션 경험을 제안하고, 번거로운 사용과 제한된 표현으로 텍스트 보조역할에 그치는 현재의 이모티콘 사용 경험을 혁신하여 인공지능이 대화를 분석하고 실시간으로 그래픽 요소를 재조합하여 무한한 표현이 가능하도록 할 수 있다.In addition, the present invention proposes a more accurate and convenient communication experience by combining artificial intelligence and design technology in messaging communication, which occupies most of the mobile communication, and provides the user with experience of present emoticon usage Allowing artificial intelligence to analyze the conversation and recombine graphic elements in real time to enable unlimited expression.

또한, 본 발명은 메시지 어플리케이션뿐만 아니라 입력 인터페이스를 사용하는 SNS, 블로그, 미디어 등에서 끊임없이 창작되는 콘텐츠에 디자인을 입히는 테크놀로지로 발전시킬 수 있다.In addition, the present invention can develop not only a message application but also a technology for designing contents that are constantly created in SNS, blog, media using an input interface.

또한, 본 발명은 구매한 캐릭터 이모티콘 콘텐츠를 반복적으로 사용하는 기존의 사용 방식과 달리 키워드, 감정, 사용빈도, 기호, 기후, 날짜, 시간, 장소, 이슈 등 다양한 변수를 분석하고 조합하여 매번 새로운 디자인 사용이 가능하다.The present invention analyzes and combines various variables such as keywords, emotion, usage frequency, preference, climate, date, time, place, issue, and the like, unlike the conventional usage method in which the purchased character emoticon contents are repeatedly used, It is possible to use.

또한, 본 발명은 입력하는 단어나 기호(개수) 요소에 따라 캐릭터 이모티콘 표현이 실시간으로 변화하여 사용자는 자신의 감정을 확인하고 표현할 수 있다.In addition, according to the present invention, a character emoticon expression changes in real time according to an input word or a symbol (number) element, so that a user can identify and express his / her emotions.

또한, 본 발명은 사용자 친화적인 UX 디자인을 통해 연산과정에서 발생하는 딜레이와 같은 기술적인 제약을 줄이고 커뮤니케이션 과정을 좀 더 사용자에게 친숙하게 전달할 수 있다.In addition, the present invention can reduce the technical constraints such as delays generated in the calculation process through the user-friendly UX design and communicate the communication process more intimately to the user.

또한, 본 발명은 머신러닝을 통해 인공지능의 정확도를 지속적으로 높여갈 수 있다.Further, the present invention can continuously improve the accuracy of artificial intelligence through machine learning.

한편, 본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있으며, 또한 케리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. The present invention can also be embodied as computer-readable codes on a computer-readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may be implemented in the form of a carrier wave (for example, transmission over the Internet) .

또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다. In addition, the computer-readable recording medium may be distributed over network-connected computer systems so that computer readable codes can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the present invention can be easily inferred by programmers of the technical field to which the present invention belongs.

또한, 상기와 같이 설명된 장치 및 방법은 상기 설명된 실시례들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시례들은 다양한 변형이 이루어질 수 있도록 각 실시례들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.It should be understood that the above-described apparatus and method are not limited to the configuration and method of the embodiments described above, but the embodiments may be modified so that all or some of the embodiments are selectively combined .

Claims (10)

적어도 하나의 제 1 컨텐츠가 입력되는 제 1 단말;
상기 제 1 단말로부터 상기 제 1 컨텐츠를 수신하고, 상기 제 1 컨텐츠에 포함된 텍스트를 미리 설정된 단위로 분류하여 복수의 제 2 텍스트를 생성하며, 상기 복수의 제 2 텍스트 중 미리 설정된 조건을 만족하는 적어도 하나의 제 3 텍스트를 필터링하고, 미리 저장된 복수의 이모티콘 중 상기 제 3 텍스트에 매칭되는 적어도 하나의 제 1 이모티콘을 결정하는 서버; 및
상기 서버로부터 상기 제 1 이모티콘을 수신하는 제 2 단말;을 포함하는 머신 러닝 기반의 인공지능 이모티콘 제공 시스템.
A first terminal for receiving at least one first content;
A second terminal for receiving the first content from the first terminal, generating a plurality of second texts by classifying the text included in the first content into a predetermined unit, A server for filtering at least one third text and determining at least one first emoticon matching the third text among a plurality of previously stored emoticons; And
And a second terminal for receiving the first emoticon from the server.
제 1항에 있어서,
상기 제 1 컨텐츠는, 텍스트 정보, 이미지 정보, 동영상 정보 및 음성 정보를 포함하는 것을 특징으로 하는 머신 러닝 기반의 인공지능 이모티콘 제공 시스템.
The method according to claim 1,
Wherein the first content includes text information, image information, moving image information, and audio information.
제 2항에 있어서,
상기 제 1 컨텐츠가 이미지 정보 또는 동영상 정보인 경우,
상기 서버는, 상기 이미지 정보 또는 동영상 정보에 포함된 텍스트를 추출하고, 상기 추출한 텍스트를 상기 미리 설정된 단위로 분류하여 상기 복수의 제 2 텍스트를 생성하며,
상기 제 1 컨텐츠가 음성 정보인 경우,
상기 서버는, 상기 음성 정보를 텍스트 정보로 변환하고, 상기 변환된 텍스트 정보를 상기 미리 설정된 단위로 분류하여 상기 복수의 제 2 텍스트를 생성하는 것을 특징으로 하는 머신 러닝 기반의 인공지능 이모티콘 제공 시스템.
3. The method of claim 2,
If the first content is image information or moving image information,
The server extracts the text included in the image information or the moving image information, generates the plurality of second texts by classifying the extracted text into the predetermined unit,
If the first content is audio information,
Wherein the server converts the voice information into text information and classifies the converted text information into the predetermined unit to generate the plurality of second texts.
제 1항에 있어서,
상기 미리 설정된 단위는 형태소 단위이고,
상기 서버는 상기 복수의 제 2 텍스트 중 적어도 일부를 기본형 동사로 변환하는 것을 특징으로 하는 머신 러닝 기반의 인공지능 이모티콘 제공 시스템.
The method according to claim 1,
Wherein the predetermined unit is a morpheme unit,
Wherein the server converts at least some of the plurality of second texts into basic verbs.
제 1항에 있어서,
상기 미리 설정된 조건은, 의미(meaning)를 갖는 텍스트인지 여부인 것을 특징으로 하는 머신 러닝 기반의 인공지능 이모티콘 제공 시스템.
The method according to claim 1,
Wherein the predetermined condition is whether the text is text having meaning.
제 1항에 있어서,
상기 제 3 텍스트는 복수이고,
상기 복수의 제 3 텍스트에 매칭되는 제 1 이모티콘은 복수인 것을 특징으로 하는 머신 러닝 기반의 인공지능 이모티콘 제공 시스템.
The method according to claim 1,
The third text is plural,
Wherein the first emoticon matching the plurality of third texts is a plurality of first emoticons.
제 6항에 있어서,
상기 서버는,
상기 복수의 제 3 텍스트를 미리 지정된 복수의 카테고리 중 적어도 하나의 카테고리로 분류하고,
상기 분류된 상기 제 3 텍스트의 개수를 카테고리 별로 카운팅(counting)하며,
상기 카테고리 별로 카운팅 된 결과값을 각 카테고리에 속한 제 3 텍스트에 부여하고,
상기 미리 저장된 복수의 이모티콘 중 상기 복수의 제 3 텍스트에 매칭되는 복수의 제 1 이모티콘을 결정하며,
상기 복수의 제 3 텍스트 각각의 결과값에 따라 상기 복수의 제 1 이모티콘의 배치 순서를 결정하는 것을 특징으로 하는 머신 러닝 기반의 인공지능 이모티콘 제공 시스템.
The method according to claim 6,
The server comprises:
Classifying the plurality of third texts into at least one category among a plurality of predetermined categories,
Counting the number of the classified third texts by category,
Assigning a result value counted for each category to a third text belonging to each category,
A plurality of first emoticons matching the plurality of third texts among the plurality of emoticons stored in advance,
Wherein the arrangement order of the plurality of first emoticons is determined according to a result value of each of the plurality of third texts.
제 7항에 있어서,
상기 서버는,
상기 복수의 제 1 이모티콘과 상기 배치 순서를 상기 제 1 단말로 전송하고,
상기 제 1 단말은,
상기 복수의 제 1 이모티콘을 상기 배치 순서에 따라 표시하고,
상기 제 1 단말의 사용자가 상기 복수의 제 1 이모티콘 중 제 2 이모티콘을 선택하는 경우, 상기 제 2 이모티콘에 대한 정보를 상기 서버로 전송하며,
상기 서버는,
상기 제 2 이모티콘을 상기 제 2 단말로 전송하는 것을 특징으로 하는 머신 러닝 기반의 인공지능 이모티콘 제공 시스템.
8. The method of claim 7,
The server comprises:
Transmitting the plurality of first emoticons and the arrangement order to the first terminal,
The first terminal,
Displaying the plurality of first emoticons according to the arrangement order,
When a user of the first terminal selects a second emoticon among the plurality of first emoticons, transmits information on the second emoticon to the server,
The server comprises:
And transmits the second emoticon to the second terminal.
제 1항에 있어서,
상기 제 1 단말을 통해 적어도 하나의 제 2 컨텐츠가 추가 입력되는 경우,
상기 서버는 상기 제 1 단말로부터 상기 제 2 컨텐츠를 수신하고, 상기 제 2 컨텐츠에 포함된 텍스트를 미리 설정된 단위로 분류하여 복수의 제 2-2 텍스트를 생성하며, 상기 복수의 제 2-2 텍스트 중 미리 설정된 조건을 만족하는 적어도 하나의 제 3-2 텍스트를 필터링하고, 상기 미리 저장된 복수의 이모티콘 중 상기 제 3-2 텍스트에 매칭되는 적어도 하나의 제 1 이모티콘을 추가적으로 결정하는 것을 특징으로 하는 머신 러닝 기반의 인공지능 이모티콘 제공 시스템.
The method according to claim 1,
When at least one second content is additionally input through the first terminal,
The server receives the second content from the first terminal, generates a plurality of second-second texts by classifying the text included in the second content into a predetermined unit, And at least one first emoticon matching the third-second text among the plurality of emoticons stored in advance is additionally determined. Running-based artificial intelligence emoticons providing system.
제 1항에 있어서,
상기 제 1 단말은 복수이고,
상기 복수의 제 1 단말, 제 2 단말 및 서버 간의 동작에 관련된 데이터는 상기 서버에 저장되며,
상기 서버는 상기 저장된 데이터를 누적하여 이용함으로써, 머신러닝(machine learning)을 수행하는 것을 특징으로 하는 머신 러닝 기반의 인공지능 이모티콘 제공 시스템.
The method according to claim 1,
Wherein the first terminal comprises a plurality of terminals,
Data relating to operations between the first terminal, the second terminal and the server is stored in the server,
And the server accumulates and uses the stored data to perform machine learning. The machine learning based artificial intelligence emoticon providing system according to claim 1,
KR1020170171044A 2017-12-13 2017-12-13 artificial intelligence information system for emoticon service based on machine learning KR20180080986A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170171044A KR20180080986A (en) 2017-12-13 2017-12-13 artificial intelligence information system for emoticon service based on machine learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170171044A KR20180080986A (en) 2017-12-13 2017-12-13 artificial intelligence information system for emoticon service based on machine learning

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020170001949 Division 2017-01-05 2017-01-05

Publications (1)

Publication Number Publication Date
KR20180080986A true KR20180080986A (en) 2018-07-13

Family

ID=62913823

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170171044A KR20180080986A (en) 2017-12-13 2017-12-13 artificial intelligence information system for emoticon service based on machine learning

Country Status (1)

Country Link
KR (1) KR20180080986A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102116309B1 (en) * 2018-12-17 2020-05-28 주식회사 인공지능연구원 Synchronization animation output system of virtual characters and text
WO2020105992A1 (en) * 2018-11-19 2020-05-28 Samsung Electronics Co., Ltd. Method and system for predicting content based recommendations
KR20220090304A (en) * 2020-12-22 2022-06-29 주식회사 카카오 Content recommendation method and user terminal
KR20230000764A (en) * 2021-06-25 2023-01-03 주식회사 카카오 Method and user terminal for displaying emoticons using custom keyword
US11562510B2 (en) 2019-12-21 2023-01-24 Samsung Electronics Co., Ltd. Real-time context based emoticon generation system and method thereof
KR20230095432A (en) 2021-12-22 2023-06-29 (주)모션테크놀로지 Text description-based character animation synthesis system
US11934780B2 (en) 2018-08-14 2024-03-19 Snap Inc. Content suggestion system

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11934780B2 (en) 2018-08-14 2024-03-19 Snap Inc. Content suggestion system
WO2020105992A1 (en) * 2018-11-19 2020-05-28 Samsung Electronics Co., Ltd. Method and system for predicting content based recommendations
CN113016001A (en) * 2018-11-19 2021-06-22 三星电子株式会社 Method and system for predicting content-based recommendations
CN113016001B (en) * 2018-11-19 2024-06-07 三星电子株式会社 Method and system for predicting content-based recommendations
KR102116309B1 (en) * 2018-12-17 2020-05-28 주식회사 인공지능연구원 Synchronization animation output system of virtual characters and text
US11562510B2 (en) 2019-12-21 2023-01-24 Samsung Electronics Co., Ltd. Real-time context based emoticon generation system and method thereof
KR20220090304A (en) * 2020-12-22 2022-06-29 주식회사 카카오 Content recommendation method and user terminal
JP2022099331A (en) * 2020-12-22 2022-07-04 株式会社カカオ Content recommendation method and user terminal
KR20230000764A (en) * 2021-06-25 2023-01-03 주식회사 카카오 Method and user terminal for displaying emoticons using custom keyword
KR20230095432A (en) 2021-12-22 2023-06-29 (주)모션테크놀로지 Text description-based character animation synthesis system

Similar Documents

Publication Publication Date Title
KR20180080986A (en) artificial intelligence information system for emoticon service based on machine learning
US11138207B2 (en) Integrated dynamic interface for expression-based retrieval of expressive media content
CN108432190B (en) Response message recommendation method and equipment thereof
EP3324606A1 (en) Mobile terminal
CN109952572A (en) Suggestion response based on message paster
CN102291485B (en) Mobile terminal and group generating method therein
US9075828B2 (en) Electronic device and method of controlling the same
CN104298429A (en) Information presentation method based on input and input method system
US20150095127A1 (en) Interconnecting enhanced and diversified communications with commercial applications
US9342213B2 (en) Mobile terminal and method of controlling the same
CN103914502A (en) Method for intelligent search service using situation recognition and terminal thereof
CN108351880A (en) Image processing method, device, electronic equipment and graphic user interface
US20220092071A1 (en) Integrated Dynamic Interface for Expression-Based Retrieval of Expressive Media Content
KR20200115660A (en) How to apply intelligent
KR20180080987A (en) artificial intelligence information method for emoticon service based on machine learning
CN113709022A (en) Message interaction method, device, equipment and storage medium
CN111158924A (en) Content sharing method and device, electronic equipment and readable storage medium
CN112416207A (en) Information content display method, device, equipment and medium
CN113392178A (en) Message reminding method, related device, equipment and storage medium
CN112764600B (en) Resource processing method, device, storage medium and computer equipment
KR20170143063A (en) Smart clothes and method for controlling the same
CN110033338B (en) Recommendation method and device for recommendation
CN110110078B (en) Data processing method and device for data processing
CN115658857A (en) Intelligent dialogue method, device, equipment and storage medium
CN113157966B (en) Display method and device and electronic equipment

Legal Events

Date Code Title Description
A107 Divisional application of patent