KR20160089152A - 화행 분석을 통한 스티커 추천 방법 및 시스템 - Google Patents
화행 분석을 통한 스티커 추천 방법 및 시스템 Download PDFInfo
- Publication number
- KR20160089152A KR20160089152A KR1020150008724A KR20150008724A KR20160089152A KR 20160089152 A KR20160089152 A KR 20160089152A KR 1020150008724 A KR1020150008724 A KR 1020150008724A KR 20150008724 A KR20150008724 A KR 20150008724A KR 20160089152 A KR20160089152 A KR 20160089152A
- Authority
- KR
- South Korea
- Prior art keywords
- speech
- sticker
- analysis
- user terminal
- user
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 62
- 238000004458 analytical method Methods 0.000 claims abstract description 88
- 238000005211 surface analysis Methods 0.000 claims abstract description 32
- 230000009471 action Effects 0.000 claims description 14
- 238000003058 natural language processing Methods 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 5
- 239000002344 surface layer Substances 0.000 claims description 4
- 238000013518 transcription Methods 0.000 claims description 4
- 230000035897 transcription Effects 0.000 claims description 4
- 238000009825 accumulation Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 3
- 230000035987 intoxication Effects 0.000 claims 1
- 231100000566 intoxication Toxicity 0.000 claims 1
- 230000008451 emotion Effects 0.000 description 42
- 230000008569 process Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 17
- 230000002996 emotional effect Effects 0.000 description 12
- 230000004044 response Effects 0.000 description 7
- 238000000605 extraction Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000000877 morphologic effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 241000251468 Actinopterygii Species 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000010304 firing Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 241001071864 Lethrinus laticaudis Species 0.000 description 1
- 244000141359 Malus pumila Species 0.000 description 1
- 235000021016 apples Nutrition 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/274—Converting codes to words; Guess-ahead of partial word inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/01—Social networking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/04—Real-time or near real-time messaging, e.g. instant messaging [IM]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Business, Economics & Management (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Tourism & Hospitality (AREA)
- Marketing (AREA)
- Economics (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
- Psychiatry (AREA)
- Hospice & Palliative Care (AREA)
- Child & Adolescent Psychology (AREA)
- Computer Vision & Pattern Recognition (AREA)
Abstract
화행 분석을 통한 스티커 추천 방법이 개시된다. 본 발명은 제1사용자 단말기 및 제2사용자 단말기 간의 직전 발화에 대한 표층 분석을 수행하는 단계; 상기 표층 분석 결과를 이용하여 상기 직전 발화에 대한 화행 분석을 수행하는 단계; 상기 직전 발화를 포함하는 제1사용자 단말기 및 제2사용자 단말기 간의 연속 발화로서 소정 개수의 발화에 대한 표층 분석결과 및 화행 분석결과를 포함하는 대화 문맥 요소를 추출하는 단계; 대화 문맥 요소를 이용하여 제1사용자에게 추천할 스티커를 선정하는 단계; 및 상기 선정된 스티커를 제1사용자 단말기로 제공하는 단계;가 서버에서 실행됨으로써 실시될 수 있다.
Description
본 발명은 소셜 네트워크 서비스 또는 인스턴트 메신저를 통한 대화시 스티커를 추천하는 방법에 관한 것이다. 더욱 구체적으로는 화행 분석을 통해 문맥에 부합하는 스티커의 스티커를 추천하는 방법에 관한 것이다.
소셜 네트워크 서비스 또는 인스턴트 메신저를 통한 대화시 사용자의 감정상태를 표시하기 위해 이모티콘을 사용하곤 한다.
과거에는 대화의 뒷 부분에 텍스트로 쓰여진 이모티콘(OTL, ㅠㅠ, ^^;)을 덧붙이는 정도에 그쳤으나 최근에는 그래픽 이미지 형태의 이모티콘을 표시하기도 한다.
사용자는 대화 내용을 입력하다가 이모티콘 선택 창을 열어 적당한 것을 선택하여 입력할 수 있는데, 그 과정을 더욱 편리하게 하고자 사용자가 입력한 텍스트가 자동으로 이모티콘으로 변환되어 표시되는 기술이 개발되기도 했다.
도 1은 공지의 개인용 컴퓨터용 메신저(네이트온)에서 이모티콘이 표시되는 모습을 도시한다.
도 1에 도시된 공지의 메신저에서는 특정 키워드를 입력하면 해당 텍스트가 키워드에 해당하는 이모티콘으로 자동으로 변환된다. 도 1의 예에 의할 때 사용자가 "선물"이라 입력한 순간, "선물"이라는 단어가 선물에 해당하는 이모티콘으로 자동으로 변환된 것을 알 수 있다.
그러나, 이러한 종래기술은 단순히 특정 키워드가 입력되면 이를 미리 매칭된 이모티콘으로 변환하여 표시하는 것에 불과하기 때문에, 대화의 내용이나 문맥, 감정상태와는 전혀 무관하게, 심지어는 대화 상황에 비추어 적절하지 못한 방식으로 표시되는 일이 허다하다.
이에 따라, 단순한 키워드 매칭을 통한 이모티콘 변환 기술을 넘어서 사용자의 감정상태 등의 상황을 고려하여 보다 적절한 이모티콘을 추천하는 등의 기술이 개발된 바 있다.
대한민국 특허공개 10-2011-0026218 “문자 메시지 입력 장치 및 방법 그리고 그를 위한 프로그램을 기록한 기록 매체"는 입력된 대화 내용으로부터 감정상태를 나타내는 단어를 추출하고, 이를 이용하여 감정상태에 부합하는 이모티콘을 선택해주는 기술을 공지하고 있다.
그러나, 이 역시 입력된 텍스트를 분석하여 기쁨, 슬픔 등 감정상태를 나타내는 키워드가 등장하면, 이모티콘들 가운데 해당 키워드에 부합하는 것을 선택하는 정도에 그칠 뿐이다. 예컨대, 감정상태를 나타내는 단어가 사전적 의미와는 달리 반어법으로 사용되는 등의 경우 여전히 적절하지 못한 이모티콘이 추천되는 한계가 있다.
한편, 한국음향학회지 제28권 제1호에 게재된 2009년도 논문 "다양한 언어적 자질을 고려한 발화간 유사도 측정방법"에는 발화의 단순한 의미분석에서 더 나아가, 형태적 자질과 의미적 자질(문형이나 시제, 긍부정 등)을 고려하여 유사도를 측정하는 기술이 공지된 바 있다.
상기 논문은 본 발명의 발명자의 기존연구로서, 발화에 대한 의미분석을 통해 적절한 이모티콘을 추천하기 위하여 활용될 수 있을 것이나, 대화의 흐름에 따른 문맥을 파악하지 못하는 한계점이 있다.
문헌 3. 김준혁, 박영웅, 하슬비, 최용석, "텍스트 마이닝을 이용한 Bigram-Signature 기반의 자동 이모티콘 추천 모듈", 2014년 한국컴퓨터종합학술대회 논문집, 대한민국(2014)
문헌 4. 이연수, 신중휘, 홍금원, 송영인, 이도길, 임해창, "다양한 언어적 자질을 고려한 발화간 유사도 측정방법", 한국음향학회지 제28권 제1호 pp.61~69, 대한민국(2009)
문헌 5. 홍금원, 이연수, 김민정, 이승욱, 이주영, 임해창, 한국어 모바일 대화형 에이전트 시스템", 韓國컴퓨터情報學會論文誌 第13卷第6號, 대한민국(2008. 11.)
본 발명은 상기와 같은 종래기술의 문제점을 해소하기 위하여 개발된 것으로, 원격지 사용자들간 대화를 입력하여 서로 주고받는 메신저 또는 소셜 네트워크 서비스에서 발화에 포함시켜 사용할 수 있도록 스티커를 추천하되, 발화 단위가 아니라 다수의 발화가 연속적으로 이어지는 대화 단위로 문맥을 파악하고, 문맥에 비추어 적합한 스티커를 추천하는 방법을 제시하고자 한다.
즉, 단순한 키워드
매칭의
수준을 넘어, 추상화된 수준의 자연어 분석을 통해 특정 키워드의 포함 여부와 무관하게 다양한 표현으로부터 발화 의도를 파악함으로써, 보다 정확하고 적절한 스티커의 추천을 가능케 하는 방법을 제시하는데 본 발명의 목적이 있다.
본 발명은 더 나아가, 화행 분류 체계를 이용하여 화행을 구분하고, 순차적으로 이어지는 다수의 발화에 대한 화행 카테고리와 표층 분석결과를 이용하여 대화 상황 정보를 생성하고, 이를 이용하여 문맥에 적합한 스티커를 추천하는 방법의 제시를 목적으로 한다.
종래에는 주로 감정상태를 나타내기 위하여 이모티콘을 사용했으나, 화행 분석 정보를 스티커 추천에 사용함으로써 감정상태의 표현과는 관계없이 발화 의도를 나타내기 위하여 다양한 스티커의 추천과 사용을 가능케 하는 방법론을 제시하고자 한다.
상기와 같은 목적을 달성하기 위하여 본 발명에 의한 화행 분석을 통한 스티커 추천 방법은 코퍼스(Corpus)에 대한 화행 및 감정 태그 부착을 통한 발화 데이터 축적 단계;
제1사용자 단말기 및 제2사용자 단말기 간의 직전 발화에 대한 표층 분석을 수행하는 단계;
상기 표층 분석 결과와
소정 개수의
이전 발화에 대한 표층 분석 결과 및 화행 분석 결과 등을 이용하여 상기 직전 발화에 대한 화행 분석을 수행하는 단계;
상기 직전 발화를 포함하는 제1사용자 단말기 및 제2사용자 단말기 간의 연속 발화로서 소정 개수의 발화에 대한 표층 분석결과 및 화행 분석결과를 포함하는 대화 문맥 요소를 추출하는 단계;
대화 문맥 요소를 이용하여 제1사용자에게 추천할 스티커를 선정하는 단계; 및
상기 선정된 스티커를 제1사용자 단말기로 제공하는 단계;를 포함한다.
이때, 상기 발화 데이터 축적은 스티커가 부착된 코퍼스로부터 대화 상황 정보를 생성하고, 대화 상황 정보 - 스티커의 조합으로 생성하는 단계;
연속 발화 간 화행 정보의 흐름을 인덱싱하여 저장하는 단계; 및
스티커와 입력 발화의 조합을 스티커 아이디로 인덱싱하여 저장하는 단계;로 이루어질 수 있다.
이때, 상기 표층 분석은 입력된 발화에 대한 구어체 문장을 교정하는 단계;
상기 교정된 발화에 대하여 형태소를 분석하고 품사를 부착하는 단계; 및
상기 분석된 형태소와 부착된 품사를 기준으로 키워드를 추출하는 단계;로 이루어질 수 있다.
이때, 상기 화행 분석을 수행하는 단계에서는, 상기 표층 분석이 수행된 발화에 대하여, 기 구축된 화행 분류 체계 가운데 어느 화행 카테고리 속하는지 판정한다.
이때, 상기 대화 문맥 요소는 상기 직전 발화의 화행 카테고리와 표층 요소; 및
상기 직전 발화의 바로 전 소정 개수의 제1사용자 및 제2사용자 간의 발화 각각의 화행 카테고리와 표층 요소;를 포함하며,
스티커를 선정하는 단계에서는 기 축적된 발화 데이터 가운데 상기 대화 문맥 요소에 포함된 화행 카테고리들의 변화와 일치하며, 상기 직전 발화의 키워드에 부합하는 발화 데이터와 연관된 스티커들을 선정한다.
이러한 본 발명에 의할 때,
동일한 대화 내용이나 키워드가 입력되어도 반드시 동일한 스티커가 추천되지 않으며, 대화 상황과 문맥을 고려하여 적합한 스티커가 추천된다. 즉, 단순히 키워드 매칭을 통해 자동추천하는 공지의 알고리즘에 비하여 대화의 상황이나 문맥을 고려함으로써 스티커 추천의 적절성이 담보되는 효과가 있다.
특히, 발화 단위가 아니라 대화 단위(대화는 순차적으로 이어지는 다수의 발화를 포함함)로 화행 분석을 수행함으로써 대화 상황 정보를 생성하고, 이를 이용하여 스티커를 추천함으로써 문맥에 부합하는 스티커 추천이 가능해진다.
도 1은 종래기술에 의한 이모티콘 자동 변환기술을 예시하는 도면이며,
도 2는 서버와 사용자 단말기들의 연결관계를 도시하는 도면이며,
도 3는 대화 상황, 상대방과의 관계 및 개인 선호를 고려하여 스티커가 추천되는 예를 설명하는 도면이며,
도 4는 수집된 발화를 분석하여 스티커가 추천되기까지의 과정을 설명하는 도면이며,
도 5은 화행분석, 감정분석 및 관계분석을 예시적으로 설명하는 도면이며,
도 6은 화행을 대화의 범용적 관점에서 구분한 체계를 예시한 도면이며,
도 7은 화행을 사회적 의례 관점에서 구분한 체계를 예시한 도면이며,
도 8는 감정을 종류와 정도에 따라 구분한 체계를 예시한 도면이며,
도 9는 본 발명에 의한 화행 분석을 통한 스티커 추천 방법을 시계열적으로 설명하는 플로우차트이며,
도 10은 코퍼스로부터 대화 상황 정보 - 스티커 정보 조합이 생성되는 과정을 설명하는 도면이며,
도 11은 코퍼스 기계 학습을 통해 발화 데이터가 축적되는 과정을 부연하는 플로우차트이며,
도 12는 자연어 발화 분석 단계의 처리 방법을 설명하는 도면이며,
도 13은 자연어 발화 분석 과정을 부연하는 플로우차트이며,
도 14는 표층 요소들을 예시하는 도면이며,
도 15는 대화 문맥 요소들을 예시하는 도면이며,
도 16은 사용자에게 스티커가 추천되는 모습을 예시하는 도면이며,
도 17은 화행 분석을 통한 스티커 추천 시스템의 구조를 설명하는 기능 블록도이다.
도 2는 서버와 사용자 단말기들의 연결관계를 도시하는 도면이며,
도 3는 대화 상황, 상대방과의 관계 및 개인 선호를 고려하여 스티커가 추천되는 예를 설명하는 도면이며,
도 4는 수집된 발화를 분석하여 스티커가 추천되기까지의 과정을 설명하는 도면이며,
도 5은 화행분석, 감정분석 및 관계분석을 예시적으로 설명하는 도면이며,
도 6은 화행을 대화의 범용적 관점에서 구분한 체계를 예시한 도면이며,
도 7은 화행을 사회적 의례 관점에서 구분한 체계를 예시한 도면이며,
도 8는 감정을 종류와 정도에 따라 구분한 체계를 예시한 도면이며,
도 9는 본 발명에 의한 화행 분석을 통한 스티커 추천 방법을 시계열적으로 설명하는 플로우차트이며,
도 10은 코퍼스로부터 대화 상황 정보 - 스티커 정보 조합이 생성되는 과정을 설명하는 도면이며,
도 11은 코퍼스 기계 학습을 통해 발화 데이터가 축적되는 과정을 부연하는 플로우차트이며,
도 12는 자연어 발화 분석 단계의 처리 방법을 설명하는 도면이며,
도 13은 자연어 발화 분석 과정을 부연하는 플로우차트이며,
도 14는 표층 요소들을 예시하는 도면이며,
도 15는 대화 문맥 요소들을 예시하는 도면이며,
도 16은 사용자에게 스티커가 추천되는 모습을 예시하는 도면이며,
도 17은 화행 분석을 통한 스티커 추천 시스템의 구조를 설명하는 기능 블록도이다.
이하에서는 본 발명의 바람직한 실시예 및 첨부하는 도면을 참조하여 본 발명을 상세히 설명하되, 도면의 동일한 참조부호는 동일한 구성요소를 지칭함을 전제하여 설명하기로 한다.
발명의 상세한 설명 또는 특허청구범위에서 어느 하나의 구성요소가 다른 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 당해 구성요소만으로 이루어지는 것으로 한정되어 해석되지 아니하며, 다른 구성요소들을 더 포함할 수 있는 것으로 이해되어야 한다.
또한, 발명의 상세한 설명 또는 특허청구범위에서 "~수단", "~부", "~모듈", "~블록"으로 명명된 구성요소들은 적어도 하나 이상의 기능이나 동작을 처리하는 단위를 의미하며, 이들 각각은 소프트웨어 또는 하드웨어, 또는 이들의 결합에 의하여 구현될 수 있다.
이하에서, 스티커란 메신저 또는 소셜 네트워크 서비스 상에서 대화시 사용하는 그래픽 이미지를 의미한다. 이모티콘으로 혼용되기도 하는 개념으로 이하에서는 스티커로 통칭하기로 한다.
이하에서, 붙임 스티커란 사용자가 입력한 대화 문장에 부종하며, 입력된 문장에 부착되어 사용되는 스티커를 의미한다.
이하에서, 응답 스티커란 상대방이 입력한 직전 대화 내용 또는 상대방이 직전 대화에 사용한 스티커에 응답하기 위해 사용되는 스티커를 의미한다.
본 발명에서 붙임 스티커는 사용자가 입력한 대화 문장에 대하여 추천되는 스티커이며, 응답 스티커는 상대방이 직전에 입력한 대화 문장이나 사용한 스티커에 응답하기 위하여 사용자에게(상대방이 아닌) 추천되는 스티커로 구분될 수 있다.
이하에서, 스티커의 부착이란 대화창 또는 대화 입력 내용의 앞뒤 또는 중간에 해당 스티커의 그래픽 이미지를 표시하는 것을 의미한다.
이하에서, 발화(發話)란 사용자가 메신저 또는 소셜 네트워크 서비스 상에 입력한 대화의 기본 단위를 의미한다. 통상, 대화 입력창에 텍스트 형태로 대화 내용을 입력한 다음 "전송" 버튼을 누르는 것에 의해 발화가 이루어진다.
이하에서, 대화 상황이란 발화의 의도, 감정, 키워드 분석을 통해 드러나는 대화의 상태 흐름을 의미한다.
이하에서, 화행(話行, Speech act)이란 발화의 의도를 의미한다.
이하에서, 대화 상황 정보란 일련의 연속된 발화들에 대한 화행 분석, 감정 정보, 분석 및 키워드 추출 결과로 획득된 화행 정보(화행 카테고리에 대한 정보), 감정 정보(감정 카테고리 및 감정 강도에 대한 정보), 키워드를 포함한다.
이하에서, 발화 데이터란 화행 부착 코퍼스 및 감정 부착 코퍼스에 대한 분석을 통해 축적된 데이터를 의미한다. 바람직하게는, 다수의 연속 발화의 화행 카테고리 변화, 감정 종류, 감정 강도 변화를 포함한다. 발화 데이터에 포함된 각 발화는 분석되어 화행 정보, 감정 정보, 키워드를 가지며, 대화 상황 정보의 형태로 저장될 수도 있다. 한편, 각 발화가 응답에 해당하는지 주제를 시작하는 발화인지에 대한 정보를 더 포함할 수 있다.
이하에서, 표층 요소란 발화가 가지는 형식적인 특징을 기술하기 위해 정의되는 요소들로서, 임의의 발화에 대해 구어체 문장 교정을 거쳐, 형태소 분석 및 품사를 부착한 결과 얻어진다.
이하에서 감정 분류 요소란 발화의 감정 종류나 강도를 기술하기 위해 정의되는 요소로서, 화행을 분석한 결과 얻어진다.
이하에서, 대화 문맥 요소란 다수의 연속되는 발화가 갖는 문맥을 기술하기 위해 정의되는 요소들로서, 사용자의 직전 몇 개의 발화에 대한 표층 요소, 대화 상대방의 직전 몇 개의 발화에 대한 표층 요소, 화행 정보와 감정 정보의 히스토리를 포함한다.
도 2는 사용자 단말기(20)와 서버(10)의 연결관계를 나타내는 도면이다.
사용자 단말기(20)는 네트워크를 통해 서버(10)에 접속하며, 대화 내용을 입력하거나 상대방으로부터 입력된 발화를 표시하기 위한 수단에 해당한다.
사용자는 사용자 단말기(20)를 이용하여 서버(10)를 경유, 다른 사용자들과 텍스트나 이미지 등을 포함하는 시각적 형태의 메시지를 주고 받을 수 있다.
사용자 단말기(20)는 이와 같은 기능을 수행하기 위한 수단으로서, 스마트폰이나 개인용 컴퓨터와 같은 형태일 수 있다. 이외에도, 네트워크(바람직하게는 인터넷)에 접속할 수 있으며 사용자가 시각적 형태의 커뮤니케이션이 가능하게 하는 수단이라면 사용자 단말기(20)에 포함되는 것으로 이해되어야 한다.
이하에서는 제1사용자는 메시지를 주고 받음으로써 대화중인 사용자이며, 제1사용자단말기(21)는 이와 같이 제1사용자로 하여금 시각적 형태의 커뮤니케이션을 할 수 있도록 하는 수단에 해당한다.
제2사용자는 제1사용자와 대화하는 상대방이며, 제2사용자단말기(22)는 제2사용자가 대화시 사용하는 단말기이다.
서버(10)는 제1사용자와 제2사용자간 대화를 할 수 있도록 메시지를 중개하며, 더 나아가 제1사용자에게 붙임 스티커 또는 응답 스티커를 추천한다.
이하에서는, 서버(10)가 제1사용자에게 스티커를 추천하는 경우를 설명하나, 제1사용자와 제2사용자의 구분은 이해를 돕기 위한 편의상의 구분일 뿐이며, 실제로 서버(10)는 양쪽 사용자 모두에게 스티커를 추천할 수 있음은 당연하다.
도 2에서는 서버(10)를 단일 서버인 것으로 도시하였으나, 서버(10)는 기능에 따라 나뉘어진 다수의 서버를 포함하는 서버군의 형태여도 무방하다.
예컨대, 제1사용자 단말기(21)와 제2사용자 단말기(22)간의 대화를 중개하는 메신저 서버, 대화를 분석하여 스티커를 추천하는 스티커 추천 서버로 이루어질 수도 있으며 소셜 네트워크 서비스를 제공하는 서버를 포함할 수도 있다.
아니면, 외부의 소셜 네트워크 서비스 서버와 연동되어 스티커 추천결과가 외부 서버를 경유하여 사용자 단말기(20)로 제공되도록 할 수도 있다.
본 발명은 이와 같은 서버(10)에서 실행되는 스티커 추천 방법으로 실시되거나, 또는 스티커 추천 방법을 실행하는 서버(10)의 형태로 실시될 수 있다. 또는, 서버(10)에서 실행되는 컴퓨터 프로그램의 형태로 실시될 수도 있다.
서버(10)는 다음과 같은 과정을 통해 사용자의 대화시 적절한 스티커를 선정하여 추천한다.
우선, 서버(10)는 제1사용자단말기(21) 및 제2사용자 단말기(20)로부터 대화 내용을 수집하고, 발화를 분절하여 분석함으로써 대화상황 분석을 수행한다.
한편, 기 수립된 대화 상황 분류체계와 대화 상황 정보를 이용하여 기 수집되어 분석된 발화 데이터로부터 유사 대화상황을 검색함으로써 적절한 스티커 후보군을 선정하고, 상황과 선호도에 기반하여 랭킹을 메겨 최종적으로 사용자에게 스티커를 추천한다.
즉, 단순히 키워드 비교에 의해 1대1 매칭(동일 키워드에 대해 동일한 스티커를 추천)을 수행하는 종래기술과 달리, 대화 내용을 파싱한 결과로 동일한 키워드가 확인되어도 대화의 상황 및 상대방과의 관계나 사용자의 개인 선호에 따라 스티커를 다르게 추천하는 것이다.
도 3은 서버(10)가 동일 대화 내용에도 불구하고 대화 상황, 상대방과의 관계 및 개인 선호에 따라 서로 다른 스티커 그룹을 추천하는 경우를 설명한다.
도 3에 도시된 "예시 #1"에 의하면, 대화 상대방이 회사 상사인 경우와 친한 친구인 경우 서로 다른 스티커 그룹이 추천됨을 알 수 있다.
회사 상사인 경우 지나치게 격의 없는 느낌을 주는 스티커는 배제되며, 윗 사람과 대화시 사용할 만한 스티커가 위주로 추천된다.
반면, 상대방이 친한 친구인 경우에는 반대로 격식보다는 편하게 사용할 수 있는 스티커 위주로 추천된다.
한편, 도 3에 도시된 "예시 #2"는 사용자의 감정 상태에 따라 적절한 스티커 그룹이 추천되는 예를 설명한다.
사용자가 회사에서 힘들고 슬펐던 일을 이야기하고 있는 경우, 서버(10)는 이러한 사용자의 감정 상태를 파악하여, "예시 #2"에서 확인되는 바와 같이 감정 상태에 부합하는 스티커 그룹을 추천하는 것이다.
한편, 도 3에 도시된 "예시 #3"은 대화 상황에 따라서 적절한 스티커가 추천되는 예를 설명한다.
대화 상대방의 마지막 입력 대화 내용이 한턱 쏘겠다는 내용인 경우, 그 다음 사용자의 대화 입력내용으로는 상대방의 말에 적절한 대답이 될 수 있는 스티커를 추천하는 것이다.
한편, 도 3에 도시된 "예시 #4"는 개인의 선호에 따라서 선택된 스티커 그룹의 순위를 다시 메겨 추천하는 예를 설명한다.
사용자가 평소 많이 사용한 스티커의 메타데이터를 분석한 결과, 해당 사용자가 과장된 행동으로 표현되는 스티커를 주로 사용한다면, 서버(10)는 대화 상황이나 상대방과의 관계, 감정 상태 등을 고려하여 선택된 스티커 그룹 가운데 과장된 행동으로 표현되는 스티커가 우선적으로 노출되도록 보정하여 이를 제1사용자 단말기(21)로 제공한다.
이러한 일련의 스티커 추천 과정은 도 4에 도시된 바와 같이 크게 대화 상황분석 단계와 스티커 추천 단계로 구분된다.
도 4는 기 수집된 발화를 분석하여 스티커가 추천되기까지의 과정을 설명한다.
대화 상황분석 단계에서는 자연어 처리를 통해 구어체 문장을 교정하고, 형태소를 분석하며, 품사를 부착하게 된다.
그 결과로 단위 발화에 대한 표층 요소의 추출이 이루어진다.
발화에 대한 표층 요소들이 분석된 후 이를 이용하여 화행분석과 감정분석이 행하여 진다.
또한, 주고 받는 대화의 쌍에 대한 분석을 통해 대화 당사자간의 관계에 대한 분석이 행하여진다.
한편, 서버(10)는 별도의 대화 상황 분류체계를 활용하여 가장 유사한 대화상황을 찾는다.
대화 상황은 크게 의도/감정/관계에 따라 나뉘며, 종합적으로 고려된다.
"의도"는 대화의 범용적인 관점이나 사회의례적 관점에서 다양하게 분류될 수 있다. 예컨대, "칭찬", "도움 요청", "인사", "자랑" 등의 분류를 가질 수 있다.
"감정"은 감정의 카테고리는 물론 감정의 강도에 따라 나뉠 수 있다. 예컨대, "기쁨", "슬픔"과 같은 감정의 카테고리와, "매우", "보통", "조금"과 같이 감정의 강도에 따른 분류를 가질 수 있다.
"관계"는 상하관계 여부, 친밀도 정도에 따른 분류를 가질 수 있다. 예컨대, "윗사람", "아래사람", "친함", "친하지 않음"과 같은 분류를 가질 수 있다.
이러한 과정을 거쳐 대화상황 분석이 이루어지면, 스티커 추천 단계에서 서버(10)는 스티커 추천 알고리즘에 의해 스티커를 추천한다.
이러한 일련의 과정을 첨부한 도면을 참조하여 상세히 살펴보면 다음과 같다.
우선, 대화 상황 분석 단계에서 서버(10)는 단일 발화를 분석하는 것에 그치지 않고, 대화 상대방 간의 양방향 대화의 흐름을 분석하다.
대화 상황 분석 단계는 다시 발화 단위 분석 단계와 대화 단위 분석 단계로 나뉜다.
발화 분석 단계는 문맥과 관계없이 어휘 수준의 분석을 수행한다.
발화 분석 단계에서는 우선, 구어체 문장을 교정한다. 구어체 문장의 교정은 띄어쓰기를 교정하고, 철자와 비속어를 교정하며, 이모티콘 인식하여 대응되는 어휘로 변환함으로써 이루어진다.
한편, 형태소분석 및 품사부착이 수행되며, 그 결과로부터 키워드가 추출된다.
이후 대화 단위 분석 단계에서는 화행 분석과 감정 분석, 관계 분석이 행하여 진다. 이를 통해, 서버(10)는 대화 상황 정보를 생성한다.
대화 단위 분석 단계에서는 발화 단위가 아닌 양방향 대화 문맥을 고려하여 분석이 이루어지며, 대화 단위 분석시 기 구축된 상황 분류 체계가 사용된다.
도 5는 화행분석, 감정분석 및 관계분석 과정을 설명하는 도면이다.
도 5의 (a)에 도시된 바에 의할 때, 화행 분석 단계에서는 발화를 통해 드러나는 사용자의 의도를 분석한다.
입력값은 "발화"이며, 출력값은 "화행 카테고리"이다.
도 5의 (a)에 의할 때, 제1사용자의 발화인 "내가 지금 하고 있는 이 새 프로젝트 좀 도와줄래?"가 입력된 경우 이에 대응하는 출력값은 미리 정의된 화행 카테고리의 하나인 "요청/명령"임을 알 수 있다.
도 5의 (b)에 도시된 바에 의할 때, 감정 분석 단계에서는 발화를 통해 드러나는 사용자의 감정을 분석한다.
입력값은 "발화"이며, 출력값은 "감정카테고리 및 감정정도"이다.
도 5의 (b)에 예시된 바에 의할 때, 제1사용자의 발화인 "어제 피곤해서 기절했어 ㅠㅠ"가 입력된 경우 이에 대응하는 출력값은 "슬픔", "보통"임을 알 수 있다. 즉, 감정카테고리는 "슬픔", 감정정도는 "보통"으로 분석한 것이다.
도 5의 (c)에 도시된 바에 의할 때, 관계 분석 단계에서는 발화를 통해 드러나는 사용자 간의 상하관계를 분석하고, 사용자 간의 친밀도를 분석한다.
입력값은 "발화"이며, 상하관계 분석결과 출력값은 "상하" 또는 "평등"일 수 있다. 친밀도 분석결과 출력값은 "친함" 또는 "안친함"일 수 있다.
이와 같이 화행 분석과 감정 분석, 관계 분석을 통해 대화 상황 정보가 생성되면, 서버(10)는 상황 분류 체계를 이용하여 유사 상황을 검색하게 된다.
대화 상황 분류체계는 화행 분류체계와 감정 분류체계로 구분된다.
화행 분류체계는 대화의 범용적인 관점이나 사회의례적 관점에서 화행 - 즉, 대화의 의도를 다양하게 구분한 것이다.
도 6은 화행을 대화의 범용적 관점에서 구분한 체계를 예시한 도면이다.
도 6에 예시된 바에 의할 때, "Yes No 질문", "Wh 질문", "대답-긍정", "대답-부정", "동의", "반대", "자랑" 등의 유형이 표시된 것을 확인할 수 있다.
도 6의 화행 분류체계는 ISO 표준 분류체계의 분류기준, 계층구조를 반영하되 한국어 대화 의도 분류에 부합하도록 만들어진 것이며, 감정에 해당하는 분류를 제거한 것이다.
도 7의 화행 분류체계는 도 6의 대화 범용 분류 체계에 더하여, 메신저 서비스에서 흔히 나타나는 대화 태도에 대한 요소를 고려하여 별도의 분류체계를 만든 것이다.
도 7에 예시된 바에 의할 때 "만남인사", "사과", "감사", "축하", "애도", "격려", "악담" 등이 포함될 것을 확인할 수 있다.
채팅에서 흔히 나타나는 대화의 양태(Modality)를 분류 체계화한 것에 해당한다.
도 8은 감정을 종류와 정도에 따라 구분한 체계를 예시한 도면이다.
도 8에 예시된 감정 분류체계는 공지의 감정 분류모델을 참조하여 만든 것으로 "중립 감정" 즉, 감정이 없는 상태를 포함하는 9가지의 감정의 카테고리로 나뉜다.
여기에 각 감정의 카테고리마다 강, 중, 약으로 감정의 강도가 구분된다.
다음으로, 스티커 추천 단계에서 서버(10)는 상기와 같이 생성된 대화 상황 정보를 화행 분류 체계 및 감정 분류 체계에 적용함으로써 유사상황을 검색한다.
도 4에 도시된 바와 같이 스티커 추천 단계는 유사 상황 검색 단계와 관계 및 선호도 기반 순위 결정 단계로 이루어진다.
유사 상황 검색 단계에서는 대화 상황 정보를 이용하여 현재 가장 그럴듯한 화행 흐름을 기준으로 기 분석되어 저장된 발화 데이터 가운데 가장 가까운 상황을 선정한다.
또한, 주제를 시작하는 발화인지, 응답에 해당하는 (또는 이에 가까운) 발화인지를 구분한다.
상황별로, 주제를 시작하는 발화인지 응답인지에 따라 스티커 후보군이 미리 매칭이 되며, 선호도 기반 순위 결정 단계에서는 매칭된 스티커 후보군들을 대상으로 순서를 메긴다.
상대방과의 관계에 기반한 적합도와 사용자의 선호도에 기반한 적합도를 따져 적합한 스티커들이 우선 노출되도록 하는 것이다.
이러한 일련의 과정을 거쳐서야 도 3에 예시된 바와 같은 스티커 추천이 이루어진다.
본 발명의 실시예에 의한 화행 분석을 통한 스티커 추천 방법은, 상기에서 살펴본 일련의 과정 가운데, 발화에 대한 표층 분석을 수행하고, 화행 카테고리를 판정하되, 다수의 연속 발화에 대한 분석결과를 이용하여 대화 문맥 요소를 획득하는 더욱 상세한 과정을 제시한다.
이하에서는 도 9 내지 도 16를 참조하여 본 발명의 실시예에 의한 화행 분석을 통한 스티커 추천 방법을 상세히 설명하기로 한다.
도 9는 본 발명에 의한 화행 분석을 통한 스티커 추천 방법을 시계열적으로 설명하는 플로우차트이다.
도 9에 도시된 바에 의할 때, 서버(10)는 코퍼스(Corpus)에 대한 화행 및 감정 태그 부착을 통해 발화 데이터를 축적한다(S10).
도 10 및 도 11은 코퍼스로부터 기계 학습을 수행하여 대화 상황 정보를 생성하고, 발화의 스티커의 유사도 판정을 위한 인덱싱 과정을 부연한다.
도 11은 S10 단계를 세분화하여 설명하는데, 이에 의할 때 우선 서버(10)는 스티커가 부착된 발화로부터 대화 상황 정보를 생성하고, 대화 상황 정보 - 스티커의 조합을 생성한다(S11).
도 10에 예시된 바에 의할 때, 코퍼스에 대한 분석을 통해 화행/감정/키워드 태그를 부착하고, 대화 상황 정보를 생성하는 과정을 확인할 수 있다.
도 10의 상단에 표시된 발화는 "어제 야근해서 너무 피곤해 (스티커)"와 같으며, 이에 대한 분석결과 얻어지는 대화 상황 정보는 "{화행-알림, 감정-슬픔, 키워드-어제/야근/피곤}"와 같다. 그리고, 해당 발화에는 "슬픔 4"라는 id를 갖는 스티커가 부착되어 있다.
따라서, "{화행-알림, 감정-슬픔, 키워드-어제/야근/피곤} 스티커 : 슬픔4"와 같은 대화 상황 정보 - 스티커 조합이 생성된다.
이후, 서버(10)는 연속 발화 간 화행 정보의 흐름을 인덱싱하여 저장한다(S12).
도 10의 예에서 위의 발화의 화행 정보는 "알림", 바로 다음 발화의 화행 정보는 "위로"이다. 따라서, "알림-위로"와 같이 화행 정보의 흐름을 저장한다.
수많은 코퍼스에 대한 학습 결과 다양한 조합의 화행 정보 흐름이 저장된다.
다음으로, 스티커와 입력 발화의 조합을 스티커 아이디로 인덱싱하여 저장한다(S13).
코퍼스에 대한 학습을 통해 어떤 발화에 어떤 스티커가 부착되어 있는지를 스티커 id 별로 인덱싱하여 저장하는 것이다. 이에 의해 발화의 키워드나 화행 정보를 이용하여 스티커와의 연관성, 유사성을 수치적으로 계산하는 것이 가능해진다.
이와 같이 코퍼스에 대한 학습 및 발화 데이터의 구축을 완료한다.
이후, 서버(10)는 제1사용자 단말기(21) 및 제2사용자 단말기 간의 발화를 수집하여 분석한다. 새로운 발화가 있으면 서버(10)는 우선 해당 발화 - 즉, 직전 발화에 대한 표층 분석을 수행한다(S20).
도 12 및 도 13은 서버(10)에 의한 자연어 발화 분석을 통한 개별 발화의 표층 분석 과정을 부연한다.
도 13에 도시된 바에 의할 때, 표층 분석 과정에서 서버(10)는 우선 입력된 발화에 대한 구어체 문장을 교정한다(S21).
도 12에 예시된 바와 같이 입력된 발화가 "ㅁ lㅇ ㅓ되지야ㅋㅋㅋㅋ"인 경우,
1) 반복어구인 "ㅋㅋㅋㅋ"를 "ㅋㅋㅋ"로 단축하고,
2) 음절 해체 문장을 교정하여 "ㅁ lㅇ ㅓ"를 "미어"로 교정하며,
3) 띄어쓰기를 교정하여 "미어되지야"를 "미어 되지야"로 교정하고,
4) 이모티콘을 인식하여 "ㅋㅋㅋ"를 "[기쁨:ㅋㅋㅋ]"와 같이 변환하며,
5) 철자 오류인 "되지"를 "돼지"로 교정한다.
그리고, 입력된 발화에 비속어나 욕설 등이 존재하는 경우 이를 제거한다.
이와 같은 과정을 거쳐 구어체 문장이 교정되면, 이후 서버(10)는 상기 교정된 발화에 대하여 형태소를 분석하고 품사를 부착한다(S22).
도 12에 예시된 바와 같이 어절을 형태소로 잘라서 교정된 문장인 "미워 돼지야"를 "밉+어", "돼지+야"로 각각 분할한다.
이후, 각 형태소 단위로 기능에 따라서 품사를 태깅한다.
위의 예에서는 "밉/형용사 + 어/종결어미", "돼지/명사 + 야/호격조사"와 같이 부착된다.
이와 같이 품사의 태깅이 완료되면 이로부터 키워드를 추출한다(S23). 주로 체언 위주로 키워드를 추출할 수 있다.
이외에도 표층 분석 단계에서는 발화에 대해 다양하게 정의된 표층 요소들이 추출된다.
도 14는 표층 요소들을 예시하는 도면이다.
기본적인 형태소, 어휘-품사의 쌍, 주어, 길이, 마지막 어절, 동사, 부사, 보조용언 등에 대한 파악은 물론, 형식 형태소나 형식 품사에 대한 파악, 욕설이나 이모티콘에 대한 요소가 각각 추출된다.
이러한 과정을 통해 직전 발화에 대한 표층 분석이 완료되면, 서버(10)는 상기 표층 분석 결과를 이용하여 상기 직전 발화에 대한 화행 분석을 수행한다(S30).
화행 분석 단계에서는 표층 요소들을 이용하여 해당 발화가 기 구축된 화행 분류 체계 가운데 어느 화행 카테고리에 속하는지를 판정한다.
표층 요소들의 조합을 가지고서 기계적으로 어느 화행 카테고리에 속하는지를 판정할 수 있다.
분석 결과로는 도 6 및 도 7에 도시된 바와 같은 화행 카테고리 가운데 어느 하나의 값이 반환된다.
한편, 이 같이 직전 발화에 대한 표층 분석과 화행 분석이 끝나면, 직전 발화의 키워드와 화행 카테고리를 얻을 수 있게 된다.
서버(10)는 직전 발화의 이전 발화들에 대한 표층 분석결과와 화행 분석결과를 포함하는 대화 문맥 요소를 생성한다(S40).
도 15는 대화 문맥 요소를 예시한다.
단일 발화를 가지고서 스티커를 추천하는 것이 아니라, 대화의 문맥을 정의하고 기술하기 위해서는 직전 발화의 이전 몇몇 발화들에 대한 표층 분석결과와 화행 분석결과에 대한 고려가 이루어져야 한다.
특히, 어느 하나의 사용자의 발화뿐 아니라, 그 상대방의 발화까지도 고려되어야 한다.
도 15에 예시된 대화 문맥 요소는 이전 몇 개의 발화의 표층 요소와 화행 카테고리, 감정 종류와 강도의 정보를 포함한다.
이와 같이 대화 문맥 요소가 생성됨에 따라 서버(10)는 생성된 대화 문맥 요소를 이용하여 제1사용자에게 추천할 스티커를 선정한다(S50).
기 축적된 발화 데이터 가운데 상기 대화 문맥 요소에 포함된 화행 카테고리들의 변화와 일치하며, 상기 직전 발화의 키워드에 부합하는 발화 데이터와 연관된 스티커들을 선정한다.
발화 데이터 가운데 제1사용자와 제2사용자간 최근 몇 개의 발화의 화행 카테고리 변화와 일치하는 발화들에 연관된 스티커이고, 동시에 상기 직전 발화에 대한 표층 분석을 통해 얻어진 키워드에 부합(예컨대, 스티커 id 인덱싱 결과 해당 키워드가 포함될 발화에서 임계치 이상 사용된 스티커라거나, 또는 해당 키워드를 메타 데이터로 갖는 스티커 등)하는 스티커라면, 문맥상 제1사용자가 발화시에 부착하여 사용하거나 또는 제2사용자의 발화에 대한 응답시에 사용하기에 적절하다고 볼 수 있다.
이와 같이 추천할 스티커가 선정되면 서버(10)는 선정된 스티커에 대한 정보(스티커의 id나 스티커 그래픽 데이터 등)를 제1사용자 단말기(21)로 제공한다(S60).
도 16은 이러한 과정을 거쳐 제1사용자 단말기(21)로 스티커가 추천된 모습을 예시한다.
도 16의 (a)는 붙임 스티커의 추천을 예시한다. 제1사용자가 입력한 텍스트(직전 발화)에 대한 분석을 통해 제1사용자가 해당 발화에 부착하여 사용할만한 스티커가 추천된다. 물론, 해당 발화의 이전 발화들을 포함하여 문맥이 고려된다.
도 16의 (b)는 응답 스티커의 추천을 예시한다. 직전 발화는 제2사용자의 발화 "저 선수가 홈런을 쳐야 하는데...이며, 이에 대한 분석을 통해 제1사용자가 해당 직전 발화에 대해 응답할 때 사용할만한 스티커를 추천하는 것이다.
이하에서는 도 17을 참조하여 본 발명의 실시예에 의한 화행 분석을 통한 스티커 추천 시스템의 구성을 상세히 살펴보기로 한다.
도 17은 화행 분석을 통한 스티커 추천 시스템의 구조를 설명하는 기능 블록도이다.
도 17에 도시된 스티커 추천 시스템(100)은 서버(10)의 형태로 실시될 수 있다. 그 가운데 일부 구성요소는 서버(10)에 적재되어 실행되는 컴퓨터 프로그램의 형태일 수 있으며, 또 일부는 서버(10)를 이루는 하드웨어 자원의 일부일 수도 있다.
도 17에 도시된 바에 의할 때, 스티커 추천 시스템(100)은 자연어 처리수단(110), 요소 추출 수단(121), 학습 수단(122), 발화 히스토리 관리수단(123), 분석 수단(124), 화행 분류 데이터베이스(125), 스티커 추천 수단(130) 및 스티커 데이터베이스(140)를 구비한다.
자연어 처리수단(110)은 수집한 발화에 대한 표층 분석을 처리한다.
분석 수단(124)은 발화에 대한 화행 분석을 수행하고, 대화 문맥 요소를 추출한다.
화행 분류 데이터베이스(125)는 화행 분류 체계 및 코퍼스에 대한 학습을 통해 구축된 발화 데이터를 저장한다.
스티커 추천수단(130)은 대화 문맥 요소를 이용하여 제1사용자에게 추천할 스티커를 선정한다.
학습수단(122)은 코퍼스(Corpus)에 대한 화행 및 감정 태그 부착을 통해 발화 데이터를 생성하여 상기 화행 분류 데이터베이스에 저장한다.
이를 위하여, 학습수단(122)은 스티커가 부착된 코퍼스로부터 대화 상황 정보를 생성하고, 대화 상황 정보 - 스티커의 조합으로 생성하며, 연속 발화 간 화행 정보의 흐름을 인덱싱하고, 스티커와 입력 발화의 조합을 스티커 아이디로 인덱싱하여 각각 상기 화행 분류 데이터베이스(125)에 저장한다.
발화 히스토리 관리 수단(123)은 다수의 연속 발화들의 연결관계를 관리하고 저장한다. 둘 이상의 사용자들에 의한 발화는 각 사용자별로 분리하여 분석할 경우 문맥흐름을 정확하게 파악할 수 없기 때문에, 대화에 참여한 사용자들간에 주고받은 연속된 발화들은 그 선후관계, 연결관계를 관리하여야 한다.
스티커 데이터베이스(140)은 다수의 스티커를 저장한다. 각 스티커는 메타 데이터를 가질 수 있다.
이상과 같은 본 발명의 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.
본 발명은 소셜 네트워크 서비스 기술 및 메신저 기술분야에 적용될 수 있다.
10 : 서버
20 : 사용자 단말기
100 : 스티커 추천 시스템
110 : 자연어 처리수단
121 : 요소 추출 수단
122 : 학습 수단
123 : 발화 히스토리 관리수단
124 : 분석 수단
125 : 화행 분류 데이터베이스
130 : 스티커 추천 수단
140 : 스티커 데이터베이스
100 : 스티커 추천 시스템
110 : 자연어 처리수단
121 : 요소 추출 수단
122 : 학습 수단
123 : 발화 히스토리 관리수단
124 : 분석 수단
125 : 화행 분류 데이터베이스
130 : 스티커 추천 수단
140 : 스티커 데이터베이스
Claims (15)
- 네트워크를 통해 제1사용자 단말기 및 제2사용자 단말기와 연결되는 서버가,
제1사용자 단말기 및 제2사용자 단말기 간의 직전 발화에 대한 표층 분석을 수행하는 단계;
상기 표층 분석 결과를 이용하여 상기 직전 발화에 대한 화행 분석을 수행하는 단계;
상기 직전 발화를 포함하는 제1사용자 단말기 및 제2사용자 단말기 간의 연속 발화로서 소정 개수의 발화에 대한 표층 분석결과 및 화행 분석결과를 포함하는 대화 문맥 요소를 추출하는 단계;
대화 문맥 요소를 이용하여 제1사용자에게 추천할 스티커를 선정하는 단계; 및
상기 선정된 스티커를 제1사용자 단말기로 제공하는 단계;를 포함하는 것을 특징으로 하는 화행 분석을 통한 스티커 추천 방법. - 제1항에 있어서,
상기 표층 분석을 수행하는 단계 이전에,
코퍼스(Corpus)에 대한 화행 및 감정 태그 부착을 통한 발화 데이터 축적 단계;를 더 포함하는 것을 특징으로 하는 화행 분석을 통한 스티커 추천 방법. - 제2항에 있어서,
상기 발화 데이터 축적 단계는,
스티커가 부착된 코퍼스로부터 대화 상황 정보를 생성하고, 대화 상황 정보 - 스티커의 조합으로 생성하는 단계;
연속 발화 간 화행 정보의 흐름을 인덱싱하여 저장하는 단계;
스티커와 입력 발화의 조합을 스티커 아이디로 인덱싱하여 저장하는 단계;를 더 포함하는 것을 특징으로 하는 화행 분석을 통한 스티커 추천 방법. - 제1항에 있어서,
상기 표층 분석을 수행하는 단계는,
입력된 발화에 대한 구어체 문장을 교정하는 단계;
상기 교정된 발화에 대하여 형태소를 분석하고 품사를 부착하는 단계;
상기 분석된 형태소와 부착된 품사를 기준으로 키워드를 추출하는 단계;를 더 포함하는 것을 특징으로 하는 화행 분석을 통한 스티커 추천 방법. - 제1항에 있어서,
상기 화행 분석을 수행하는 단계에서는,
상기 표층 분석이 수행된 발화에 대하여, 기 구축된 화행 분류 체계 가운데 어느 화행 카테고리 속하는지 판정하는 것을 특징으로 하는 화행 분석을 통한 스티커 추천 방법. - 제5항에 있어서,
상기 화행 분류 체계는 대화 당사자간의 대화 태도(modality)를 정형화하여 구분한 체계인 것을 특징으로 하는 화행 분석을 통한 스티커 추천 방법. - 제1항에 있어서,
상기 표층 분석 단계에서, 상기 직전 발화의 키워드를 추출하며,
상기 화행 분석 단계에서, 상기 직전 발화의 화행 카테고리를 판정함으로써 대화 상황 정보를 생성하는 것을 특징으로 하는 화행 분석을 통한 스티커 추천 방법. - 제1항에 있어서,
상기 대화 문맥 요소는 상기 직전 발화의 화행 카테고리와 표층 요소; 및
상기 직전 발화의 바로 전 소정 개수의 제1사용자 및 제2사용자 간의 발화 각각의 화행 카테고리와 표층 요소;를 포함하며,
스티커를 선정하는 단계에서는 기 축적된 발화 데이터 가운데 상기 대화 문맥 요소에 포함된 화행 카테고리들의 변화와 일치하며, 상기 직전 발화의 키워드에 부합하는 발화 데이터와 연관된 스티커들을 선정하는 것을 특징으로 하는 화행 분석을 통한 스티커 추천 방법. - 네트워크를 통해 제1사용자 단말기 및 제2사용자 단말기간 주고받는 발화를 수집하고, 상기 제1사용자 단말기로 발화에 부착하거나 응답으로 사용하기 위한 스티커를 추천하는 시스템에 있어서,
수집한 직전 발화에 대한 표층 분석을 처리하는 자연어 처리수단;
상기 표층 분석 결과를 이용하여 상기 직전 발화에 대한 화행 분석을 수행하고, 상기 직전 발화를 포함하는 제1사용자 및 제2사용자 간의 연속 발화로서 소정 개수의 발화에 대한 표층 분석결과 및 화행 분석결과를 포함하는 대화 문맥 요소를 추출하는 분석 수단;
화행 분류 체계를 저장하는 화행 분류 데이터베이스; 및
대화 문맥 요소를 이용하여 제1사용자에게 추천할 스티커를 선정하는 스티커 추천수단;을 구비하는 것을 특징으로 하는 화행 분석을 통한 스티커 추천 시스템. - 제9항에 있어서,
코퍼스(Corpus)에 대한 화행 및 감정 태그 부착을 통해 발화 데이터를 생성하여 상기 화행 분류 데이터베이스에 저장하는 학습수단;을 더 구비하는 것을 특징으로 하는 화행 분석을 통한 스티커 추천 시스템. - 제10항에 있어서,
상기 학습수단은, 스티커가 부착된 코퍼스로부터 대화 상황 정보를 생성하고, 대화 상황 정보 - 스티커의 조합으로 생성하며, 연속 발화 간 화행 정보의 흐름을 인덱싱하고, 스티커와 입력 발화의 조합을 스티커 아이디로 인덱싱하여 각각 상기 화행 분류 데이터베이스에 저장하는 것을 특징으로 하는 화행 분석을 통한 스티커 추천 시스템. - 제9항에 있어서,
상기 자연어 처리수단은 입력된 발화에 대한 구어체 문장을 교정하고, 상기 교정된 발화에 대하여 형태소를 분석하고 품사를 부착하며, 상기 분석된 형태소와 부착된 품사를 기준으로 키워드를 추출하는 것을 특징으로 하는 화행 분석을 통한 스티커 추천 시스템. - 제9항에 있어서,
상기 분석 수단은 표층 분석이 수행된 발화에 대하여, 기 구축된 화행 분류 체계 가운데 어느 화행 카테고리 속하는지 판정하는 것을 특징으로 하는 화행 분석을 통한 스티커 추천 시스템. - 제9항에 있어서,
상기 스티커 추천 수단은 상기 화행 분류 데이터베이스에 기 저장된 발화 데이터 가운데 상기 대화 문맥 요소에 포함된 화행 카테고리들의 변화와 일치하며, 상기 직전 발화의 키워드에 부합하는 발화 데이터와 연관된 스티커들을 추천하는 것을 특징으로 하는 화행 분석을 통한 스티커 추천 시스템. - 제1사용자 단말기 및 제2사용자 단말기 간의 직전 발화에 대한 표층 분석을 수행하는 단계;
상기 표층 분석 결과를 이용하여 상기 직전 발화에 대한 화행 분석을 수행하는 단계;
상기 직전 발화를 포함하는 제1사용자 단말기 및 제2사용자 단말기 간의 연속 발화로서 소정 개수의 발화에 대한 표층 분석결과 및 화행 분석결과를 포함하는 대화 문맥 요소를 추출하는 단계;
대화 문맥 요소를 이용하여 제1사용자에게 추천할 스티커를 선정하는 단계; 및
상기 선정된 스티커를 제1사용자 단말기로 제공하는 단계;를 포함하는 화행 분석을 통한 스티커 추천 방법을 실행하기 위한 명령어가 기록매체에 수록된 컴퓨터 프로그램.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150008724A KR20160089152A (ko) | 2015-01-19 | 2015-01-19 | 화행 분석을 통한 스티커 추천 방법 및 시스템 |
US14/797,165 US9740677B2 (en) | 2015-01-19 | 2015-07-12 | Methods and systems for analyzing communication situation based on dialogue act information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150008724A KR20160089152A (ko) | 2015-01-19 | 2015-01-19 | 화행 분석을 통한 스티커 추천 방법 및 시스템 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170063597A Division KR101763679B1 (ko) | 2017-05-23 | 2017-05-23 | 화행 분석을 통한 스티커 추천 방법 및 시스템 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20160089152A true KR20160089152A (ko) | 2016-07-27 |
Family
ID=56408310
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150008724A KR20160089152A (ko) | 2015-01-19 | 2015-01-19 | 화행 분석을 통한 스티커 추천 방법 및 시스템 |
Country Status (2)
Country | Link |
---|---|
US (1) | US9740677B2 (ko) |
KR (1) | KR20160089152A (ko) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102325413B1 (ko) * | 2021-07-28 | 2021-11-11 | 조영우 | Sns 서버의 욕설 사용 개선을 위한 채팅 서비스 방법 |
US11210827B2 (en) | 2018-01-22 | 2021-12-28 | Samsung Electronics Co., Ltd. | Electronic device providing text-related image and method for operating the same |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9634855B2 (en) | 2010-05-13 | 2017-04-25 | Alexander Poltorak | Electronic personal interactive device that determines topics of interest using a conversational agent |
KR101641572B1 (ko) * | 2015-01-19 | 2016-07-21 | 주식회사 엔씨소프트 | 상황 및 선호도 기반 대화 스티커 순위 결정 방법 및 컴퓨터 프로그램 |
KR101634086B1 (ko) * | 2015-01-19 | 2016-07-08 | 주식회사 엔씨소프트 | 감정 분석을 통한 스티커 추천 방법 및 시스템 |
KR101615848B1 (ko) * | 2015-01-19 | 2016-04-26 | 주식회사 엔씨소프트 | 유사상황 검색을 통한 대화 스티커 추천방법 및 컴퓨터 프로그램 |
JP6638087B2 (ja) | 2015-12-21 | 2020-01-29 | グーグル エルエルシー | メッセージ交換スレッド用の自動提案 |
WO2017112796A1 (en) | 2015-12-21 | 2017-06-29 | Google Inc. | Automatic suggestions and other content for messaging applications |
US20180081500A1 (en) * | 2016-09-19 | 2018-03-22 | Facebook, Inc. | Systems and methods for content engagement |
CN109716727B (zh) | 2016-09-20 | 2021-10-15 | 谷歌有限责任公司 | 获取访问与用户相关联的数据的许可的方法及系统 |
WO2018057541A1 (en) | 2016-09-20 | 2018-03-29 | Google Llc | Suggested responses based on message stickers |
US10416846B2 (en) * | 2016-11-12 | 2019-09-17 | Google Llc | Determining graphical element(s) for inclusion in an electronic communication |
CN108446286B (zh) * | 2017-02-16 | 2023-04-25 | 阿里巴巴集团控股有限公司 | 一种自然语言问句答案的生成方法、装置及服务器 |
WO2018161306A1 (en) * | 2017-03-09 | 2018-09-13 | Microsoft Technology Licensing, Llc | Application recommendation |
CN107146610B (zh) * | 2017-04-10 | 2021-06-15 | 易视星空科技无锡有限公司 | 一种用户意图的确定方法及装置 |
WO2018212822A1 (en) | 2017-05-16 | 2018-11-22 | Google Inc. | Suggested actions for images |
US10348658B2 (en) | 2017-06-15 | 2019-07-09 | Google Llc | Suggested items for use with embedded applications in chat conversations |
US10404636B2 (en) | 2017-06-15 | 2019-09-03 | Google Llc | Embedded programs and interfaces for chat conversations |
US11107006B2 (en) | 2017-12-05 | 2021-08-31 | discourse.ai, Inc. | Visualization, exploration and shaping conversation data for artificial intelligence-based automated interlocutor training |
US11004013B2 (en) * | 2017-12-05 | 2021-05-11 | discourse.ai, Inc. | Training of chatbots from corpus of human-to-human chats |
US10896670B2 (en) | 2017-12-05 | 2021-01-19 | discourse.ai, Inc. | System and method for a computer user interface for exploring conversational flow with selectable details |
US10929611B2 (en) | 2017-12-05 | 2021-02-23 | discourse.ai, Inc. | Computer-based interlocutor understanding using classifying conversation segments |
US10706086B1 (en) * | 2018-03-12 | 2020-07-07 | Amazon Technologies, Inc. | Collaborative-filtering based user simulation for dialog systems |
US11057332B2 (en) | 2018-03-15 | 2021-07-06 | International Business Machines Corporation | Augmented expression sticker control and management |
US11322264B2 (en) | 2018-04-23 | 2022-05-03 | DNAFeed Inc. | Systems and methods for human-augmented communications |
US10896688B2 (en) * | 2018-05-10 | 2021-01-19 | International Business Machines Corporation | Real-time conversation analysis system |
CN108664661B (zh) * | 2018-05-22 | 2021-08-17 | 武汉理工大学 | 一种基于频繁主题集偏好的学术论文推荐方法 |
US11205045B2 (en) * | 2018-07-06 | 2021-12-21 | International Business Machines Corporation | Context-based autocompletion suggestion |
CN110336733B (zh) * | 2019-04-30 | 2022-05-17 | 上海连尚网络科技有限公司 | 一种呈现表情包的方法与设备 |
CN113051427A (zh) * | 2019-12-10 | 2021-06-29 | 华为技术有限公司 | 一种表情制作方法和装置 |
CA3171492A1 (en) * | 2020-03-23 | 2021-09-30 | Kenta Fukami | Plant operation support apparatus and plant operation support method |
US11393462B1 (en) * | 2020-05-13 | 2022-07-19 | Amazon Technologies, Inc. | System to characterize vocal presentation |
US10930272B1 (en) * | 2020-10-15 | 2021-02-23 | Drift.com, Inc. | Event-based semantic search and retrieval |
US11765115B2 (en) * | 2021-07-29 | 2023-09-19 | Snap Inc. | Emoji recommendation system using user context and biosignals |
CN115292543B (zh) * | 2022-10-10 | 2022-12-30 | 深圳市人马互动科技有限公司 | 基于语音互动小说的数据处理方法及相关产品 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100751396B1 (ko) | 2005-11-03 | 2007-08-23 | 엘지전자 주식회사 | 문자 서비스 이모티콘 자동 변환 시스템 및 방법 |
KR20110026218A (ko) | 2009-09-07 | 2011-03-15 | 동국대학교 산학협력단 | 문자 메시지 입력 장치 및 방법 그리고 그를 위한 프로그램을 기록한 기록 매체 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6910186B2 (en) * | 2000-12-08 | 2005-06-21 | Kyunam Kim | Graphic chatting with organizational avatars |
US8170872B2 (en) * | 2007-12-04 | 2012-05-01 | International Business Machines Corporation | Incorporating user emotion in a chat transcript |
WO2010013371A1 (ja) * | 2008-07-28 | 2010-02-04 | 日本電気株式会社 | 対話音声認識システム、対話音声認識方法および対話音声認識用プログラムを格納する記憶媒体 |
US8588825B2 (en) * | 2010-05-25 | 2013-11-19 | Sony Corporation | Text enhancement |
US8620850B2 (en) * | 2010-09-07 | 2013-12-31 | Blackberry Limited | Dynamically manipulating an emoticon or avatar |
KR101613155B1 (ko) * | 2011-12-12 | 2016-04-18 | 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 | 콘텐트에 기초한 자동 입력 프로토콜 선택 |
US20130159919A1 (en) | 2011-12-19 | 2013-06-20 | Gabriel Leydon | Systems and Methods for Identifying and Suggesting Emoticons |
TWI482108B (zh) * | 2011-12-29 | 2015-04-21 | Univ Nat Taiwan | To bring virtual social networks into real-life social systems and methods |
US9425974B2 (en) * | 2012-08-15 | 2016-08-23 | Imvu, Inc. | System and method for increasing clarity and expressiveness in network communications |
US9443271B2 (en) * | 2012-08-15 | 2016-09-13 | Imvu, Inc. | System and method for increasing clarity and expressiveness in network communications |
US10346542B2 (en) * | 2012-08-31 | 2019-07-09 | Verint Americas Inc. | Human-to-human conversation analysis |
US20140298364A1 (en) * | 2013-03-26 | 2014-10-02 | Rawllin International Inc. | Recommendations for media content based on emotion |
US10565268B2 (en) * | 2013-12-19 | 2020-02-18 | Adobe Inc. | Interactive communication augmented with contextual information |
US20150193889A1 (en) * | 2014-01-09 | 2015-07-09 | Adobe Systems Incorporated | Digital content publishing guidance based on trending emotions |
GB201405651D0 (en) * | 2014-03-28 | 2014-05-14 | Microsoft Corp | Delivering an action |
US9043196B1 (en) * | 2014-07-07 | 2015-05-26 | Machine Zone, Inc. | Systems and methods for identifying and suggesting emoticons |
US10122657B2 (en) * | 2014-10-29 | 2018-11-06 | Paypal, Inc. | Communication apparatus with in-context messaging |
-
2015
- 2015-01-19 KR KR1020150008724A patent/KR20160089152A/ko active Application Filing
- 2015-07-12 US US14/797,165 patent/US9740677B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100751396B1 (ko) | 2005-11-03 | 2007-08-23 | 엘지전자 주식회사 | 문자 서비스 이모티콘 자동 변환 시스템 및 방법 |
KR20110026218A (ko) | 2009-09-07 | 2011-03-15 | 동국대학교 산학협력단 | 문자 메시지 입력 장치 및 방법 그리고 그를 위한 프로그램을 기록한 기록 매체 |
Non-Patent Citations (3)
Title |
---|
문헌 3. 김준혁, 박영웅, 하슬비, 최용석, "텍스트 마이닝을 이용한 Bigram-Signature 기반의 자동 이모티콘 추천 모듈", 2014년 한국컴퓨터종합학술대회 논문집, 대한민국(2014) |
문헌 4. 이연수, 신중휘, 홍금원, 송영인, 이도길, 임해창, "다양한 언어적 자질을 고려한 발화간 유사도 측정방법", 한국음향학회지 제28권 제1호 pp.61~69, 대한민국(2009) |
문헌 5. 홍금원, 이연수, 김민정, 이승욱, 이주영, 임해창, 한국어 모바일 대화형 에이전트 시스템", 韓國컴퓨터情報學會論文誌 第13卷第6號, 대한민국(2008. 11.) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11210827B2 (en) | 2018-01-22 | 2021-12-28 | Samsung Electronics Co., Ltd. | Electronic device providing text-related image and method for operating the same |
KR102325413B1 (ko) * | 2021-07-28 | 2021-11-11 | 조영우 | Sns 서버의 욕설 사용 개선을 위한 채팅 서비스 방법 |
Also Published As
Publication number | Publication date |
---|---|
US9740677B2 (en) | 2017-08-22 |
US20160210962A1 (en) | 2016-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101634086B1 (ko) | 감정 분석을 통한 스티커 추천 방법 및 시스템 | |
KR20160089152A (ko) | 화행 분석을 통한 스티커 추천 방법 및 시스템 | |
KR101583181B1 (ko) | 응답 스티커 추천방법 및 컴퓨터 프로그램 | |
KR101641572B1 (ko) | 상황 및 선호도 기반 대화 스티커 순위 결정 방법 및 컴퓨터 프로그램 | |
KR101763679B1 (ko) | 화행 분석을 통한 스티커 추천 방법 및 시스템 | |
US11037553B2 (en) | Learning-type interactive device | |
KR101615848B1 (ko) | 유사상황 검색을 통한 대화 스티커 추천방법 및 컴퓨터 프로그램 | |
US11049493B2 (en) | Spoken dialog device, spoken dialog method, and recording medium | |
US10558701B2 (en) | Method and system to recommend images in a social application | |
CN111666380A (zh) | 一种智能呼叫方法、装置、设备和介质 | |
EP1901283A2 (en) | Automatic generation of statistical laguage models for interactive voice response applacation | |
CN107423277A (zh) | 一种表情输入方法、装置及终端 | |
KR101677859B1 (ko) | 지식 베이스를 이용하는 시스템 응답 생성 방법 및 이를 수행하는 장치 | |
WO2015141700A1 (en) | Dialogue system construction support apparatus and method | |
CN111177324A (zh) | 基于语音识别结果进行意图分类的方法和装置 | |
KR102100214B1 (ko) | 음성 인식 기반의 세일즈 대화 분석 방법 및 장치 | |
KR101410601B1 (ko) | 유머 발화를 이용하는 음성 대화 시스템 및 그 방법 | |
JP6994289B2 (ja) | キャラクタ属性に応じた対話シナリオを作成するプログラム、装置及び方法 | |
US9786274B2 (en) | Analysis of professional-client interactions | |
CN113505606B (zh) | 一种培训信息获取方法、装置、电子设备及存储介质 | |
CN108538292B (zh) | 一种语音识别方法、装置、设备及可读存储介质 | |
CN114528851B (zh) | 回复语句确定方法、装置、电子设备和存储介质 | |
JP2015022448A (ja) | 言語体系の間で同義語句に対する特定の感情を推定するプログラム、装置及び方法 | |
CN112560498A (zh) | 情感检测方法和装置 | |
JP2021056996A (ja) | 知識共有支援装置、知識共有支援方法、プログラム、および記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
AMND | Amendment | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E90F | Notification of reason for final refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
A107 | Divisional application of patent |