KR101997161B1 - 물리적 공간의 센서 데이터와 온라인 메신저 사용 데이터를 이용한 사용자 퍼소나 분류 방법 및 장치 - Google Patents

물리적 공간의 센서 데이터와 온라인 메신저 사용 데이터를 이용한 사용자 퍼소나 분류 방법 및 장치 Download PDF

Info

Publication number
KR101997161B1
KR101997161B1 KR1020170164876A KR20170164876A KR101997161B1 KR 101997161 B1 KR101997161 B1 KR 101997161B1 KR 1020170164876 A KR1020170164876 A KR 1020170164876A KR 20170164876 A KR20170164876 A KR 20170164876A KR 101997161 B1 KR101997161 B1 KR 101997161B1
Authority
KR
South Korea
Prior art keywords
persona
data
user
space
personality
Prior art date
Application number
KR1020170164876A
Other languages
English (en)
Other versions
KR20190065582A (ko
Inventor
김주호
김서영
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020170164876A priority Critical patent/KR101997161B1/ko
Publication of KR20190065582A publication Critical patent/KR20190065582A/ko
Application granted granted Critical
Publication of KR101997161B1 publication Critical patent/KR101997161B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q99/00Subject matter not provided for in other groups of this subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2457Query processing with adaptation to user needs
    • G06F17/27
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/067Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components
    • G06K19/07Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components with integrated circuit chips
    • G06K19/0723Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components with integrated circuit chips the record carrier comprising an arrangement for non-contact communication, e.g. wireless communication circuits on transponder cards, non-contact smart cards or RFIDs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/107Computer-aided management of electronic mailing [e-mailing]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Multimedia (AREA)
  • Child & Adolescent Psychology (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

물리적 공간의 센서 데이터와 온라인 메신저 사용 데이터를 이용한 사용자 퍼소나 분류 방법 및 장치를 개시한다.
본 실시예는 적절한 공간 지능 기술을 제공하기 위해서 특정 공간 내에서 생활하는 사용자를 파악하는 것이 필수적이므로, 물리적 공간과 온라인 공간 속 사용자 유형 분류 기준을 정의하고, 해당 사용자 유형 분류 기준으로 물리적 공간과 온라인 공간 속 사용자를 행동 요소를 추출하고, 행동 요소를 기반으로 예측 모델 생성하여 최종적으로 사용자 의도를 파악하기 위한 사용자 퍼소나 분류 방법 및 장치를 제공한다.

Description

물리적 공간의 센서 데이터와 온라인 메신저 사용 데이터를 이용한 사용자 퍼소나 분류 방법 및 장치{Method And Apparatus for Classifying User Persona by Using Sensors Data and Online Messenger Data}
본 실시예는 물리적 공간의 센서 데이터와 온라인 메신저 사용 데이터를 이용한 사용자 퍼소나를 분류하는 방법 및 장치에 관한 것이다.
이하에 기술되는 내용은 단순히 본 실시예와 관련되는 배경 정보만을 제공할 뿐 종래기술을 구성하는 것이 아니다.
사람들은 일상생활에서 지니고 있는 다양한 온라인 역할(Online Role)에서 다르게 행동할 수 있다. 예컨대, 사람은 가족 사진들을 사진 공유 웹사이트에 포스팅할 때 부모 역할을 맡을 수 있고, 우표 수집 포럼에 참가할 때 우표 수집가 역할을 맡을 수 있다. 각 역할 내에서, 사람의 행동은 또한 문맥(Context)에 의존한다.
사람의 역할들 중 몇몇과 온라인 애플리케이션의 문맥들 중 몇몇은 서로 양립하지 않을 수 있다. 이 같은 잠재적인 비-양립성 때문에, 퍼소나(Persona)들이 주어진 역할-문맥 조합들 내에서 행동하는 척함으로써 사람은 서로에 대해서 역할들 및 문맥들을 보호한다. 예컨대, 공무원은 그의 유명 인사-추종 활동에 대한 그의 포스트들이 동료들에게 알려지기를 원치 않을 수 있다.
퍼소나는 사람이 온라인 애플리케이션들의 문맥들에 기반한 어떤 역학을 하기 위해 또는 어떤 온라인 애플리케이션들을 언급(Address)하기 위해 채택할 수 있는 온라인 신분(Online Identity) 뿐만 아니라 어떤 공간 안의 가상(Virtual)의 신분을 의미한다.
사용자에 의해 생성된 일관성 없는 화면 이름들인 온라인 가명들과는 반대로, 퍼소나들은 실생활 정체성을 대표할 수 있는 온라인 신분 또는 가상의 신분과 결부된다. 퍼소나들은 사용자가 다양한 문맥에서 활용할 수 있는 온라인 신분 또는 가상의 신분으로부터 사용자의 개인 속성, 개인 정보 및 활동과 관련된다.
본 실시예는 공간 지능 기술을 제공하기 위해 특정 공간 내에서 생활하는 사용자를 파악하는 것이 필수적이므로, 물리적 공간과 온라인 공간 속 사용자 유형 분류 기준을 정의하고, 해당 사용자 유형 분류 기준으로 물리적 공간과 온라인 공간 속 사용자를 행동 요소를 추출하고, 행동 요소를 기반으로 예측 모델 생성하여 최종적으로 사용자 의도를 파악하기 위한 사용자 퍼소나 분류 방법 및 장치를 제공하는 데 목적이 있다.
본 실시예의 일 측면에 의하면, 기 설정된 사용자 유형 분류 기준을 성격 특성 요소로 정의하는 퍼소나 정의부; 온오프라인으로부터 대화 데이터를 수집하는 데이터 수집부; 상기 대화 데이터로부터 상기 성격 특성 요소를 기반으로 행동 요소를 추출하는 행동 요소 추출부; 상기 대화 데이터로부터 실시간으로 컨텍스트 피처를 추출하는 컨텍스트 추출부; 상기 행동 요소, 상기 컨텍스트 피처, 기 저장된 성격 검사 실측 자료(Ground Truth) 값을 기반으로 예측 모델을 생성하는 예측 모델 생성부; 및 상기 예측 모델을 기반으로 사용자 의도를 파악하는 사용자 의도 파악부를 포함하는 것을 특징으로 하는 퍼소나 분류 장치를 제공한다.
본 실시예의 다른 측면에 의하면, 기 설정된 사용자 유형 분류 기준을 성격 특성 요소로 정의하는 퍼소나 정의 과정; 온오프라인으로부터 대화 데이터를 수집하는 데이터 수집 과정; 상기 대화 데이터로부터 상기 성격 특성 요소를 기반으로 행동 요소를 추출하는 행동 요소 추출 과정; 상기 대화 데이터로부터 실시간으로 컨텍스트 피처를 추출하는 컨텍스트 추출 과정; 상기 행동 요소, 상기 컨텍스트 피처, 기 저장된 성격 검사 실측 자료 값을 기반으로 예측 모델을 생성하는 예측 모델 생성 과정; 및 상기 예측 모델을 기반으로 사용자 의도를 파악하는 사용자 의도 파악 과정을 포함하는 것을 특징으로 하는 퍼소나 분류 방법을 제공한다.
이상에서 설명한 바와 같이 본 실시예에 의하면, 공간 지능 기술을 제공하기 위해 특정 공간 내에서 생활하는 사용자를 파악하는 것이 필수적이므로, 물리적 공간과 온라인 공간 속 사용자 유형 분류 기준을 정의하고, 해당 사용자 유형 분류 기준으로 물리적 공간과 온라인 공간 속 사용자를 행동 요소를 추출하고, 행동 요소를 기반으로 예측 모델 생성하여 최종적으로 사용자 의도를 파악하기 위한 효과가 있다.
본 실시예에 의하면, 온오프라인을 아우르는 데이터를 종합적으로 수집하여 분류한 퍼소나를 일반적인 메신저의 대화 중개 봇, 대화 상대 매칭 시스템 등 다양한 기능을 디자인할 때 유용하게 사용할 수 있는 효과가 있다.
본 실시예에 의하면, 최근 챗봇(Chatter Robot) 산업이 많이 발전에 따라, 챗봇을 만들 때 온오프라인의 데이터를 종합적으로 사용하여 사용자의 퍼소나를 분류하여 각 개인에게 맞춘 서비스를 제공하는 효과가 있다.
본 실시예에 의하면, 사용자의 대화 관련 퍼소나에 따라 맞춤서비스를 제공하여 챗봇의 발전에 큰 기여를 할 수 있는 효과가 있다.
도 1은 본 실시예에 따른 퍼소나 분류 장치를 개략적으로 나타낸 블럭 구성도이다.
도 2는 본 실시예에 따른 성격 특성 요소를 나타내는 다이어그램이다.
도 3은 본 실시예에 따른 성격 검사지 일부의 예시를 나타낸 도면이다.
도 4는 본 실시예에 따른 사용자 퍼소나를 분류하는 방법을 설명하기 위한 순서도이다.
도 5a,5b는 본 실시예에 따른 사용자 의도 추론을 설명하기 위한 도면이다.
도 6a,6b는 본 실시예에 따른 사용자 퍼소나 예측을 통한 의도 파악을 설명하기 위한 도면이다.
이하, 본 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 본 실시예에 따른 퍼소나 분류 장치를 개략적으로 나타낸 블럭 구성도이다.
본 실시예에 따른 퍼소나 분류 장치(100)는 물리적 공간과 온라인 공간 속 사용자 유형 분류 기준을 정의하고, 해당 사용자 유형 분류 기준으로 물리적 공간과 온라인 공간 속 사용자를 행동 요소를 추출하고, 행동 요소를 기반으로 예측 모델 생성하여 최종적으로 사용자 의도를 파악한다.
퍼소나 분류 장치(100)는 온라인과 오프라인에서 대화 데이터를 하이브리드 형식으로 수집한다.
먼저, 온라인 데이터를 이용하여 퍼소나 분류하기 위해, 퍼소나 분류 장치(100)는 기 설정된 자체적 기준(Criteria)으로 온라인 대화 데이터를 분석하여 퍼소나를 분류한다.
퍼소나 분류 장치(100)는 오프라인 공간 및 온라인 공간 속 사용자 유형 분류 기준 정의는 다음과 같다.
퍼소나 분류 장치(100)는 공간 지능 서비스를 제공하기 위해 오프라인 공간 및 온라인 공간 속 다양한 사용자들 개인 각각에게 공간 지능 기술을 제공한다. 퍼소나 분류 장치(100)는 공간 지능 기술을 제공하기 위해서 오프라인 공간 및 온라인 공간 속 사용자 개개인의 사용자 파악이 필요하다.
다양한 사용자 개개인의 서로 다른 유형을 모두 각각 고려하기 어려우나, 본 실시예에 따른 퍼소나 분류 장치(100)는 복수의 사용자 성향을 수집하고, 각 사용자들을 대표할 수 있는 퍼소나를 정의하고, 퍼소나를 이용하여 다양한 사용자를 파악한다.
퍼소나 분류 장치(100)는 물리적인 공간에 구비된 센서로부터 센싱된 데이터만을 이용해서 퍼소나를 분류하는 것이 아니라, 온라인 커뮤니케이션 수단인 메신저 프로그램으로부터 데이터를 수집하는 하이브리드 방식으로 퍼소나를 분류한다.
퍼소나 분류 장치(100)는 수집된 대화 데이터를 이용하여 퍼소나를 분류할 때 퍼소나들이 하는 행동 특성들을 추출한다. 물리적인 공간 상에 설치되는 센서는 비콘(Beacon) 센서인 것이 바람직하나 반드시 이에 한정되는 것은 아니다. 예컨대, 물리적인 공간 상에 설치되는 센서는 랩탑(Laptop) 등의 전자 디바이스에 구비된 사운드 센서(Sound Sensor), 전자 디바이스에 구비된 마이크(MIC), 물리적인 특정 공간에 설치된 사운드 센서(Sound Sensor), 물리적인 특정 공간에 설치된 IR 센서(IR Sensor), 물리적인 특정 공간의 입구에 설치된 RFID, 바닥에 설치된 압력 센서 등을 포함할 수 있다.
퍼소나 분류 장치(100)가 오프라인 공간 및 온라인 공간 속 사용자 참여형 컨텍스트(Context) 정의 및 데이터 수집/분석하는 과정은 다음과 같다.
퍼소나 분류 장치(100)는 오프라인 공간 및 온라인 공간 속 다양한 사용자를 파악하여 퍼소나로 나누기 위해서, 오프라인 공간 및 온라인 공간 속 사용자의 행동 및 상황을 담은 컨텍스트를 수집한다.
컨텍스트는 예컨대, 오프라인 공간 및 온라인 공간 속 사용자가 다른 사용자와 얘기를 하고 있는 컨텍스트, 혼자 앉아서 공부를 하고 있는 컨텍스트, 공간 속 다른 사용자에게 메시지를 보내어 말을 시키는 컨텍스트 등 다양한 컨텍스트가 있을 수 있다.
퍼소나 분류 장치(100)는 오프라인 공간 및 온라인 공간 속 사용자를 구분하기 위해서 필요한 컨텍스트를 정의한 후 컨텍스트를 분석하기 위해 사용자 컨텍스트를 담은 데이터를 필요로 한다.
퍼소나 분류 장치(100)는 오프라인 공간 및 온라인 공간 속 사용자의 데이터로서, 사용자들이 직접 참여하여 수집한 데이터, 사용자가 처한 컨텍스트를 나타낼 수 있는 데이터를 수집한다.
퍼소나 분류 장치(100)는 컨텍스트 데이터를 수집한 후, 컨텍스트 데이터를 분석하여 사용자 참여형 컨텍스트를 추출한다. 퍼소나 분류 장치(100)는 사용자 참여형 컨텍스트를 얻기 위해 동일한 오프라인 공간에 있는 사용자들이 참여하는 온라인 대화 공간의 대화 데이터를 수집한다.
퍼소나 분류 장치(100)는 사용자 참여형 컨텍스트 분석을 기반으로 퍼소나를 생성한다. 퍼소나 분류 장치(100)는 데이터 분석을 이용하여 추출한 참여형 컨텍스트에 기반하여, 기 정의한 온오프라인 공간 속 사용자 유형 분류 기준에 부합하는 퍼소나를 생성한다.
퍼소나 분류 장치(100)는 온오프라인 공간 속 사용자의 데이터만 수집하면, 수집된 데이터를 분석하여 해당 사용자가 어떠한 퍼소나인지를 분류한다. 퍼소나 분류 장치(100)는 수집된 데이터 분석을 이용하여 추출한 사용자 참여형 컨텍스트가 입력되고, 출력으로 특정 퍼소나가 분류되도록 하는 예측 모델을 이용한다. 퍼소나 분류 장치(100)는 예측 모델을 생성하기 위해 사용자 참여형 컨텍스트 분석한다.
본 실시예에 따른 퍼소나 분류 장치(100)는 추출부(110), 예측 모델 생성부(120), 컨텍스트 추출부(130), 사용자 의도 파악부(140)를 포함한다. 퍼소나 분류 장치(100)에 포함된 구성요소는 반드시 이에 한정되는 것은 아니다.
퍼소나 분류 장치(100)에 포함된 각 구성요소는 장치 내부의 소프트웨어적인 모듈 또는 하드웨어적인 모듈을 연결하는 통신 경로에 연결되어 상호 간에 유기적으로 동작할 수 있다. 이러한 구성요소는 하나 이상의 통신 버스 또는 신호선을 이용하여 통신한다.
도 1에 도시된 퍼소나 분류 장치(100)의 각 구성요소는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 소프트웨어적인 모듈, 하드웨어적인 모듈 또는 소프트웨어와 하드웨어의 결합으로 구현될 수 있다.
퍼소나 분류 장치(100)는 (ⅰ) 각종 기기 또는 유무선 네트워크와 통신을 수행하기 위한 통신 모뎀 등의 통신 장치, (ⅱ) 각종 프로그램과 데이터를 저장하기 위한 메모리, (ⅲ) 프로그램을 실행하여 연산 및 제어하기 위한 마이크로프로세서 등을 구비하는 다양한 장치이다. 적어도 일 실시예에 따르면, 메모리는 램(Random Access Memory: RAM), 롬(Read Only Memory: ROM), 플래시 메모리, 광 디스크, 자기 디스크, 솔리드 스테이트 디스크(Solid State Disk: SSD) 등의 컴퓨터로 판독 가능한 기록/저장매체일 수 있다. 적어도 일 실시예에 따르면, 마이크로프로세서는 명세서상에 기재된 동작과 기능을 하나 이상 선택적으로 수행하도록 프로그램될 수 있다. 적어도 일 실시예에 따르면, 마이크로프로세서는 전체 또는 부분적으로 특정한 구성의 주문형반도체(Application Specific Integrated Circuit: ASIC) 등의 하드웨어로써 구현될 수 있다.
메모리에 관련 데이터 및 프로그램이 저장되어 있고, 프로세서가 메모리로부터 관련 데이터를 읽어들여 처리한다. 프로세서는 하나의 프로세서가 위 각 기능들을 수행할 수 있지만, 복수 개의 프로세서가 분담하여 처리하도록 구현할 수도 있다. 프로세서는 범용 프로세서에서 구현될 수도 있지만, 그 기능을 수행하도록 별도로 제작된 칩으로 구현할 수도 있다.
퍼소나 분류 장치(100)는 메모리에 퍼소나 분류 애플리케이션을 탑재하여 물리적 공간의 센서 데이터와 온라인 메신저 사용 데이터에 대한 퍼소나를 분류할 수 있다.
추출부(110)는 퍼소나 정의부(112), 데이터 수집부(114), 행동 요소 추출부(116)를 포함한다.
퍼소나 정의부(112)는 기 설정된 사용자 유형 분류 기준을 성격 특성 요소로 정의한다. 퍼소나 정의부(112)는 5가지 성격 특성 요소(Big 5 Personality) 이론의 성격(Personality)을 구성하는 신경성(Neuroticism), 개방성(Openness), 성실성(Conscientiousness), 외향성(Extraversion), 친화성(Agreeableness) 중 적어도 한 개 이상의 요소를 성격 특성 요소로 정의한다.
데이터 수집부(114)는 네트워크를 경유하여 사용자 단말기와 연동하는 기능을 수행하는 통신 수단으로서, 각종 데이터를 송수신하는 기능을 수행한다.
데이터 수집부(114)는 온오프라인으로부터 대화 데이터를 수집한다. 데이터 수집부(114)는 오프라인 데이터 수집부, 온라인 데이터 수집부, 데이터 취합부를 포함한다.
오프라인 데이터 수집부는 물리적인 공간에 설치된 복수 개의 센서로부터 사용자 위치 정보 및 음성 대화 등의 데이터를 수집한다. 온라인 데이터 수집부는 기 설정된 메신저로부터 텍스트 대화 등의 데이터를 수집한다. 데이터 취합부는 사용자 위치 정보, 음성 대화 데이터 및 텍스트 대화 데이터를 대화 데이터로 취합한다.
오프라인 데이터 수집부는 물리적 공간 상에 구분된 영역에 설치된 특정 공간의 입구에 설치된 RFID, 특정 공간 내에 설치된 비콘 센서로부터 수집된 센싱 데이터를 근거로 사용자 위치 정보를 이용하여 물리적인 공간 내 다중사용자에 대한 사용자 위치 정보를 생성한다.
오프라인 데이터 수집부는 물리적 공간 상에 구분된 영역에 설치된 사운드 센서(Sound Sensor)로부터 센싱 데이터를 근거로 사용자 위치 정보를 이용하여 물리적인 공간 내 다중사용자에 대한 음성 대화 데이터를 생성한다.
행동 요소 추출부(116)는 대화 데이터로부터 행동 요소를 추출한다.
행동 요소 추출부(116)는 텍스트 대화 데이터를 분석하여 온라인 공간에서의 메신저 사용자들의 메시지 수, 메시지를 보낸 시각, 답장 수, 답장 시각, 스티커(이모티콘) 수, 답장 순서, 온라인 메신저 공간에 가입한 시각을 기반으로 대화와 관련된 행동 요소를 추출한다.
행동 요소 추출부(116)는 텍스트 대화 데이터를 분석하여 온라인 공간에서의 다른 사람의 말에 총 메시지 횟수, 답장 횟수, 스티커 및 이모티콘 사용 빈도, 메시지로 다른 사람에게 말을 시키는 빈도를 기반으로 성격을 구성하는 요소 중 친화성과 외향성과 관련된 퍼소나(예컨대, 친화성과 외향성과 관련성이 높은 퍼소나)를 갖는 행동 특성을 나타내는 변수값을 추출한다.
행동 요소 추출부(116)는 사용자 위치 정보 및 음성 대화 데이터를 분석하여 물리적 공간에서 말하는 횟수, 공용 공간 상에 머무는 시간을 기반으로 성격을 구성하는 요소 중 친화성과 외향성과 관련된 퍼소나(예컨대, 친화성과 외향성과 관련성이 높은 퍼소나)를 갖는 행동 특성을 나타내는 변수값을 추출한다.
행동 요소 추출부(116)는 사용자 위치 정보를 분석하여 물리적 공간에서 실내 위치 추적(Indoor Tracking) 기술을 통해 사용자들의 이동 및 자리에 머무른 시간을 확인하거나 물리적 공간에 설치된 비콘(Beacon)을 이용하여 실내 위치 추적을 수행한다.
행동 요소 추출부(116)는 사용자 위치 정보 및 음성 대화 데이터를 분석하여 텍스트 대화 데이터를 분석하여 이전의 메시지로부터 기 설정된 시간(예컨대, 1시간)이 초과된 후 답장 메시지를 보낸 경우의 횟수를 기반으로 친화성과 외향성과 관련된 퍼소나(예컨대, 친화성과 외향성과 관련성이 낮은 퍼소나)를 갖는 행동 특성을 나타내는 변수값을 추출한다.
컨텍스트 추출부(130)는 대화 데이터로부터 실시간으로 컨텍스트 피처를 추출한다. 컨텍스트 추출부(130)는 대화 데이터로부터 상대방에게 말을 시키는 컨텍스트 피처, 상대방의 말에 답을 해주는 컨텍스트 피처, 상대방의 말에 공감해주는 컨텍스트 피처, 말하는 컨텍스트 피처를 추출한다.
예측 모델 생성부(120)는 행동 요소, 컨텍스트 피처, 기 저장된 성격 검사 실측 자료(Ground Truth) 값을 기반으로 예측 모델을 생성한다. 예측 모델 생성부(120)는 행동 요소를 나타내는 변수값과 기 저장된 성격 검사 실측 자료값을 학습하여 예측 모델을 생성한다.
사용자 의도 파악부(140)는 예측 모델을 기반으로 사용자 의도를 파악한다. 사용자 의도 파악부(140)는 리커트 척도(Likert Scale)를 기반으로 사용자 의도의 정확도를 계산한다.
도 2는 본 실시예에 따른 성격 특성 요소를 나타내는 다이어그램이다.
퍼소나 분류 장치(100)는 다양한 퍼소나를 구분할 수 있는 항목을 사용자 유형 분류 기준으로 정의한다.
도 2에 도시된 바와 같이, 성격(Personality)을 구성하는 요소로는 신경성(Neuroticism), 개방성(Openness), 성실성(Conscientiousness), 외향성(Extraversion), 친화성(Agreeableness)이 될 수 있다. 성격을 구성하는 요소는 반드시 이에 한정되는 것은 아니며, 추가되거나 변경될 수 있다.
본 실시예에 따른 퍼소나 분류 장치(100)는 다양한 사용자 유형 분류 기준을 성격 특성 요소로 정의할 수 있으며, ‘성격 특성 요소’ 중 사용자 의도를 파악하기 위해 가장 비중이 크다고 판단되는 요소는 ‘외향성’과 ‘친화성’으로 정의할 수 있다.
성격을 구성하는 성격 특성 요소는 ‘성격’을 구성하는 요소로는 ‘신경성’, ‘개방성’, ‘성실성’, ‘외향성’, ‘친화성’을 포함한다. 성격 특성 요소 중 온오프라인 공간 속 사용자들과 공간 지능 서비스가 연결이 될 수 있는 성격 요소는 ‘외향성’과 ‘친화성’을 기준으로 한다.
‘외향성’이란 다른 사람과의 사교, 자극과 활력을 추구하는 성향을 의미한다. ‘친화성’이란 타인에게 반항적이지 않은 협조적인 태도를 보이는 성향을 의미한다.
퍼소나 분류 장치(100)는 사용자 유형을 분류하기 위한 기준으로 성격 요소를 고려한다. 성격이란 특정 상황에서 해당 성격을 가진 사용자가 어떻게 행동할 것인지를 예측할 수 있도록 하기 때문에 공간 지능 서비스를 제공하기 위해 각 개인이 어떤 의도를 가지고 있는지를 예측하기 위해서는 성격을 고려한다.
성격을 나누는 기준은 다양하지만, 본 실시예에 따른 퍼소나 분류 장치(100)는 심리학에서 경험적인 조사와 연구를 통하여 정립한 이론이자, 현대 심리학계에서 가장 널리 인정받고 있는 성격이론인 ‘성격 특성 요소’를 기준으로 한다.
퍼소나 분류 장치(100)가 온오프라인 공간 속 사용자 참여형 컨텍스트 정의 및 데이터 수집/분석한다.
퍼소나 분류 장치(100)는 온오프라인 공간 속 사용자를 ‘외향성’과 ‘친화성’으로 분류하기 위해 필요한 온오프라인 공간 속 사용자 참여형 컨텍스트를 사용자 간의 대화 양상이라고 정의한다.
대화 양상에는 다양한 요소가 있으나, 퍼소나 분류 장치(100)는 사용자 참여형 컨텍스트 데이터를 온라인 상에서의 대화기록으로 인식하고, 대화기록에서 추출할 수 있다.
정의된 컨텍스트는 상대방에게 말을 시키는 컨텍스트, 상대방의 말에 답을 해주는 컨텍스트, 상대방의 말에 공감해주는 컨텍스트, 말하는 컨텍스트를 포함한다.
이후, 퍼소나 분류 장치(100)는 각각의 컨텍스트를 온라인 상에서의 대화기록에서 추출한다. 퍼소나 분류 장치(100)는 컨텍스트를 온라인 상에서의 대화기록에서 추출하는 기준으로 말을 시키는 컨텍스트를 온라인 대화기록 상에서의 추출 기준을 세운 후 데이터를 분석하여 컨텍스트 피처를 추출한다.
퍼소나 분류 장치(100)는 온오프라인 공간 속 사용자의 ‘외향성’과 ‘친화성’을 알아내기 위해 사용자들이 직접 참여하여 얻은 사용자 참여형 컨텍스트 데이터를 분석한다.
퍼소나 분류 장치(100)는 사용자의 ‘외향성’과 ‘친화성’에 대한 실측 자료값을 얻기 위해 사용자들이 수행한 심리설문 검사를 수행한 결과값을 이용할 수 있다. 퍼소나 분류 장치(100)는 심리설문 검사를 수행한 결과값을 데이터베이스에 저장할 수 있다.
퍼소나 분류 장치(100)는 기 저장된 심리설문 검사를 수행한 결과값을 이용하여 사용자 공간 내 참여형 컨텍스트가 획득되면 사용자의 퍼소나를 출력할 수 있는 퍼소나 예측 모델을 생성한다. 퍼소나 분류 장치(100)는 온오프라인 공간 속 다양한 사용자를 파악하기 위해 사용자 유형을 분류한다.
도 3은 본 실시예에 따른 성격 검사지 일부의 예시를 나타낸 도면이다.
퍼소나 분류 장치(100)는 기 설정된 사용자 유형 분류 기준을 성격 특성 요소로 정의하고, 온오프라인으로부터 대화 데이터를 수집하며, 대화 데이터로부터 정의된 성격 특성 요소를 기반으로 행동 요소를 추출한다.
퍼소나 분류 장치(100)는 추출된 행동 요소와 기 저장된 성격 검사 실측 자료값을 기반으로 예측 모델을 생성한다. 이때, 퍼소나 분류 장치(100)는 예측 모델을 생성하기 위한 성격 검사 실측 자료값을 얻기 위해서 복수의 사용자 단말기(스마트폰(Smart Phone), 태블릿(Tablet), 랩톱(Laptop) 등)로 성격 심리 검사지로 전송한다. 퍼소나 분류 장치(100)는 복수의 사용자 단말기로부터 성격 심리 검사지에 대응하는 검사 답안을 수신하여 평균한 데이터를 성격 검사 실측 자료값으로 저장한다.
퍼소나 분류 장치(100)는 사용자 참여형 컨텍스트 분석을 기반으로 퍼소나를 생성한다. 퍼소나 분류 장치(100)는 사용자 참여형 컨텍스트 분석을 통한 퍼소나 예측 모델을 생성하기 위해 우선 사용자 각각의 성격 실측 자료값이 필요하다.
성격을 구성하는 성격 특성 요소를 검사하는 시험지는 다양하다. 성격 검사지를 선정하는 기준은 검사 결과성의 신뢰성, 사용자들을 외향성과 친화성만으로 단순하게 분류하는 것이 아니라 연속적인 측면으로 분류를 하는지의 여부, 너무 많은 질문지와 시간 소요가 걸리지 않는지 여부, 성격 심리 결과를 전문가 없이 계산하여 얻을 수 있는지 여부를 고려한다.
예컨대, 도 3에 도시된 바와 같이, 전술한 선정기준을 모두 만족하는 시험지이자 연구에서 활발히 쓰이고 있는 IPIP(International Personality Item Pool) 성격 심리 검사지가 이용될 수 있다.
퍼소나 분류 장치(100)에서 이용하는 성격 심리 검사지는 성격 실측 자료의 정확도를 향상시키기 위해 각 성격 항목마다 기 설정된 문항(예컨대, 20개)을 질의하는 것으로 시험지가 이용될 수 있다. 이후, 퍼소나 분류 장치(100)는 온오프라인 공간 속 사용자들에게 성격 심리 검사를 수행한 후, 심리 검사 결과를 계산하여 사용자 개개인의 성격 실측 자료값을 획득한다.
퍼소나 분류 장치(100)는 추출한 사용자 컨텍스트 피처와 개개인의 성격 실측 자료값을 이용하여 랜덤 포레스트(Random Forest), KNN, 서포트 벡터 회귀(Support Vector Regression), 다중 선형 회귀(Multiple Linear Regression) 등 다양한 머신러닝 알고리즘을 이용하여 테스트하여 가장 좋은 모델을 퍼소나 예측 모델을 생성한다.
가장 좋은 모델은 보유하고 있는 데이터에 기 설정된 임계치 이상으로 오버피팅이 되지 않고, 기 설정된 임계치 미만으로 언더피팅되지 않도록 하여 새로운 데이터가 들어왔을 때에도 높은 정확도로 사용자의 성격 퍼소나를 예측할 수 있도록 하는 모델을 의미한다.
퍼소나 분류 장치(100)는 온오프라인 공간 속 사용자 파악을 위한 사용자 유형 분류를 하기 위해 사용자의 퍼소나를 예측한다.
퍼소나 분류 장치(100)는 퍼소나 예측이 잘 되었는지 평가하기 위해 사용자가 직접 수행한 성격 특성 요소 중 사용자 유형 분류 기준 항목으로 선정된 외향성과 친화성에 대한 성격 심리 검사를 수행하여 얻은 결과와 비교하여 정확도를 측정한다.
퍼소나 분류 장치(100)는 예측된 퍼소나를 바탕으로 사용자의 행동 예측을 하여 이에 기반한 설문을 수행한다. 여기서, 설문은 리커트 스케일을 이용하여 해당 사항이 맞는지 틀리는지를 확인할 수 있다.
도 4는 본 실시예에 따른 사용자 퍼소나를 분류하는 방법을 설명하기 위한 순서도이다.
퍼소나 분류 장치(100)는 기 설정된 사용자 유형 분류 기준을 성격 특성 요소로 정의한다(S410). 단계 S410에서, 퍼소나 분류 장치(100)는 성격을 구성하는 ‘신경성’, ‘개방성’, ‘성실성’, ‘외향성’, ‘친화성’ 중 적어도 한 개 이상의 요소를 성격 특성 요소로 정의한다.
퍼소나 분류 장치(100)는 온오프라인으로부터 대화 데이터를 수집한다(S420). 단계 S420에서, 퍼소나 분류 장치(100)는 물리적인 공간에 설치된 복수 개의 센서로부터 사용자 위치 정보 및 음성 대화 데이터를 수집한다.
퍼소나 분류 장치(100)는 기 설정된 메신저로부터 텍스트 대화 데이터를 수집한다. 퍼소나 분류 장치(100)는 사용자 위치 정보, 음성 대화 데이터 및 텍스트 대화 데이터를 대화 데이터로 취합한다.
퍼소나 분류 장치(100)는 물리적 공간 상에 구분된 영역에 설치된 특정 공간의 입구에 설치된 RFID, 특정 공간 내에 설치된 비콘 센서로부터 수집된 센싱 데이터를 근거로 사용자 위치 정보를 이용하여 물리적인 공간 내 다중사용자에 대한 사용자 위치 정보를 생성한다.
퍼소나 분류 장치(100)는 물리적 공간 상에 구분된 영역에 설치된 사운드 센서로부터 센싱 데이터를 근거로 사용자 위치 정보를 이용하여 물리적인 공간 내 다중사용자에 대한 음성 대화 데이터를 생성한다.
퍼소나 분류 장치(100)는 대화 데이터로부터 행동 요소를 추출한다(S430).
단계 S430에서, 퍼소나 분류 장치(100)는 텍스트 대화 데이터를 분석하여 온라인 공간에서의 메신저 사용자들의 메시지 수, 메시지를 보낸 시각, 답장 수, 답장 시각, 스티커(이모티콘) 수, 답장 순서, 온라인 메신저 공간에 가입한 시각을 기반으로 대화와 관련된 행동 요소를 추출한다.
퍼소나 분류 장치(100)는 텍스트 대화 데이터를 분석하여 온라인 공간에서의 다른 사람의 말에 총 메시지 횟수, 답장 횟수, 스티커 및 이모티콘 사용 빈도, 메시지로 다른 사람에게 말을 시키는 빈도를 기반으로 성격을 구성하는 요소 중 친화성과 외향성과 관련된 퍼소나(예컨대, 친화성과 외향성과 관련성이 높은 퍼소나)를 갖는 행동 특성을 나타내는 변수값을 추출한다.
퍼소나 분류 장치(100)는 사용자 위치 정보 및 음성 대화 데이터를 분석하여 물리적 공간에서 말하는 횟수, 공용 공간 상에 머무는 시간을 기반으로 성격을 구성하는 요소 중 친화성과 외향성과 관련된 퍼소나(예컨대, 친화성과 외향성과 관련성이 높은 퍼소나)를 갖는 행동 특성을 나타내는 변수값을 추출한다.
퍼소나 분류 장치(100)는 사용자 위치 정보를 분석하여 물리적 공간에서 실내 위치 추적(Indoor Tracking) 기술을 통해 사용자들의 이동 및 자리에 머무른 시간을 확인하거나 물리적 공간에 설치된 비콘(Beacon)을 이용하여 실내 위치 추적을 수행한다.
퍼소나 분류 장치(100)는 사용자 위치 정보 및 음성 대화 데이터를 분석하여 텍스트 대화 데이터를 분석하여 이전의 메시지로부터 기 설정된 시간(예컨대, 1시간)이 초과된 후 답장 메시지를 보낸 경우의 횟수를 기반으로 친화성과 외향성과 관련된 퍼소나(예컨대, 친화성과 외향성과 관련성이 낮은 퍼소나)를 갖는 행동 특성을 나타내는 변수값을 추출한다.
퍼소나 분류 장치(100)는 대화 데이터로부터 실시간으로 컨텍스트 피처를 추출한다(S440). 단계 S440에서, 퍼소나 분류 장치(100)는 대화 데이터로부터 상대방에게 말을 시키는 컨텍스트 피처, 상대방의 말에 답을 해주는 컨텍스트 피처, 상대방의 말에 공감해주는 컨텍스트 피처, 말하는 컨텍스트 피처를 추출한다.
퍼소나 분류 장치(100)는 행동 요소, 컨텍스트 피처, 기 저장된 성격 검사 실측 자료값을 기반으로 예측 모델을 생성한다(S440). 단계 S440에서, 퍼소나 분류 장치(100)는 행동 요소를 나타내는 변수값과 기 저장된 성격 검사 실측 자료값을 학습하여 예측 모델을 생성한다.
퍼소나 분류 장치(100)는 예측 모델을 기반으로 사용자 의도를 파악한다(S460). 단계 S460에서, 퍼소나 분류 장치(100)는 리커트 척도(Likert Scale)를 기반으로 사용자 의도의 정확도를 계산한다.
도 4에서는 단계 S410 내지 단계 S460을 순차적으로 실행하는 것으로 기재하고 있으나, 반드시 이에 한정되는 것은 아니다. 다시 말해, 도 4에 기재된 단계를 변경하여 실행하거나 하나 이상의 단계를 병렬적으로 실행하는 것으로 적용 가능할 것이므로, 도 4는 시계열적인 순서로 한정되는 것은 아니다.
전술한 바와 같이 도 4에 기재된 본 실시예에 따른 사용자 퍼소나를 분류하는 방법은 프로그램으로 구현되고 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다. 본 실시예에 따른 사용자 퍼소나를 분류하는 방법을 구현하기 위한 프로그램이 기록되고 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다.
도 5a,5b는 본 실시예에 따른 사용자 의도 추론을 설명하기 위한 도면이다.
도 5a에 도시된 바와 같이, 퍼소나 분류 장치(100)가 온오프라인 공간 속 사용자 의도를 파악하고 추적하기 위한 사용자 군집 기반으로 퍼소나를 생성한다.
퍼소나 분류 장치(100)는 온오프라인 공간 속 사용자 유형을 분류하기 위한 참여형 컨텍스트 수집하고 분석한다. 퍼소나 분류 장치(100)는 참여형 컨텍스트 분석을 기반으로 퍼소나를 생성한다.
퍼소나 분류 장치(100)는 다양한 사용자 행동 데이터 참여형 수집/분석한다. 퍼소나 분류 장치(100)는 사용자들이 자발적으로 참여하여 제공하는 데이터(예컨대, 소셜 미디어 사진)를 이용한 탐색적으로 데이터를 수집 및 분석할 수 있다.
퍼소나 분류 장치(100)는 사용자 유형 군집 기반으로 퍼소나를 생성한다. 퍼소나 분류 장치(100)는 대용량 데이터 기반의 퍼소나를 생성한다. 퍼소나 분류 장치(100)는 퍼소나 기반으로 사용자 의도를 추론한다. 퍼소나 분류 장치(100)는 퍼소나 기반 사용자 의도 추론하여 정확도를 높인다.
퍼소나 분류 장치(100)는 온오프라인 공간에서 수집된 대화에 있어서의 퍼소나를 ‘친화성’, ‘외향성’을 바탕으로 정의한다. ‘외향성’이란 타인에게 협조적인 태도를 보이는 성향으로, 친화성이 클수록 말을 걸기 더 쉬운 퍼소나를 의미한다. ‘외향성’이란 타인에게 말을 걸 때 어느 정도 조심스러워 하는지를 나타내는 것으로, 조심성이 클수록 말을 쉽게 걸지 못하고 상대방을 많이 살핀 후 말을 거는 퍼소나를 의미한다.
대화는 온라인 공간과 물리적 공간에서 상호보완적으로 모두 일어난다. 따라서 퍼소나 분류 장치(100)는 퍼소나를 정의할 온라인 공간과 물리적 공간 모두에서의 행동 특성을 추출한다.
퍼소나 분류 장치(100)는 온라인 공간에서의 다른 사람의 말에 답장을 많이 하기, 스티커 및 이모티콘으로 많이 반응하기 등을 ‘친화성’과 관련된 퍼소나(예컨대, 친화성과 관련성이 높은 퍼소나)가 가지는 행동 특성으로 추출한다.
퍼소나 분류 장치(100)는 온라인 공간에서의 메시지로 말을 많이 시키기 등을 외향성과 관련된 퍼소나(예컨대, 외향성과 관련성이 낮은 퍼소나)가 가지는 행동 특성으로 추출한다.
퍼소나 분류 장치(100)는 물리적 공간에서 말을 많이 하기, 공용 공간에 많이 머물기 등을 친화성과 관련된 퍼소나(예컨대, 친화성과 관련성이 높은 퍼소나)가 가지는 행동 특성으로 추출한다.
퍼소나 분류 장치(100)는 물리적 공간에서 자기 자리에서 말을 많이 하기, 남의 자리로 가서 말을 많이 하기, 공용 공간에 많이 돌아다니기 등을 조심성과 관련된 퍼소나가 가지는 행동 특성으로 추출한다.
퍼소나 분류 장치(100)는 해당 행동 특성들을 나타내는 변수들의 값을 온오프라인 데이터로부터 추출한다. 퍼소나 분류 장치(100)는 메시지로 말을 시켰는지의 여부를 확인한다. 퍼소나 분류 장치(100)는 이전의 메시지로부터 1시간 이상이 소요된 후에 메시지를 보낸 경우의 횟수를 카운팅하여 해당 행동 특성을 나타내는 변수 값을 추출한다.
예컨대, 퍼소나 분류 장치(100)는 물리적 공간에서 말을 하는지의 여부는 바닥의 압력 센서와 벽 또는 천장의 소리 센서를 이용하여 추출할 수 있다. 다시 말해, 퍼소나 분류 장치(100)는 물리적 공간에 구비된 센서로부터 센싱된 횟수를 카운팅하여 해당 행동 특성을 나타내는 변수 값을 추출한다.
퍼소나 분류 장치(100)는 공용 공간에 머무르는 지의 여부를 확인한다. 퍼소나 분류 장치(100)는 미리 선정된 공용 공간의 바닥 압력 센서로부터 센싱된 값을 이용하여 공용 공간에 머무르는 지의 여부를 확인할 수 있다.
퍼소나 분류 장치(100)는 공용 공간에 머무르는 경우의 시간을 구하여 해당 행동 특성을 나타내는 변수 값을 추출한다. 퍼소나 분류 장치(100)는 그룹 내 개개인의 친화성, 조심성의 정도를 동료 평가를 측정하여 평균을 낸다. 퍼소나 분류 장치(100)는 동료 평가 평균을 전술한 방법으로 추출한 변수들을 이용하여 머신러닝 또는 딥러닝으로 각 변수의 가중치를 학습한다. 예컨대, 퍼소나 분류 장치(100)는 다변량 선형 회귀를 통해 각 변수의 가중치를 학습할 수 있다.
퍼소나 분류 장치(100)는 학습을 수행한 후 향후에 물리적 공간의 센서 데이터와 온라인 메신저 사용 데이터를 함께 이용하여 수집된 대화에서 각 개인의 ‘친화성’, ‘외향성’을 분류한다.
퍼소나 분류 장치(100)는 물리적 공간의 구비된 센서로부터 수집된 센싱 데이터를 이용한 사용자 퍼소나를 분류한다. 퍼소나 분류 장치(100)는 물리적 공간에 구비된 사운드 센서, 적외선 센서, 압력 센서 등으로부터 수집된 센싱 데이터를 이용하여 대화와 관련된 사용자 퍼소나를 분류한다.
퍼소나 분류 장치(100)는 온라인 메신저 사용 데이터를 이용한 사용자 퍼소나를 분류한다. 퍼소나 분류 장치(100)는 온라인 메신저 사용자들의 메시지 수, 메시지를 보낸 시각, 답장 수, 답장 시각, 스티커(이모티콘) 수, 답장 순서, 온라인 메신저 공간에 가입한 시각 등을 통해 대화와 관련된 사용자 퍼소나를 분류한다.
도 5b의 (a)에 도시된 바와 같이, 퍼소나 분류 장치(100)는 다양한 사용자 행동 데이터 참여형 수집/분석한 후 사용자 참여형 데이터 기반으로 퍼소나 생성하고, 공간지능으로부터 퍼소나 기반 의도 추론한다.
도 5b의 (b)에 도시된 바와 같이, 퍼소나 분류 장치(100)는 대용량 데이터 수집/분석하고, 대용량 데이터 기반 퍼소나 생성한 후 사용자 인풋 피드백 반영하여 공간지능으로부터 퍼소나 기반 의도 추론한다.
도 6a,6b는 본 실시예에 따른 사용자 퍼소나 예측을 통한 의도 파악을 설명하기 위한 도면이다.
도 6a에 도시된 바와 같이, 퍼소나 분류 장치(100)는 사용자 참여형 데이터 분석을 이용한 퍼소나 예측과 사용자 참여형 데이터로부터 사용자 실시간 컨텍스트 추출하여 사용자 의도를 파악한다.
특정 장소(예컨대, 까페)에 오래 혼자 앉아 있는 경우, 퍼소나 분류 장치(100)는 사용자 참여형 데이터를 이용하여 사용자 페르소나 예측을 통한 의도 파악하여 ‘사람들과 같이 이야기를 하고 싶을 것이다’라는 사용자 의도를 추론한다.
퍼소나 분류 장치(100)는 물리적 공간의 센서 데이터와 온라인 메신저 사용 데이터를 이용한 사용자 퍼소나를 분류한다. 퍼소나 분류 장치(100)는 퍼소나를 분류하기 위해, 퍼소나를 성격으로 보고 특성 요소 중 외향성과 친화성을 이용한다.
퍼소나 분류 장치(100)는 수집된 대화 데이터에서 행동 요소를 추출한다. 퍼소나 분류 장치(100)는 온라인 메신저(예컨대, 슬랙(Slack))로부터 수집된 대화 데이터로부터 다음과 같은 행동 요소를 추출할 수 있다.
특정 메신저 상에서 UE(User Equipment)#1가 상대방(UE#2, UE#3... UE#N)에게 대화를 전송한다(말을 시킨다). 이때, 퍼소나 분류 장치(100)는 ‘말을 시킨다’의 기준을 이전 메시지로부터 일정 시간 이상의 간격(예컨대, 1시간)이 있을 경우로 설정할 수 있다.
UE#2는 타인 메시지에 이모티콘을 추가하여 상대방(UE#1, UE#3... UE#N)에게 감정을 표현한 메시지를 전송한다. 퍼소나 분류 장치(100)는 특정 메신저 상에 표시되는 개인별 추가 이모티콘의 수를 이용하여 이모티콘 사용 횟수를 확인할 수 있다.
UE#3는 타인의 메시지에 답글 메시지를 추가하여 상대방의 말에 답한다. 퍼소나 분류 장치(100)는 특정 메신저 상에 개인별 답글 메시지 수를 이용하여 답글 회수를 확인할 수 있다. 퍼소나 분류 장치(100)는 메신저를 이용하여 말을 많이 특성을 메시지의 수를 이용하여 확인할 수 있다.
퍼소나 분류 장치(100)는 물리적 공간에서 수집된 대화 데이터에서 다음과 같은 행동 요소를 추출할 수 있다. 퍼소나 분류 장치(100)는 실내 위치 추적(Indoor Tracking) 기술을 통해 사용자들의 이동 및 자리에 머무른 시간을 확인할 수 있다. 예컨대, 퍼소나 분류 장치(100)는 물리적 공간에 설치된 비콘(Beacon)을 이용하여 실내 위치 추적을 수행할 수 있다.
퍼소나 분류 장치(100)는 물리적 공간에 설치된 사운드 센서를 이용하여 사용자들의 대화 여부를 확인할 수 있다. 퍼소나 분류 장치(100)는 물리적 공간에 설치된 압력 센서를 이용하여 공용 공간에 오래 머무르는 지의 여부를 확인할 수 있다.
퍼소나 분류 장치(100)는 공용 공간에 머무른 시간을 이용할 수 있다. 퍼소나 분류 장치(100)는 물리적 공간 상의 의자에 설치된 압력 센서를 이용하여 자리에서 주기적으로 움직이는 지의 여부를 확인할 수 있다. 퍼소나 분류 장치(100)는 자리에 평균적으로 앉아 있는 시간을 이용할 수 있다.
퍼소나 분류 장치(100)는 물리적 공간 상에 구분된 영역 설치된 압력 센서를 이용하여 남의 자리 구역에 자주 가는 지의 여부를 확인할 수 있다. 퍼소나 분류 장치(100)는 남의 자리 구역에 가는 횟수 및 머무는 시간을 이용할 수 있다.
퍼소나 분류 장치(100)는 물리적 공간 상에 구분된 영역 설치된 압력 센서 및 사운드 센서를 이용하여 물리적 공간에서 남의 자리 구역에 가서 말을 시키는 지의 여부를 확인할 수 있다. 퍼소나 분류 장치(100)는 남의 자리 구역에서 말을 먼저 하는 횟수를 이용할 수 있다.
퍼소나 분류 장치(100)는 물리적 공간 상에 구분된 영역 설치된 압력 센서 및 사운드 센서를 이용하여 물리적 공간에서 이미 일어나고 있는 대화에 참여하는 지의 여부를 확인할 수 있다. 퍼소나 분류 장치(100)는 대화가 일어나고 있는 공간에 위치하여 말하는 센싱 데이터를 이용한다.
퍼소나 분류 장치(100)는 물리적 공간 상에 구분된 영역 설치된 압력 센서를 이용하여 물리적 공간에서 타인과 붙어있는 자리보다는 떨어진 자리를 선호하는지의 여부를 확인할 수 있다.
퍼소나 분류 장치(100)는 사용자들이 검증된 성격 검사 결과를 수행하여 외향성과 친화성을 측정한다. 예컨대, 퍼소나 분류 장치(100)는 성격 검사를 이용하여 ‘외향성’과 ‘친화성’의 실측 자료값을 산출할 수 있다.
퍼소나 분류 장치(100)는 각 사용자별 각 행동 요소의 값들과 성격 검사 결과의 실측 자료를 학습하여 성격 예측 모델을 생성한다. 퍼소나 분류 장치(100)는 이후 온라인 및 물리적 공간의 데이터만을 이용하여 사용자의 퍼소나 유형을 분류할 수 있다.
도 6b에 도시된 바와 같이, 퍼소나 분류 장치(100)는 물리적 공간 데이터 및 사용자 참여형 데이터 분석을 통한 퍼소나를 예측하고, 물리적 공간 데이터 및 사용자 참여형 데이터로부터 사용자 실시간 컨텍스트 추출하여 사용자 의도 파악한다.
예컨대, 특정 장소(까페)에 오래 혼자 앉아 있는 경우, 퍼소나 분류 장치(100)는 물리적 공간 및 사용자 참여 데이터를 이용하여 사용자 퍼소나 예측을 통한 사용자 의도 파악하여 ‘사람들과 같이 이야기를 하고 싶을 것이다’라는 사용자 의도를 추론한다.
이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
100: 퍼소나 분류 장치 110: 추출부
112: 퍼소나 정의부 114: 데이터 수집부
116: 행동 요소 추출부 120: 예측 모델 생성부
130: 컨텍스트 추출부 140: 사용자 의도 파악부

Claims (13)

  1. 기 설정된 사용자 유형 분류 기준을 성격 특성 요소로 정의하는 퍼소나 정의부;
    물리적 공간 상에 구분된 영역에 설치된 특정 공간의 입구에 설치된 RFID, 특정 공간 내에 설치된 비콘 센서로부터 수집된 센싱 데이터를 근거로 물리적인 공간 내 다중사용자에 대한 사용자 위치 정보를 생성하며, 물리적 공간 상에 구분된 영역에 설치된 사운드 센서(Sound Sensor)로부터 수집된 센싱 데이터를 근거로 상기 사용자 위치 정보를 이용하여 물리적인 공간 내 다중사용자에 대한 음성 대화 데이터를 생성하며, 기 설정된 메신저로부터 텍스트 대화 데이터를 수집하며, 상기 사용자 위치 정보, 상기 음성 대화 데이터 및 상기 텍스트 대화 데이터를 취합하여 대화 데이터로서 수집하는 데이터 수집부;
    상기 사용자 위치 정보 및 상기 음성 대화 데이터를 분석하여 물리적 공간에서 말하는 횟수, 공용 공간 상에 머무는 시간을 기반으로 성격을 구성하는 요소 중 친화성과 외향성과 관련된 퍼소나를 갖는 행동 특성을 나타내는 변수값에 대응하는 행동 요소를 추출하며, 상기 텍스트 대화 데이터를 분석하여 온라인 공간에서의 다른 사람의 말에 총 메시지 횟수, 답장 횟수, 스티커 및 이모티콘 사용 빈도, 메시지로 다른 사람에게 말을 시키는 빈도를 기반으로 성격을 구성하는 요소 중 친화성과 외향성과 관련된 퍼소나를 갖는 행동 특성을 나타내는 변수값에 대응하는 행동 요소를 추출하는 행동 요소 추출부;
    상기 대화 데이터로부터 실시간으로 컨텍스트 피처를 추출하는 컨텍스트 추출부;
    상기 행동 요소, 상기 컨텍스트 피처, 기 저장된 성격 검사 실측 자료(Ground Truth) 값을 기반으로 예측 모델을 생성하는 예측 모델 생성부; 및
    상기 예측 모델을 기반으로 사용자 의도를 파악하는 사용자 의도 파악부
    를 포함하는 것을 특징으로 하는 퍼소나 분류 장치.
  2. 제 1 항에 있어서,
    상기 퍼소나 정의부는,
    성격(Personality)을 구성하는 신경성(Neuroticism), 개방성(Openness), 성실성(Conscientiousness), 외향성(Extraversion), 친화성(Agreeableness) 중 적어도 한 개 이상의 요소를 상기 성격 특성 요소로 정의하는 것을 특징으로 하는 퍼소나 분류 장치.
  3. 삭제
  4. 삭제
  5. 제 1 항에 있어서,
    상기 행동 요소 추출부는,
    상기 텍스트 대화 데이터를 분석하여 온라인 공간에서의 메신저 사용자들의 메시지 수, 메시지를 보낸 시각, 답장 수, 답장 시각, 스티커(이모티콘) 수, 답장 순서, 온라인 메신저 공간에 가입한 시각을 기반으로 대화와 관련된 행동 요소를 추출하는 것을 특징으로 하는 퍼소나 분류 장치.
  6. 삭제
  7. 삭제
  8. 제 1 항에 있어서,
    상기 행동 요소 추출부는,
    상기 사용자 위치 정보를 분석하여 물리적 공간에서 실내 위치 추적(Indoor Tracking) 기술을 통해 사용자들의 이동 및 자리에 머무른 시간을 확인하거나
    물리적 공간에 설치된 비콘(Beacon)을 이용하여 실내 위치 추적을 수행하는 것을 특징으로 하는 퍼소나 분류 장치.
  9. 제 1 항에 있어서,
    상기 행동 요소 추출부는,
    상기 사용자 위치 정보 및 상기 음성 대화 데이터를 분석하여 상기 텍스트 대화 데이터를 분석하여 이전의 메시지로부터 기 설정된 시간(예컨대, 1시간)이 초과된 후 답장 메시지를 보낸 경우의 횟수를 기반으로 친화성과 외향성과 관련된 퍼소나를 갖는 행동 특성을 나타내는 변수값을 추출하는 것을 특징으로 하는 퍼소나 분류 장치.
  10. 제 1 항에 있어서,
    상기 예측 모델 생성부는,
    상기 행동 요소를 나타내는 변수값과 기 저장된 성격 검사 실측 자료값을 학습하여 상기 예측 모델을 생성하는 것을 특징으로 하는 퍼소나 분류 장치.
  11. 제 1 항에 있어서,
    상기 컨텍스트 추출부는,
    상기 대화 데이터로부터 상대방에게 말을 시키는 컨텍스트 피처, 상대방의 말에 답을 해주는 컨텍스트 피처, 상대방의 말에 공감해주는 컨텍스트 피처, 말하는 컨텍스트 피처를 추출하는 것을 특징으로 하는 퍼소나 분류 장치.
  12. 제 1 항에 있어서,
    상기 사용자 의도 파악부는,
    리커트 척도(Likert Scale)를 기반으로 상기 사용자 의도의 정확도를 계산하는 것을 특징으로 하는 퍼소나 분류 장치.
  13. 퍼소나 정의부에서 기 설정된 사용자 유형 분류 기준을 성격 특성 요소로 정의하는 과정;
    데이터 수집부에서 물리적 공간 상에 구분된 영역에 설치된 특정 공간의 입구에 설치된 RFID, 특정 공간 내에 설치된 비콘 센서로부터 수집된 센싱 데이터를 근거로 물리적인 공간 내 다중사용자에 대한 사용자 위치 정보를 생성하는 과정;
    상기 데이터 수집부에서 물리적 공간 상에 구분된 영역에 설치된 사운드 센서(Sound Sensor)로부터 수집된 센싱 데이터를 근거로 상기 사용자 위치 정보를 이용하여 물리적인 공간 내 다중사용자에 대한 음성 대화 데이터를 생성하는 과정;
    상기 데이터 수집부에서 기 설정된 메신저로부터 텍스트 대화 데이터를 수집하는 과정;
    상기 데이터 수집부에서 상기 사용자 위치 정보, 상기 음성 대화 데이터 및 상기 텍스트 대화 데이터를 취합하여 대화 데이터로서 수집하는 과정;
    행동 요소 추출부에서 상기 사용자 위치 정보 및 상기 음성 대화 데이터를 분석하여 물리적 공간에서 말하는 횟수, 공용 공간 상에 머무는 시간을 기반으로 성격을 구성하는 요소 중 친화성과 외향성과 관련된 퍼소나를 갖는 행동 특성을 나타내는 변수값에 대응하는 행동 요소를 추출하는 과정;
    상기 행동 요소 추출부에서 상기 텍스트 대화 데이터를 분석하여 온라인 공간에서의 다른 사람의 말에 총 메시지 횟수, 답장 횟수, 스티커 및 이모티콘 사용 빈도, 메시지로 다른 사람에게 말을 시키는 빈도를 기반으로 성격을 구성하는 요소 중 친화성과 외향성과 관련된 퍼소나를 갖는 행동 특성을 나타내는 변수값에 대응하는 행동 요소를 추출하는 과정;
    컨텍스트 추출부에서 상기 대화 데이터로부터 실시간으로 컨텍스트 피처를 추출하는 과정;
    예측 모델 생성부에서 상기 행동 요소, 상기 컨텍스트 피처, 기 저장된 성격 검사 실측 자료(Ground Truth) 값을 기반으로 예측 모델을 생성하는 과정; 및
    사용자 의도 파악부에서 상기 예측 모델을 기반으로 사용자 의도를 파악하는 과정
    을 포함하는 것을 특징으로 하는 퍼소나 분류 방법.
KR1020170164876A 2017-12-04 2017-12-04 물리적 공간의 센서 데이터와 온라인 메신저 사용 데이터를 이용한 사용자 퍼소나 분류 방법 및 장치 KR101997161B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170164876A KR101997161B1 (ko) 2017-12-04 2017-12-04 물리적 공간의 센서 데이터와 온라인 메신저 사용 데이터를 이용한 사용자 퍼소나 분류 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170164876A KR101997161B1 (ko) 2017-12-04 2017-12-04 물리적 공간의 센서 데이터와 온라인 메신저 사용 데이터를 이용한 사용자 퍼소나 분류 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20190065582A KR20190065582A (ko) 2019-06-12
KR101997161B1 true KR101997161B1 (ko) 2019-10-01

Family

ID=66845738

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170164876A KR101997161B1 (ko) 2017-12-04 2017-12-04 물리적 공간의 센서 데이터와 온라인 메신저 사용 데이터를 이용한 사용자 퍼소나 분류 방법 및 장치

Country Status (1)

Country Link
KR (1) KR101997161B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1021712A (en) 1911-03-23 1912-03-26 Bradford Dyers Ass Ltd Manufacture of textile fabrics.
US20160103996A1 (en) * 2014-10-09 2016-04-14 Qualcomm Incorporated Methods and Systems for Behavioral Analysis of Mobile Device Behaviors Based on User Persona Information

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8195460B2 (en) * 2008-06-17 2012-06-05 Voicesense Ltd. Speaker characterization through speech analysis
KR101939683B1 (ko) * 2012-03-29 2019-01-18 삼성전자 주식회사 사용자 행동 실시간 인식장치 및 방법
KR20160000469A (ko) * 2014-06-23 2016-01-05 한성대학교 산학협력단 퍼소나 모델링 키트

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1021712A (en) 1911-03-23 1912-03-26 Bradford Dyers Ass Ltd Manufacture of textile fabrics.
US20160103996A1 (en) * 2014-10-09 2016-04-14 Qualcomm Incorporated Methods and Systems for Behavioral Analysis of Mobile Device Behaviors Based on User Persona Information

Also Published As

Publication number Publication date
KR20190065582A (ko) 2019-06-12

Similar Documents

Publication Publication Date Title
Bogomolov et al. Happiness recognition from mobile phone data
Bogomolov et al. Daily stress recognition from mobile phone data, weather conditions and individual traits
LiKamWa et al. Moodscope: Building a mood sensor from smartphone usage patterns
Bogomolov et al. Pervasive stress recognition for sustainable living
Pentland Automatic mapping and modeling of human networks
US11049137B2 (en) System and method for human personality diagnostics based on computer perception of observable behavioral manifestations of an individual
CN108039988A (zh) 设备控制处理方法及装置
CN106910513A (zh) 情绪智能聊天引擎
Pentland et al. Human dynamics: computation for organizations
US11521111B2 (en) Device and method for recommending contact information
Yu et al. Inferring user profile attributes from multidimensional mobile phone sensory data
Javed et al. Toward an automated measure of social engagement for children with autism spectrum disorder—a personalized computational modeling approach
WO2015131306A1 (en) Dynamics of tie strength from social interaction
Sarker Mobile data science: Towards understanding data-driven intelligent mobile applications
KR102476787B1 (ko) 인공 지능 모델 기반으로 그림일기 분석을 통한 그림일기 사용자의 심리상태 진단 장치 및 방법
KR20090065199A (ko) 사용자 행동 패턴 생성 장치 및 방법
Guthier et al. The affect-aware city
CN112685551B (zh) 语料库构建方法、聊天机器人会话方法及相关装置
Singh et al. Classifying spending behavior using socio-mobile data
KR101997161B1 (ko) 물리적 공간의 센서 데이터와 온라인 메신저 사용 데이터를 이용한 사용자 퍼소나 분류 방법 및 장치
CN111369275B (zh) 识别和描述群体方法、协调装置及计算机可读取存储介质
Jayagopi et al. Privacy-sensitive recognition of group conversational context with sociometers
Nguyen et al. SECC: Simultaneous extraction of context and community from pervasive signals
Adibuzzaman et al. In situ affect detection in mobile devices: a multimodal approach for advertisement using social network
CN112005286A (zh) 一种教学测试项目匹配方法、装置和设备

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant