WO2018164298A1 - Emotion information providing device based on spatial and time information - Google Patents

Emotion information providing device based on spatial and time information Download PDF

Info

Publication number
WO2018164298A1
WO2018164298A1 PCT/KR2017/002562 KR2017002562W WO2018164298A1 WO 2018164298 A1 WO2018164298 A1 WO 2018164298A1 KR 2017002562 W KR2017002562 W KR 2017002562W WO 2018164298 A1 WO2018164298 A1 WO 2018164298A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
emotion
time
environment
users
Prior art date
Application number
PCT/KR2017/002562
Other languages
French (fr)
Korean (ko)
Inventor
이양우
황민철
김삼이
Original Assignee
상명대학교서울산학협력단
(주)브라이트테크
이양우
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 상명대학교서울산학협력단, (주)브라이트테크, 이양우 filed Critical 상명대학교서울산학협력단
Priority to PCT/KR2017/002562 priority Critical patent/WO2018164298A1/en
Publication of WO2018164298A1 publication Critical patent/WO2018164298A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising

Definitions

  • the present invention relates to an emotional information providing apparatus based on spatial and temporal information, and more particularly, to an emotional information providing apparatus based on spatial and temporal information for enhancing accessibility and utilization of emotional information.
  • An object of the present invention is to provide an emotion information providing apparatus based on space and time information for improving accessibility and utilization of emotion information.
  • the emotional information providing apparatus is environmental information, including temperature, humidity, illuminance, and noise information around a plurality of users, image information and a plurality of images of the environment surrounding the plurality of users
  • An input unit for receiving emotion information of a user of the controller, a controller for matching spatial information and time information in which the environment information, image information and emotion information are generated with the environment information, image information and emotion information, and the spatial information and time information
  • a database generator for storing a matched environment information, image information, and emotion information to generate a database
  • an information output unit for analyzing the database according to search information received from a user terminal and outputting an analysis result.
  • the emotion information is generated by comparing the bio-signal measurement data, behavioral measurement data, and environmental measurement data with respective reference values or using a vocabulary of web content usage data, wherein the emotional information includes a pleasant-discomfort axis and an awakening-relaxation axis. Can be categorized according to dimensional sensitivity.
  • the controller may match an area and time at which the environment information and image information are generated with the environment information and image information, and match a generation area and time of data used to generate the emotion information with the emotion information. .
  • the information output unit may calculate and output at least one of a total average value and a total change amount of each category of the database according to at least one of a local unit and a time unit included in the search information.
  • the information output unit calculates at least one of an average value and a change amount for each category of the database according to at least one of a plurality of local units and a plurality of time units included in the search information, and then calculates the calculated total average value and total change amount. At least one of the comparison results may be generated and output.
  • the user can grasp the objective feelings felt by people in a specific event or phenomenon.
  • the user can use this information for marketing or as an objective data for research analysis.
  • FIG. 1 is a block diagram of an emotion information providing apparatus according to an embodiment of the present invention.
  • FIG. 2 is a diagram for describing two-dimensional emotion information according to the pleasant-discomfort axis and the arousal-relaxation axis according to an embodiment of the present invention.
  • FIG. 3 is a flowchart illustrating a method of providing emotion information according to an embodiment of the present invention.
  • FIG. 4 is a diagram for describing search information according to an embodiment of the present invention.
  • FIG. 5 is a view for explaining a method of outputting an analysis result according to an exemplary embodiment of the present invention.
  • FIG. 1 is a block diagram of an emotion information providing apparatus according to an embodiment of the present invention.
  • the emotion information providing apparatus 100 includes an input unit 110, a controller 120, a database generator 130, and an information output unit 140.
  • the input unit 110 receives environment information including temperature, humidity, illuminance, and noise information around a plurality of users, image information photographing a plurality of user surroundings, and emotion information about a plurality of users.
  • the input unit 110 includes environmental information and an image including data about temperature, humidity, illuminance, noise, and gas around the user from a sensor such as a temperature measuring instrument, a humidity measuring instrument, an illuminance measuring instrument, a noise measuring instrument, a gas measuring instrument, and a camera. Receive information in real time. The input unit 110 receives the emotion information from the user terminal.
  • the emotional information is generated by comparing biosignal measurement data, behavioral measurement data, and environmental measurement data with respective reference values or using a vocabulary of using web content usage data, and includes two-dimensional axes including a pleasant-discomfort axis and an awakening-relaxation axis. Categorized according to emotion.
  • the controller 120 matches the spatial information and time information in which the environment information, the image information, and the emotion information are generated with the environment information, the image information, and the emotion information.
  • the controller 120 matches the region and time at which the environment information and the image information are generated to the environment information and the image information, and the generation region and time of the data used to generate the emotion information to the emotion information.
  • the database generator 130 generates a database by storing environment information, image information, and emotion information matched with spatial information and time information.
  • the information output unit 140 analyzes the database according to the search information received from the user terminal and outputs the analysis result.
  • the information output unit 140 calculates and outputs at least one of the total average value and the total change amount for each category of the database according to at least one of the region unit and the time unit included in the search information.
  • the information output unit 140 calculates at least one of the average value and the change amount of each category of data for the user according to at least one of a plurality of local units and a plurality of time units included in the search information, and then calculates the total The result of comparison with at least one of the average value and the total change amount is generated and output.
  • the information output unit 140 may categorize and output sensory stimuli according to environmental information and image information according to two-dimensional emotion.
  • FIG. 2 is a diagram for describing two-dimensional emotion information according to the pleasant-discomfort axis and the arousal-relaxation axis according to an embodiment of the present invention.
  • the two-dimensional emotion information is classified into a total of nine dimensional emotions according to the two-dimensional coordinate system of the comfort-discomfort axis (x axis) and the awakening-relaxation axis (y axis).
  • space 1 is unpleasant-wake
  • space 2 is awakening
  • space 3 is pleasant-wake
  • space 4 is unpleasant
  • space 5 is neutral
  • space 6 is pleasant
  • 7 Burn space is discomfort-relaxation
  • space eight is relaxation.
  • Space nine is space of pleasure-relaxation.
  • the emotion information may be generated by applying at least one of biometric signal measurement data, behavior measurement data, environmental measurement data, and web content usage data of the subject to an emotion analysis algorithm.
  • the biosignal measurement data, behavior measurement data, environmental measurement data, and web content usage data may be the same data as the environmental information and the image information input by the input unit 110.
  • the emotion analysis algorithm extracts heart rate variability (HRV) by analyzing the user's heart rate (PPG) or ballistocardiogram (BCG), and then averages and coherences the peak values of the heart rate variability. extract the ratio.
  • HRV heart rate variability
  • PPG heart rate
  • BCG ballistocardiogram
  • the emotion analysis algorithm may set any one of nine dimensional emotions for each time slot by comparing the average value and unity ratio of the extracted peak point with a preset reference value.
  • the emotional analysis algorithm will use space 1, that is, the dimensional sensitivity of the discomfort-wake, to the corresponding time slot. It can be set as the dimensional sensitivity of.
  • the emotional analysis algorithm is based on the subject's total moving distance, number of clusters, entropy, periodic movement pattern (transadian), transition time, location diversity from the GPS data. After extracting a variance, a total distance, and the like, the variance and the total distance are compared with each preset reference value, thereby setting any one of nine dimensional emotions for each time slot.
  • the emotion analysis algorithm extracts the color elements (pixel values) constituting the image from the image data, extracts the magnitude of the noise from the noise measurement data, and compares it with each of the preset reference values. Any one can be set.
  • the emotion analysis algorithm extracts the vocabulary of the web content used by the subject from the web content data and compares it with a previously stored database to set any one of nine dimensional emotions for each time slot.
  • FIG. 3 is a flowchart illustrating a method of providing emotion information according to an embodiment of the present invention.
  • the input unit 110 receives environmental information including temperature, humidity, illuminance, and noise information around a plurality of users, image information photographing a plurality of user surroundings, and emotion information about a plurality of users (S310). .
  • control unit 120 matches the spatial information and time information in which the environment information, the image information, and the emotion information are generated with the environment information, the image information, and the emotion information (S320).
  • the controller 120 matches the area and time at which the environment information and the image information are generated to the environment information and the image information, and the generation area and time of the data used to generate the emotion information to the emotion information. That is, the controller 120 tags the region and time information generated in the environment information and the image information.
  • the database generation unit 130 generates a database by storing the environment information, image information and emotion information matched with the spatial information and time information (S230).
  • the information output unit 140 analyzes the database according to the search information received from the user terminal and outputs the analysis result (S240).
  • the information output unit 140 calculates and outputs at least one of the total average value and the total change amount for each category of the database according to at least one of the region unit and the time unit included in the search information.
  • the information output unit 140 calculates at least one of the average value and the change amount for each category of the database according to at least one of the plurality of regional units and the plurality of time units included in the search information, and then calculates the total average value and the total value. A result of comparison with at least one of the amount of change is generated and output.
  • the information output unit 140 may infer sensory stimuli for each category of the database according to at least one of a plurality of local units and a plurality of time units included in the search information.
  • the information output unit 140 compares the average value for each category according to the search information with a preset threshold range, and compares the total value according to the two-dimensional coordinate system of the pleasant-discomfort axis (x-axis) and the awakening-relaxation axis (y-axis). It can be classified into nine sensory stimuli.
  • the government output unit 140 may select the unpleasant-relaxing sensory stimulus by comparing 5 lux with a threshold range.
  • FIG. 4 is a diagram for describing search information according to an embodiment of the present invention.
  • the search information includes local information and date information.
  • the date information includes year, month, day, and time information.
  • the user may input Gangnam as the local information and May 2016 as the date information as the search information.
  • the search information also includes output form information of data to be output by the user.
  • the output form information of the data includes a map data view, an average data view, a change data view, a comparison average data view, and a comparison change data view.
  • FIG. 5 is a view for explaining a method of outputting an analysis result according to an exemplary embodiment of the present invention.
  • the average data view refers to an output form in which an average of data corresponding to local information or date information included in the search information is provided to the user as a graph or a numerical value.
  • search information is inputted using local information as a whole region and date information as a full date. Then, as shown in (a) of FIG. 5, the information output unit 140 calculates an average value for each category of all regions and all date data, and then outputs it as a graph or a numerical value.
  • the comparative average data view refers to an output form in which a mean of data corresponding to a plurality of local information or a plurality of date information included in the search information is provided to the user as a graph or a numerical value.
  • the information output unit 140 calculates the average value for each category of the total region and the total date data and the average value for each category of the data tagged with Gangnam, 1 January 2016 all at 13:00. Then print it out as a graph or numerical value.
  • the map data view refers to an output form in which emotional information is displayed on the map and provided to the user.
  • the information output unit 140 calculates the average value of emotional information tagged with Seoul, January 5, 2017 in each administrative district, and then maps and outputs the color corresponding to the average value on the Seoul map.
  • the change data view refers to an output form that provides a user with a graph or a numerical value of a change in data corresponding to local information or date information included in the search information.
  • the information output unit 140 calculates the average value for each category of the tagged data of Busan, March 5, 2017 for each time zone, and outputs it as a graph or a numerical value.
  • the comparison change data view refers to an output form in which a change trend of data corresponding to a plurality of local information or a plurality of date information included in the search information is provided to the user as a graph or a numerical value.
  • the information output unit 140 calculates the average value for each category of data tagged with Seoul, January 1, 2016 for each time zone, and calculates the average value for each category of data tagged with Seoul January 1, 2017 for each time zone. do.
  • the information output unit 140 outputs the calculated average values in graphs or numerical values, respectively.
  • the user can grasp the objective feelings felt by people in a specific event or phenomenon.
  • the user can use this information for marketing or as an objective data for research analysis.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

The present invention relates to an emotion information providing device based on spatial and time information. The emotion information providing device according to the present invention comprises: an input unit for receiving environment information including information on temperature, humidity, illuminance, and noise around a plurality of users, image information obtained by photographing environments around the plurality of users, and emotion information of the plurality of users; a control unit for matching spatial information and time information, in which the environment information, the image information, and the emotion information have been generated, with the environment information, the image information, and the emotion information; a database generation unit for storing the environment information, the image information, and the emotion information, which have been matched with the spatial information and the time information, and generating a database; and an information output unit for outputting an analysis result after analyzing the database according to search information received from a user terminal. As such, since it is possible to provide situations that people encounter in different regions and at different times, and emotion information corresponding to the situations, the users can grasp an objective emotion felt by people in a specific event or phenomenon. The present invention has an advantage in that the users can utilize such information in marketing or as objective data for research and analysis.

Description

공간 및 시간 정보를 기반으로 하는 감성 정보 제공 장치 Emotional information providing device based on spatial and temporal information
본 발명은 공간 및 시간 정보를 기반으로 하는 감성 정보 제공 장치에 관한 것으로서, 더욱 상세하게는 감성 정보의 접근성과 활용성을 높이기 위한 공간 및 시간 정보를 기반으로 하는 감성 정보 제공 장치에 관한 것이다.The present invention relates to an emotional information providing apparatus based on spatial and temporal information, and more particularly, to an emotional information providing apparatus based on spatial and temporal information for enhancing accessibility and utilization of emotional information.
최근 인간의 감성을 비즈니스와 결합하기 위한 다양한 시도가 진행되면서 사람에 대한 감성을 분석하는 연구 개발이 활발하다. Recently, as various attempts have been made to combine human emotions with business, research and development to analyze human emotions is active.
종래에는 사람의 감성을 분석하기 위하여, 설문지 형태의 감성 분석 도구를 사용하였으나, 사람의 감성은 실시간으로 변하는데 반해, 이러한 감성 분석 기술은 실시간으로 획득하기 어렵고 이성적 판단이 결합되어 정확한 감성 정보를 분석하기 어려운 단점이 있었다. In the past, in order to analyze human emotions, an emotional analysis tool in the form of a questionnaire was used, but human emotions are changed in real time, whereas such emotional analysis technology is difficult to obtain in real time and combines rational judgment to analyze accurate emotional information. It was difficult to do.
그러나, 사람의 생체 신호나 영상을 획득할 수 있는 센서 장치들이 발달함에 따라, 감성 분석에 기초가 되는 데이터를 손쉽게 획득할 수 있게 되었다. 이에 따라 많은 대학, 기업, 연구기관들에서는 라이프로깅 데이터와 같은 다중 정보들에 빅데이터 분석 기법들을 적용하여 분석하고 있다.However, as sensor devices capable of acquiring a human biosignal or an image have been developed, it is possible to easily acquire data based on emotional analysis. Accordingly, many universities, companies, and research institutes apply big data analysis techniques to multiple information such as lifelogging data.
이렇게 분석된 감성 정보들은 데이터량이 방대하고 다양한 분야에서 활용이 되므로, 생성된 감성 빅데이터를 활용할 수 있도록 체계화된 틀에 따라 감성 정보를 제공하는 시스템이 요구되고 있다. As the emotional information analyzed in this way is massive and can be used in various fields, a system for providing emotional information according to a systemic framework for utilizing the generated emotional big data is required.
본 발명의 배경이 되는 기술은 한국등록특허 제10-1262922호(2013.05.09. 공고)에 개시되어 있다.The background technology of the present invention is disclosed in Korean Patent Registration No. 10-1262922 (announced on May 09, 2013).
본 발명이 이루고자 하는 기술적 과제는 감성 정보의 접근성과 활용성을 높이기 위한 공간 및 시간 정보를 기반으로 하는 감성 정보 제공 장치을 제공하기 위한 것이다.An object of the present invention is to provide an emotion information providing apparatus based on space and time information for improving accessibility and utilization of emotion information.
이러한 기술적 과제를 이루기 위한 본 발명의 실시예에 따르면, 감성 정보 제공 장치는 복수의 사용자 주변의 온도, 습도, 조도 및 소음 정보를 포함하는 환경 정보, 복수의 사용자 주변 환경을 촬영한 영상 정보 및 복수의 사용자에 대한 감성 정보를 입력받는 입력부, 상기 환경 정보, 영상 정보 및 감성 정보가 생성된 공간 정보와 시간 정보를 상기 환경 정보, 영상 정보 및 감성 정보에 매칭하는 제어부, 상기 공간 정보 및 시간 정보가 매칭된 환경 정보, 영상 정보 및 감성 정보를 저장하여 데이터베이스를 생성하는 데이터베이스 생성부, 그리고 사용자 단말로부터 수신한 검색 정보에 따라 상기 데이터베이스를 분석한 후 분석 결과를 출력하는 정보 출력부를 포함한다. According to an embodiment of the present invention for achieving the above technical problem, the emotional information providing apparatus is environmental information, including temperature, humidity, illuminance, and noise information around a plurality of users, image information and a plurality of images of the environment surrounding the plurality of users An input unit for receiving emotion information of a user of the controller, a controller for matching spatial information and time information in which the environment information, image information and emotion information are generated with the environment information, image information and emotion information, and the spatial information and time information And a database generator for storing a matched environment information, image information, and emotion information to generate a database, and an information output unit for analyzing the database according to search information received from a user terminal and outputting an analysis result.
상기 감성 정보는, 상기 생체 신호 측정 데이터, 행동 측정 데이터, 환경 측정 데이터를 각각의 기준값과 비교하거나 웹콘텐츠 사용 데이터의 사용 어휘를 이용하여 생성되되, 쾌-불쾌 축과 각성-이완 축을 포함하는 2차원 감성에 따라 범주화될 수 있다. The emotion information is generated by comparing the bio-signal measurement data, behavioral measurement data, and environmental measurement data with respective reference values or using a vocabulary of web content usage data, wherein the emotional information includes a pleasant-discomfort axis and an awakening-relaxation axis. Can be categorized according to dimensional sensitivity.
상기 제어부는, 상기 환경 정보 및 영상 정보에 상기 환경 정보 및 영상 정보가 생성된 지역과 시간을 매칭하고, 상기 감성 정보에 상기 감성 정보의 생성에 이용된 데이터의 생성 지역과 시간을 매칭할 수 있다. The controller may match an area and time at which the environment information and image information are generated with the environment information and image information, and match a generation area and time of data used to generate the emotion information with the emotion information. .
상기 정보 출력부는, 상기 검색 정보에 포함된 지역 단위 및 시간 단위 중 적어도 하나에 따라 상기 데이터베이스의 각 카테고리별 전체 평균값 및 전체 변화량 중 적어도 하나를 산출하여 출력할 수 있다. The information output unit may calculate and output at least one of a total average value and a total change amount of each category of the database according to at least one of a local unit and a time unit included in the search information.
상기 정보 출력부는, 상기 검색 정보에 포함된 복수의 지역 단위 및 복수의 시간 단위 중 적어도 하나에 따라 상기 데이터베이스의 각 카테고리별 평균값 및 변화량 중 적어도 하나를 산출한 후, 상기 산출된 전체 평균값 및 전체 변화량 중 적어도 하나의 비교 결과를 생성하여 출력할 수 있다. The information output unit calculates at least one of an average value and a change amount for each category of the database according to at least one of a plurality of local units and a plurality of time units included in the search information, and then calculates the calculated total average value and total change amount. At least one of the comparison results may be generated and output.
이와 같이 본 발명에 따르면, 지역별 시간별로 사람들이 처한 상황과 이에 따른 감성 정보를 제공할 수 있으므로, 사용자는 특정 사건이나 현상에서 사람들이 느끼는 객관적 감정을 파악할 수 있다. 사용자는 이러한 정보를 마케팅에 활용하거나 연구 분석의 객관적 자료로 활용할 수 있는 장점이 있다.As described above, according to the present invention, since a situation in which people face each other and emotional information can be provided according to time, the user can grasp the objective feelings felt by people in a specific event or phenomenon. The user can use this information for marketing or as an objective data for research analysis.
도 1은 본 발명의 실시예에 따른 감성 정보 제공 장치의 구성도이다. 1 is a block diagram of an emotion information providing apparatus according to an embodiment of the present invention.
도 2는 본 발명의 실시예에 따른 쾌-불쾌 축 및 각성-이완축에 따른 2차원 감성 정보를 설명하기 위한 도면이다.2 is a diagram for describing two-dimensional emotion information according to the pleasant-discomfort axis and the arousal-relaxation axis according to an embodiment of the present invention.
도 3은 본 발명의 실시예에 따른 감성 정보 제공 방법의 순서도이다. 3 is a flowchart illustrating a method of providing emotion information according to an embodiment of the present invention.
도 4는 본 발명의 실시예에 따른 검색 정보를 설명하기 위한 도면이다. 4 is a diagram for describing search information according to an embodiment of the present invention.
도 5는 본 발명의 실시예에 따른 분석 결과 출력 방법을 설명하기 위한 도면이다. 5 is a view for explaining a method of outputting an analysis result according to an exemplary embodiment of the present invention.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and like reference numerals designate like parts throughout the specification.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다.Throughout the specification, when a part is said to "include" a certain component, it means that it may further include other components, except to exclude other components unless specifically stated otherwise.
그러면 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention.
우선, 도 1을 통해 본 발명의 실시예에 따른 감성 정보 제공 장치의 구성에 대해 살펴보도록 한다. First, a configuration of an emotion information providing apparatus according to an exemplary embodiment of the present invention will be described with reference to FIG. 1.
도 1은 본 발명의 실시예에 따른 감성 정보 제공 장치의 구성도이다. 1 is a block diagram of an emotion information providing apparatus according to an embodiment of the present invention.
도 1에 도시된 바와 같이, 본 발명의 실시예에 따른 감성 정보 제공 장치(100)는 입력부(110), 제어부(120), 데이터베이스 생성부(130) 및 정보 출력부(140)를 포함한다. As shown in FIG. 1, the emotion information providing apparatus 100 according to an exemplary embodiment of the present invention includes an input unit 110, a controller 120, a database generator 130, and an information output unit 140.
우선, 입력부(110)는 복수의 사용자 주변의 온도, 습도, 조도 및 소음 정보를 포함하는 환경 정보, 복수의 사용자 주변 환경을 촬영한 영상 정보 및 복수의 사용자에 대한 감성 정보를 입력받는다. First, the input unit 110 receives environment information including temperature, humidity, illuminance, and noise information around a plurality of users, image information photographing a plurality of user surroundings, and emotion information about a plurality of users.
구체적으로, 입력부(110)는 온도 측정기, 습도 측정기, 조도 측정기, 소음 측정기, 가스 측정기, 카메라와 같은 센서로부터 사용자 주변의 온도, 습도, 조도, 소음, 가스에 관한 데이터를 포함하는 환경 정보와 영상 정보를 실시간으로 입력받는다. 그리고, 입력부(110)는 사용자 단말로부터 감성 정보를 입력받는다. In detail, the input unit 110 includes environmental information and an image including data about temperature, humidity, illuminance, noise, and gas around the user from a sensor such as a temperature measuring instrument, a humidity measuring instrument, an illuminance measuring instrument, a noise measuring instrument, a gas measuring instrument, and a camera. Receive information in real time. The input unit 110 receives the emotion information from the user terminal.
여기서, 감성 정보는 생체 신호 측정 데이터, 행동 측정 데이터, 환경 측정 데이터를 각각의 기준값과 비교하거나 웹콘텐츠 사용 데이터의 사용 어휘를 이용하여 생성되되, 쾌-불쾌 축과 각성-이완 축을 포함하는 2차원 감성에 따라 범주화된다. Here, the emotional information is generated by comparing biosignal measurement data, behavioral measurement data, and environmental measurement data with respective reference values or using a vocabulary of using web content usage data, and includes two-dimensional axes including a pleasant-discomfort axis and an awakening-relaxation axis. Categorized according to emotion.
다음으로, 제어부(120)는 환경 정보, 영상 정보 및 감성 정보가 생성된 공간 정보와 시간 정보를 환경 정보, 영상 정보 및 감성 정보에 매칭한다. Next, the controller 120 matches the spatial information and time information in which the environment information, the image information, and the emotion information are generated with the environment information, the image information, and the emotion information.
구체적으로, 제어부(120)는 환경 정보 및 영상 정보가 생성된 지역과 시간을 환경 정보 및 영상 정보에 매칭하고, 감성 정보의 생성에 이용된 데이터의 생성 지역과 시간을 감성 정보에 매칭한다. In detail, the controller 120 matches the region and time at which the environment information and the image information are generated to the environment information and the image information, and the generation region and time of the data used to generate the emotion information to the emotion information.
다음으로, 데이터베이스 생성부(130)는 공간 정보 및 시간 정보가 매칭된 환경 정보, 영상 정보 및 감성 정보를 저장하여 데이터베이스를 생성한다. Next, the database generator 130 generates a database by storing environment information, image information, and emotion information matched with spatial information and time information.
그리고, 정보 출력부(140)는 사용자 단말로부터 수신한 검색 정보에 따라 데이터베이스를 분석한 후 분석 결과를 출력한다. The information output unit 140 analyzes the database according to the search information received from the user terminal and outputs the analysis result.
구체적으로, 정보 출력부(140)는 검색 정보에 포함된 지역 단위 및 시간 단위 중 적어도 하나에 따라 데이터베이스의 각 카테고리별 전체 평균값 및 전체 변화량 중 적어도 하나를 산출하여 출력한다. In detail, the information output unit 140 calculates and outputs at least one of the total average value and the total change amount for each category of the database according to at least one of the region unit and the time unit included in the search information.
또한, 정보 출력부(140)는 검색 정보에 포함된 복수의 지역 단위 및 복수의 시간 단위 중 적어도 하나에 따라 사용자에 대한 데이터의 각 카테고리별 평균값 및 변화량 중 적어도 하나를 산출한 후, 산출된 전체 평균값 및 전체 변화량 중 적어도 하나와의 비교 결과를 생성하여 출력한다. In addition, the information output unit 140 calculates at least one of the average value and the change amount of each category of data for the user according to at least one of a plurality of local units and a plurality of time units included in the search information, and then calculates the total The result of comparison with at least one of the average value and the total change amount is generated and output.
또한, 정보 출력부(140)는 환경 정보 및 영상 정보에 따른 감각자극을 2차원 감성에 따라 범주화한 후 출력할 수 있다. In addition, the information output unit 140 may categorize and output sensory stimuli according to environmental information and image information according to two-dimensional emotion.
다음으로, 도 2를 통해 본 발명의 실시예에 따른 감성 정보에 대해 살펴보도록 한다. Next, look at the emotion information according to an embodiment of the present invention through FIG.
도 2는 본 발명의 실시예에 따른 쾌-불쾌 축 및 각성-이완축에 따른 2차원 감성 정보를 설명하기 위한 도면이다.2 is a diagram for describing two-dimensional emotion information according to the pleasant-discomfort axis and the arousal-relaxation axis according to an embodiment of the present invention.
도 2에 나타난 바와 같이, 2차원 감성 정보는 쾌-불쾌 축(x축) 및 각성-이완축(y축)의 2차원 좌표계에 따라 총 9개의 차원 감성으로 분류된다. As shown in FIG. 2, the two-dimensional emotion information is classified into a total of nine dimensional emotions according to the two-dimensional coordinate system of the comfort-discomfort axis (x axis) and the awakening-relaxation axis (y axis).
구체적으로 9개의 차원 감성을 살펴보면, 1번 공간은 불쾌-각성, 2번 공간은 각성, 3 번 공간은 쾌-각성, 4번 공간은 불쾌, 5번 공간은 중립, 6번 공간은 쾌, 7번 공간은 불쾌-이완, 8번 공간은 이완 9번 공간은 쾌-이완의 차원 감성을 의미한다. Specifically, looking at the nine dimensional emotions, space 1 is unpleasant-wake, space 2 is awakening, space 3 is pleasant-wake, space 4 is unpleasant, space 5 is neutral, space 6 is pleasant, 7 Burn space is discomfort-relaxation, space eight is relaxation. Space nine is space of pleasure-relaxation.
상기와 같은 감성 정보는 대상자의 생체 신호 측정 데이터, 행동 측정 데이터, 환경 측정 데이터, 웹콘텐츠 사용 데이터 중 적어도 하나를 감성 분석 알고리즘에 적용하여 생성될 수 있다. 이때, 생체 신호 측정 데이터, 행동 측정 데이터, 환경 측정 데이터, 웹콘텐츠 사용 데이터는 입력부(110)가 입력받은 환경 정보 및 영상 정보와 동일한 데이터일 수 있다. The emotion information may be generated by applying at least one of biometric signal measurement data, behavior measurement data, environmental measurement data, and web content usage data of the subject to an emotion analysis algorithm. In this case, the biosignal measurement data, behavior measurement data, environmental measurement data, and web content usage data may be the same data as the environmental information and the image information input by the input unit 110.
우선, 감성 분석 알고리즘은 사용자의 심박수(photoplethysmogram, PPG)나 심동도(ballistocardiogram, BCG)를 분석하여 심박 변이도(heart rate variability, HRV)를 추출한 후, 심박 변이도의 피크점의 평균값 및 통일성 비율(coherence ratio)을 추출한다. 그리고, 감성 분석 알고리즘는 추출된 피크점의 평균값 및 통일성 비율을 기 설정된 기준값과 비교함으로써 타임슬롯별로 9개의 차원 감성 중 어느 하나를 설정할 수 있다. First, the emotion analysis algorithm extracts heart rate variability (HRV) by analyzing the user's heart rate (PPG) or ballistocardiogram (BCG), and then averages and coherences the peak values of the heart rate variability. extract the ratio. In addition, the emotion analysis algorithm may set any one of nine dimensional emotions for each time slot by comparing the average value and unity ratio of the extracted peak point with a preset reference value.
예를 들어, 10초에서 11초 사이의 타임슬롯에서, 피크점의 평균값과 통일성 비율이 각각의 기준값 대비 10% 이상 큰 경우 감성 분석 알고리즘는 1번 공간, 즉 불쾌-각성의 차원 감성을 해당 타임슬롯의 차원 감성으로 설정할 수 있다. For example, in a time slot between 10 and 11 seconds, if the mean and unity ratio of the peak point is more than 10% larger than each reference value, then the emotional analysis algorithm will use space 1, that is, the dimensional sensitivity of the discomfort-wake, to the corresponding time slot. It can be set as the dimensional sensitivity of.
다음으로, 감성 분석 알고리즘은 GPS 데이터로부터 대상자의 전체 이동 거리, GPS 데이터의 클러스터 수(number of clusters), 엔트로피(entropy), 주기적 이동 패턴(circadian), 전이 시간(transition time), 위치 다양성(location variance), 전체 이동 거리(total distance) 등을 추출한 후, 이를 각각의 기 설정된 기준값과 비교함으로써 타임슬롯별로 9개의 차원 감성 중 어느 하나를 설정할 수 있다. Next, the emotional analysis algorithm is based on the subject's total moving distance, number of clusters, entropy, periodic movement pattern (transadian), transition time, location diversity from the GPS data. After extracting a variance, a total distance, and the like, the variance and the total distance are compared with each preset reference value, thereby setting any one of nine dimensional emotions for each time slot.
다음으로, 감성 분석 알고리즘은 이미지 데이터로부터 영상을 구성하는 칼라 요소(픽셀값)를 추출하고 소음 측정 데이터로부터 소음의 크기를 추출한 후, 이를 각각의 기 설정된 기준값과 비교함으로써 타임슬롯별로 9개의 차원 감성 중 어느 하나를 설정할 수 있다. Next, the emotion analysis algorithm extracts the color elements (pixel values) constituting the image from the image data, extracts the magnitude of the noise from the noise measurement data, and compares it with each of the preset reference values. Any one can be set.
그리고, 감성 분석 알고리즘은 웹 콘텐츠 데이터로부터 대상자가 이용한 웹 콘텐츠의 어휘를 추출한 후, 기 저장된 데이터 베이스와 비교함으로써 타임슬롯별로 9개의 차원 감성 중 어느 하나를 설정할 수 있다. In addition, the emotion analysis algorithm extracts the vocabulary of the web content used by the subject from the web content data and compares it with a previously stored database to set any one of nine dimensional emotions for each time slot.
다음으로, 도 3을 통해 본 발명의 실시예에 따른 감성 정보 제공 장치를 이용한 감성 정보 제공 방법에 대해 살펴보도록 한다. Next, the emotion information providing method using the emotion information providing apparatus according to the embodiment of the present invention will be described with reference to FIG. 3.
도 3은 본 발명의 실시예에 따른 감성 정보 제공 방법의 순서도이다. 3 is a flowchart illustrating a method of providing emotion information according to an embodiment of the present invention.
먼저, 입력부(110)는 복수의 사용자 주변의 온도, 습도, 조도 및 소음 정보를 포함하는 환경 정보, 복수의 사용자 주변 환경을 촬영한 영상 정보 및 복수의 사용자에 대한 감성 정보를 입력받는다(S310). First, the input unit 110 receives environmental information including temperature, humidity, illuminance, and noise information around a plurality of users, image information photographing a plurality of user surroundings, and emotion information about a plurality of users (S310). .
그러면, 제어부(120)는 환경 정보, 영상 정보 및 감성 정보가 생성된 공간 정보와 시간 정보를 환경 정보, 영상 정보 및 감성 정보에 매칭한다(S320). Then, the control unit 120 matches the spatial information and time information in which the environment information, the image information, and the emotion information are generated with the environment information, the image information, and the emotion information (S320).
구체적으로, 제어부(120)는 환경 정보 및 영상 정보에 환경 정보 및 영상 정보가 생성된 지역과 시간을 매칭하고, 감성 정보에 감성 정보의 생성에 이용된 데이터의 생성 지역과 시간을 매칭한다. 즉, 제어부(120)는 환경 정보 및 영상 정보에 생성된 지역과 시간 정보를 태깅(tagging)한다. In detail, the controller 120 matches the area and time at which the environment information and the image information are generated to the environment information and the image information, and the generation area and time of the data used to generate the emotion information to the emotion information. That is, the controller 120 tags the region and time information generated in the environment information and the image information.
예를 들어, 서울시 강남구에서 13시 10분에 A라는 사람에 의해 환경 정보, 영상 정보, 그리고 감성 정보의 생성에 이용된 데이터가 생성된 경우, 환경 정보, 영상 정보 및 감성 정보에 생성 지역으로 서울시 강남구가 태깅되고 생성 시간에 13시 10분이 태깅된다. For example, when data used to generate environmental information, image information, and emotion information is generated by a person A at 13:10 in Gangnam-gu, Seoul, the city of Seoul may be created as an area in the environment information, image information, and emotion information. Gangnam-gu is tagged and 13:10 is tagged at creation time.
다음으로, 데이터베이스 생성부(130)는 공간 정보 및 시간 정보가 매칭된 환경 정보, 영상 정보 및 감성 정보를 저장하여 데이터베이스를 생성한다(S230). Next, the database generation unit 130 generates a database by storing the environment information, image information and emotion information matched with the spatial information and time information (S230).
그러면, 정보 출력부(140)는 사용자 단말로부터 수신한 검색 정보에 따라 데이터베이스를 분석한 후 분석 결과를 출력한다(S240). Then, the information output unit 140 analyzes the database according to the search information received from the user terminal and outputs the analysis result (S240).
구체적으로, 정보 출력부(140)는 검색 정보에 포함된 지역 단위 및 시간 단위 중 적어도 하나에 따라 데이터베이스의 각 카테고리별 전체 평균값 및 전체 변화량 중 적어도 하나를 산출하여 출력한다. In detail, the information output unit 140 calculates and outputs at least one of the total average value and the total change amount for each category of the database according to at least one of the region unit and the time unit included in the search information.
또한, 정보 출력부(140)는 검색 정보에 포함된 복수의 지역 단위 및 복수의 시간 단위 중 적어도 하나에 따라 데이터베이스의 각 카테고리별 평균값 및 변화량 중 적어도 하나를 산출한 후, 산출된 전체 평균값 및 전체 변화량 중 적어도 하나와의 비교 결과를 생성하여 출력한다. In addition, the information output unit 140 calculates at least one of the average value and the change amount for each category of the database according to at least one of the plurality of regional units and the plurality of time units included in the search information, and then calculates the total average value and the total value. A result of comparison with at least one of the amount of change is generated and output.
한편, 정보 출력부(140)는 검색 정보에 포함된 복수의 지역 단위 및 복수의 시간 단위 중 적어도 하나에 따라 데이터베이스의 각 카테고리별 감각 자극을 추론할 수 있다. The information output unit 140 may infer sensory stimuli for each category of the database according to at least one of a plurality of local units and a plurality of time units included in the search information.
구체적으로, 정보 출력부(140)는 검색 정보에 따른 카테코리별 평균값을 기 설정된 임계 범위와 비교하여, 쾌-불쾌 축(x축) 및 각성-이완축(y축)의 2차원 좌표계에 따라 총 9개의 감각 자극으로 분류할 수 있다. In detail, the information output unit 140 compares the average value for each category according to the search information with a preset threshold range, and compares the total value according to the two-dimensional coordinate system of the pleasant-discomfort axis (x-axis) and the awakening-relaxation axis (y-axis). It can be classified into nine sensory stimuli.
예를 들어, 조도의 평균값이 5lux인 경우, 정부 출력부(140)는 5lux를 임계 범위와 비교하여 불쾌-이완의 감각 자극을 선택할 수 있다. For example, when the average value of illuminance is 5 lux, the government output unit 140 may select the unpleasant-relaxing sensory stimulus by comparing 5 lux with a threshold range.
이하에서는 도 4 및 도 5를 통해 본 발명의 실시예에 따른 분석 결과 출력 방법에 대해 살펴보도록 한다. Hereinafter, an analysis result output method according to an exemplary embodiment of the present invention will be described with reference to FIGS. 4 and 5.
도 4는 본 발명의 실시예에 따른 검색 정보를 설명하기 위한 도면이다. 4 is a diagram for describing search information according to an embodiment of the present invention.
도 4의 (a)에 나타난 바와 같이, 검색 정보는 지역 정보 및 일자 정보를 포함한다. 이때, 일자 정보는 년, 월, 일, 시간 정보를 포함한다. As shown in FIG. 4A, the search information includes local information and date information. In this case, the date information includes year, month, day, and time information.
예를 들어, 2016년 5월 강남에 있었던 사람들에 대한 감성 정보 등을 확인하고 싶은 경우, 사용자는 지역 정보로 강남, 일자 정보로 2016년 5월을 검색 정보로 입력할 수 있다. For example, if the user wants to check emotion information about people who were in Gangnam in May 2016, the user may input Gangnam as the local information and May 2016 as the date information as the search information.
또한, 도 4의 (b)에 나타난 바와 같이, 검색 정보는 사용자가 출력하고자 하는 데이터의 출력 형태 정보도 포함한다. 여기서, 데이터의 출력 형태 정보는 지도 데이터 보기, 평균 데이터 보기, 변화 데이터 보기, 비교 평균 데이터 보기 및 비교 변화 데이터 보기를 포함한다. In addition, as shown in FIG. 4B, the search information also includes output form information of data to be output by the user. Here, the output form information of the data includes a map data view, an average data view, a change data view, a comparison average data view, and a comparison change data view.
도 5는 본 발명의 실시예에 따른 분석 결과 출력 방법을 설명하기 위한 도면이다. 5 is a view for explaining a method of outputting an analysis result according to an exemplary embodiment of the present invention.
우선, 평균 데이터 보기는 검색 정보에 포함된 지역 정보나 일자 정보에 대응하는 데이터의 평균을 그래프나 수치 등으로 사용자에게 제공하는 출력 형태를 의미한다. First, the average data view refers to an output form in which an average of data corresponding to local information or date information included in the search information is provided to the user as a graph or a numerical value.
예를 들어, 지역 정보를 전체 지역, 일자 정보를 전체 일자로 하여 검색 정보가 입력되었다고 가정한다. 그러면, 도 5의 (a)에서와 같이, 정보 출력부(140)는 전체 지역, 전체 일자 데이터의 카테고리 별 평균값을 산출한 후, 이를 그래프나 수치로 출력한다. For example, it is assumed that search information is inputted using local information as a whole region and date information as a full date. Then, as shown in (a) of FIG. 5, the information output unit 140 calculates an average value for each category of all regions and all date data, and then outputs it as a graph or a numerical value.
다음으로, 비교 평균 데이터 보기는 검색 정보에 포함된 복수의 지역 정보나 복수의 일자 정보에 대응하는 데이터의 평균을 그래프나 수치 등으로 사용자에게 제공하는 출력 형태를 의미한다. Next, the comparative average data view refers to an output form in which a mean of data corresponding to a plurality of local information or a plurality of date information included in the search information is provided to the user as a graph or a numerical value.
예를 들어, 지역 정보를 전체 지역 및 강남, 일자 정보를 전체 일자 및 2016년 1월 전체일 13시로 하여 검색 정보가 입력되었다고 가정한다. 그러면, 정보 출력부(140)는 도 5의 (b)에서와 같이, 전체 지역 및 전체 일자 데이터의 카테고리 별 평균값 및 강남, 2016년 1월 전체일 13시가 태깅된 데이터의 카테고리별 평균값을 각각 산출한 후, 이를 그래프나 수치로 출력한다. For example, it is assumed that search information has been input with the local information as the entire region, Gangnam, and the date information as the full date and January 1, 2016 at 13:00. Then, as shown in (b) of FIG. 5, the information output unit 140 calculates the average value for each category of the total region and the total date data and the average value for each category of the data tagged with Gangnam, 1 January 2016 all at 13:00. Then print it out as a graph or numerical value.
다음으로, 지도 데이터 보기는 지도상에 감성 정보를 표시하여 사용자에게 제공하는 출력 형태를 의미한다. Next, the map data view refers to an output form in which emotional information is displayed on the map and provided to the user.
예를 들어, 지역 정보를 서울, 일자 정보를 2017년 1월 5일로 하여 검색 정보가 입력되었다고 가정한다. 그러면, 정보 출력부(140)는 서울, 2017년 1월 5일이 태깅된 감성 정보의 평균값을 각 행정구 단위로 산출한 후, 평균값에 대응하는 색상을 서울 지도상에 매핑하여 출력한다. For example, it is assumed that search information is input with the local information as Seoul and the date information as January 5, 2017. Then, the information output unit 140 calculates the average value of emotional information tagged with Seoul, January 5, 2017 in each administrative district, and then maps and outputs the color corresponding to the average value on the Seoul map.
다음으로, 변화 데이터 보기는 검색 정보에 포함된 지역 정보나 일자 정보에 대응하는 데이터의 변화 추이를 그래프나 수치 등으로 사용자에게 제공하는 출력 형태를 의미한다. Next, the change data view refers to an output form that provides a user with a graph or a numerical value of a change in data corresponding to local information or date information included in the search information.
예를 들어, 지역 정보를 부산, 일자 정보를 2017년 3월 5일로 하여 검색 정보가 입력되었다고 가정한다. 그러면, 정보 출력부(140)는 부산, 2017년 3월 5일이 태깅된 데이터의 카테고리 별 평균값을 시간대 별로 산출한 후, 이를 그래프나 수치로 출력한다. For example, it is assumed that search information is input using the local information as Busan and the date information as March 5, 2017. Then, the information output unit 140 calculates the average value for each category of the tagged data of Busan, March 5, 2017 for each time zone, and outputs it as a graph or a numerical value.
다음으로, 비교 변화 데이터 보기는 검색 정보에 포함된 복수의 지역 정보나 복수의 일자 정보에 대응하는 데이터의 변화 추이를 그래프나 수치 등으로 사용자에게 제공하는 출력 형태를 의미한다. Next, the comparison change data view refers to an output form in which a change trend of data corresponding to a plurality of local information or a plurality of date information included in the search information is provided to the user as a graph or a numerical value.
예를 들어, 지역 정보를 서울, 일자 정보를 2016년 1월 1일, 2017년 1월 1일로 하여 검색 정보가 입력되었다고 가정한다. 그러면, 정보 출력부(140)는 서울, 2016년 1월 1일이 태깅된 데이터의 카테고리별 평균값을 시간대별로 산출하고, 서울 2017년 1월 1일이 태깅된 데이터의 카테고리별 평균값을 시간대별로 산출한다. 그리고, 정보 출력부(140)는 각각 산출된 평균값을 그래프나 수치로 출력한다. For example, it is assumed that search information is input with the local information as Seoul, the date information as January 1, 2016, and January 1, 2017. Then, the information output unit 140 calculates the average value for each category of data tagged with Seoul, January 1, 2016 for each time zone, and calculates the average value for each category of data tagged with Seoul January 1, 2017 for each time zone. do. The information output unit 140 outputs the calculated average values in graphs or numerical values, respectively.
본 발명의 실시예에 따르면, 지역별 시간별로 사람들이 처한 상황과 이에 따른 감성 정보를 제공할 수 있으므로, 사용자는 특정 사건이나 현상에서 사람들이 느끼는 객관적 감정을 파악할 수 있다. 사용자는 이러한 정보를 마케팅에 활용하거나 연구 분석의 객관적 자료로 활용할 수 있는 장점이 있다. According to an embodiment of the present invention, since the situation of people and emotional information according to the time for each region can be provided, the user can grasp the objective feelings felt by people in a specific event or phenomenon. The user can use this information for marketing or as an objective data for research analysis.
본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다. Although the present invention has been described with reference to the embodiments shown in the drawings, this is merely exemplary, and it will be understood by those skilled in the art that various modifications and equivalent other embodiments are possible. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

Claims (5)

  1. 복수의 사용자 주변의 온도, 습도, 조도 및 소음 정보를 포함하는 환경 정보, 복수의 사용자 주변 환경을 촬영한 영상 정보 및 복수의 사용자에 대한 감성 정보를 입력받는 입력부, An input unit for receiving environment information including temperature, humidity, illumination, and noise information of a plurality of users, image information of a plurality of surrounding environments of the user, and emotion information of the plurality of users;
    상기 환경 정보, 영상 정보 및 감성 정보가 생성된 공간 정보와 시간 정보를 상기 환경 정보, 영상 정보 및 감성 정보에 매칭하는 제어부, A controller for matching the space information and time information in which the environment information, the image information, and the emotion information are generated with the environment information, the image information, and the emotion information;
    상기 공간 정보 및 시간 정보가 매칭된 환경 정보, 영상 정보 및 감성 정보를 저장하여 데이터베이스를 생성하는 데이터베이스 생성부, 그리고 A database generator configured to generate a database by storing environment information, image information, and emotion information matched with the spatial information and time information; and
    사용자 단말로부터 수신한 검색 정보에 따라 상기 데이터베이스를 분석한 후 분석 결과를 출력하는 정보 출력부를 포함하는 감성 정보 제공 장치. And an information output unit configured to output the analysis result after analyzing the database according to the search information received from the user terminal.
  2. 제1항에 있어서, The method of claim 1,
    상기 감성 정보는, The emotional information,
    상기 생체 신호 측정 데이터, 행동 측정 데이터, 환경 측정 데이터를 각각의 기준값과 비교하거나 웹콘텐츠 사용 데이터의 사용 어휘를 이용하여 생성되되, 쾌-불쾌 축과 각성-이완 축을 포함하는 2차원 감성에 따라 범주화되는 감성 정보 제공 장치. The bio-signal measurement data, behavioral measurement data, and environmental measurement data are generated by comparing each reference value or using a vocabulary of web content usage data, and categorized according to a two-dimensional emotion including a pleasant-discomfort axis and an awakening-relaxation axis. Emotional information providing device.
  3. 제1항에 있어서, The method of claim 1,
    상기 제어부는, The control unit,
    상기 환경 정보 및 영상 정보에 상기 환경 정보 및 영상 정보가 생성된 지역과 시간을 매칭하고, 상기 감성 정보에 상기 감성 정보의 생성에 이용된 데이터의 생성 지역과 시간을 매칭하는 감성 정보 제공 장치. And an area in which the environment information and the image information have been matched with a time where the environment information and the image information are generated, and an emotion area providing time which matches the generation area and time of the data used to generate the emotion information with the emotion information.
  4. 제1항에 있어서, The method of claim 1,
    상기 정보 출력부는, The information output unit,
    상기 검색 정보에 포함된 지역 단위 및 시간 단위 중 적어도 하나에 따라 상기 데이터베이스의 각 카테고리별 전체 평균값 및 전체 변화량 중 적어도 하나를 산출하여 출력하는 감성 정보 제공 장치. Emotion information providing apparatus for calculating and outputting at least one of the total average value and the total change amount for each category of the database according to at least one of the local unit and time unit included in the search information.
  5. 제4항에 있어서, The method of claim 4, wherein
    상기 정보 출력부는, The information output unit,
    상기 검색 정보에 포함된 복수의 지역 단위 및 복수의 시간 단위 중 적어도 하나에 따라 상기 데이터베이스의 각 카테고리별 평균값 및 변화량 중 적어도 하나를 산출한 후, 상기 산출된 전체 평균값 및 전체 변화량 중 적어도 하나의 비교 결과를 생성하여 출력하는 감성 정보 제공 장치. Computing at least one of the average value and the change amount for each category of the database according to at least one of the plurality of local units and the plurality of time units included in the search information, and then comparing at least one of the calculated total average value and the total change amount Emotional information providing device for generating and outputting a result.
PCT/KR2017/002562 2017-03-09 2017-03-09 Emotion information providing device based on spatial and time information WO2018164298A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2017/002562 WO2018164298A1 (en) 2017-03-09 2017-03-09 Emotion information providing device based on spatial and time information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2017/002562 WO2018164298A1 (en) 2017-03-09 2017-03-09 Emotion information providing device based on spatial and time information

Publications (1)

Publication Number Publication Date
WO2018164298A1 true WO2018164298A1 (en) 2018-09-13

Family

ID=63447891

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/002562 WO2018164298A1 (en) 2017-03-09 2017-03-09 Emotion information providing device based on spatial and time information

Country Status (1)

Country Link
WO (1) WO2018164298A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111881348A (en) * 2020-07-20 2020-11-03 百度在线网络技术(北京)有限公司 Information processing method, device, equipment and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100822029B1 (en) * 2007-01-11 2008-04-15 삼성전자주식회사 Method for providing personal service using user's history in mobile apparatus and system thereof
KR20090129707A (en) * 2008-06-13 2009-12-17 (주)시지웨이브 Representative sensitivity vocabulary abstraction method that use sensitivity vocabulary rescue
KR20120045459A (en) * 2010-10-29 2012-05-09 아주대학교산학협력단 System for providing life care service
KR101334894B1 (en) * 2012-02-15 2013-12-05 상명대학교서울산학협력단 recognition method of location based emotion state and system adopting the method
KR20160029375A (en) * 2014-09-05 2016-03-15 삼성전자주식회사 Method and device to monitor and analyzing bio signal of user

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100822029B1 (en) * 2007-01-11 2008-04-15 삼성전자주식회사 Method for providing personal service using user's history in mobile apparatus and system thereof
KR20090129707A (en) * 2008-06-13 2009-12-17 (주)시지웨이브 Representative sensitivity vocabulary abstraction method that use sensitivity vocabulary rescue
KR20120045459A (en) * 2010-10-29 2012-05-09 아주대학교산학협력단 System for providing life care service
KR101334894B1 (en) * 2012-02-15 2013-12-05 상명대학교서울산학협력단 recognition method of location based emotion state and system adopting the method
KR20160029375A (en) * 2014-09-05 2016-03-15 삼성전자주식회사 Method and device to monitor and analyzing bio signal of user

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111881348A (en) * 2020-07-20 2020-11-03 百度在线网络技术(北京)有限公司 Information processing method, device, equipment and storage medium

Similar Documents

Publication Publication Date Title
Kalimeri et al. Exploring multimodal biosignal features for stress detection during indoor mobility
Sahoo et al. Sign language recognition: State of the art
Poppe et al. AMAB: Automated measurement and analysis of body motion
WO2023003284A1 (en) Psychological exam system based on artificial intelligence and operation method thereof
Novais et al. The role of non-intrusive approaches in the development of people-aware systems
WO2019231038A1 (en) Method for providing beauty content
WO2022015043A1 (en) Bidirectional neurological disease monitoring system
WO2018164298A1 (en) Emotion information providing device based on spatial and time information
WO2012115294A1 (en) Ubiquitous-learning middleware device for generating study emotion index related to study concentration level from bio-signal emotion index and context information
WO2012115295A1 (en) Ubiquitous learning study efficacy enhancement device for enhancing study efficacy of user on the basis of study emotion index generated from bio-signal emotion index and context information
WO2019168220A1 (en) Method and device for brand personality diagnosis using brand personality map
WO2015178549A1 (en) Method and apparatus for providing security service by using stimulation threshold or less
Lee et al. A comparative evaluation of the four measurement methods for comfort and reachability distance perceptions
Winoto et al. The development of a Kinect-based online socio-meter for users with social and communication skill impairments: a computational sensing approach
Maly et al. An evaluation tool for research of user behavior in a realistic mobile environment
Ebner et al. Depth map color constancy
WO2022010149A1 (en) Method and system for generating data set relating to facial expressions, and non-transitory computer-readable recording medium
WO2019199035A1 (en) System and method for eye gaze tracking
Kray et al. Taming context: A key challenge in evaluating the usability of ubiquitous systems
Plouznikoff et al. Artificial grapheme-color synesthesia for wearable task support
WO2019004511A1 (en) Device for inferring social emotion on basis of emotion synchronization and method therefor
Mavritsaki et al. Suppressive effects in visual search: A neurocomputational analysis of preview search
Plazas-Molano et al. Exploring the facial and neurological activation due to predetermined visual stimulus using kinect and emotiv sensors
Barrón-Estrada et al. Building a Corpus of Facial Expressions for Learning-Centered Emotions.
Ren et al. Research on interactive intent recognition based on facial expression and line of sight direction

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17899620

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17899620

Country of ref document: EP

Kind code of ref document: A1