KR102111808B1 - Personalized user experience profiling system and method applying thereto - Google Patents

Personalized user experience profiling system and method applying thereto Download PDF

Info

Publication number
KR102111808B1
KR102111808B1 KR1020140164925A KR20140164925A KR102111808B1 KR 102111808 B1 KR102111808 B1 KR 102111808B1 KR 1020140164925 A KR1020140164925 A KR 1020140164925A KR 20140164925 A KR20140164925 A KR 20140164925A KR 102111808 B1 KR102111808 B1 KR 102111808B1
Authority
KR
South Korea
Prior art keywords
information
user
personalized
physiological signal
unit
Prior art date
Application number
KR1020140164925A
Other languages
Korean (ko)
Other versions
KR20160063438A (en
Inventor
박영충
박병하
김성동
김송이
김종화
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020140164925A priority Critical patent/KR102111808B1/en
Publication of KR20160063438A publication Critical patent/KR20160063438A/en
Application granted granted Critical
Publication of KR102111808B1 publication Critical patent/KR102111808B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/23Updating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements

Abstract

개인화 UX 프로파일링 시스템 및 이에 적용되는 개인화 UX 프로파일링 방법이 제공된다. 본 개인화 UX 프로파일링 시스템에 따르면, 사용자의 동작 정보을 인식하는 동작 인식부, 사용자의 생리신호 정보를 측정하는 생리신호 측정부, 사용자에게 영상 정보를 디스플레이하는 디스플레이부, 및 동작 정보, 생리신호 정보 및 영상 정보를 매칭시켜 사용자에 대한 개인화된 UX(User eXperience) 정보를 저장하는 데이터베이스부를 포함할 수 있게 되어, 서비스 프로토타이핑을 시뮬레이션 평가로 구현할 수 있게 되고, 다양한 지표를 활용하여 구현할 수 있게 된다.A personalized UX profiling system and a personalized UX profiling method applied thereto are provided. According to the personalized UX profiling system, a motion recognition unit that recognizes user's motion information, a physiological signal measurement unit that measures user's physiological signal information, a display unit that displays image information to a user, and operation information, physiological signal information, and By matching the video information, it is possible to include a database unit that stores personalized user UX (User eXperience) information for the user, so that service prototyping can be implemented by simulation evaluation and can be implemented by utilizing various indicators.

Description

개인화 UX 프로파일링 시스템 및 이에 적용되는 개인화 UX 프로파일링 방법 {Personalized user experience profiling system and method applying thereto}Personalized UX profiling system and personalized UX profiling method applied thereto {Personalized user experience profiling system and method applying additional}

본 발명은 개인화 UX 프로파일링 시스템 및 이에 적용되는 개인화 UX 프로파일링 방법에 관한 것으로, 더욱 상세하게는 사용자의 개인 맞춤형 서비스를 제공하기 위한 개인화 UX 프로파일링 시스템 및 이에 적용되는 개인화 UX 프로파일링 방법에 관한 것이다.
The present invention relates to a personalized UX profiling system and a personalized UX profiling method applied thereto, and more particularly, to a personalized UX profiling system and a personalized UX profiling method applied thereto to provide a personalized service for a user will be.

프로토타이핑이란 개발자들과 사용자들의 의사소통상의 효과를 증진시키기 위하여 취하는 시스템개발 기법이다. 프로토타이핑 기법을 수행할 때 중요한 점은 개발자와 사용자간의 상호이해 및 지식교환을 위한 작업이라는 점을 명심해야 한다. 일반적인 분석방법을 취할 경우 양자간에 서로 다른 이해를 가져올 수 있으므로 프로토타입이라는 의사소통도구를 만들자는 것이다.Prototyping is a system development technique that is taken to enhance the effectiveness of communication between developers and users. It should be borne in mind that the important thing when performing a prototyping technique is for mutual understanding and knowledge exchange between developers and users. If you take a general analysis method, you can create a communication tool called a prototype because it can bring different understandings between them.

프로토타이핑은 그 목적에 따라 여러가지 형태가 있을 수 있다. 먼저, 오직 사용자의 요구분석이 목적인 경우 폐기처분용 프로토타입을 만들 수 있고, 둘째 가급적 빨리 개발해야 하는 경우 4GL 등을 써서 개발하는 quick and dirty 프로토타입이 있다. 셋째 상세설계와 구현까지 마친 다음 대량생산에 임하기 앞서 시험용으로 개발된 프로토타입이 있을 수 있다. 넷째로, 입출력의 사례를 보여줄 뿐 실제 데이타도 없고 절차논리도 구현되지 않는 프로토타입이 있으며, 마지막으로 개발된 프로토타입을 계속 진화시켜 나감으로써 최종적인 시스템으로 발전시키는 진화형 프로토타입이 있다. Prototyping can take many forms depending on its purpose. First, if only the user's needs are analyzed, a prototype for disposal can be created. Second, there is a quick and dirty prototype developed using 4GL. Third, after completing the detailed design and implementation, there may be a prototype developed for testing prior to mass production. Fourth, there are prototypes that show examples of input / output but do not have actual data and do not implement procedural logic. Finally, there are evolved prototypes that evolve into the final system by continuously evolving the developed prototype.

이 프로토타입은 각 단계마다 사용자의 요구를 분석하며 프로토타이핑을 반복하기 때문에 기존의 전통적인 생명주기를 무시하게 된다. 결국 진정한 프로토타입은 바로 진화적 프로토타입이 되어야 할 것이다. 특히 RAD 기법으로 개발할 경우 각 단계의 프로토타입이 실제 완성된 시스템으로 이어져야 한다는 사실은 중요하다. The prototype analyzes the user's needs at each stage and repeats the prototyping, ignoring the traditional life cycle. In the end, the true prototype should be the evolutionary prototype. In particular, when developing with RAD technique, it is important to know that each stage of the prototype must lead to the actual system.

이와 같이, 서비스프로토타이핑은 어떠한 서비스가 시행되기 이전에 테스트 검증 이루는 전반적인 프로세스이다. 이를 위해, 사용자로 하여금 임의로 사용해보도록 한 후, 사용자의 평가를 반영하여 실제 서비스에 적용하는 방식을 채택하고 있다. 하지만, 이와 같은 기존의 서비스프로토타이핑의 방법은 시제품을 만들어 서비스에 반영하기 때문에 비용과 소요시간이 많이 든다는 단점이 있다. As such, service prototyping is the overall process of test verification before any service is implemented. To this end, a method of applying to a real service by reflecting the user's evaluation after adopting a user's random use is adopted. However, the existing service prototyping method has a disadvantage in that it costs a lot of time and time because a prototype is reflected in the service.

따라서, 더욱 간단하게 서비스 프로토 타이핑을 제공하기 위한 방안의 모색이 요구된다.
Therefore, it is required to find a method for providing service prototyping more simply.

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 사용자의 동작 정보와 생리신호 및 영상 정보를 매칭시켜 사용자에 대한 개인화된 UX 정보를 저장하는 개인화 UX 프로파일링 시스템 및 이에 적용되는 개인화 UX 프로파일링 방법을 제공함에 있다.
The present invention was devised to solve the above problems, and an object of the present invention is a personalized UX profiling system that stores personalized UX information for a user by matching user's motion information with physiological signals and image information, and It is to provide a personalized UX profiling method applied to this.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 개인화 UX 프로파일링 시스템은, 사용자의 동작 정보을 인식하는 동작 인식부; 사용자의 생리신호 정보를 측정하는 생리신호 측정부; 사용자에게 영상 정보를 디스플레이하는 디스플레이부; 및 상기 동작 정보, 생리신호 정보 및 영상 정보를 매칭시켜 상기 사용자에 대한 개인화된 UX(User eXperience) 정보를 저장하는 데이터베이스부;를 포함한다. According to an embodiment of the present invention for achieving the above object, the personalized UX profiling system, a motion recognition unit for recognizing the user's motion information; A physiological signal measurement unit for measuring user physiological signal information; A display unit that displays image information to a user; And a database unit storing personalized UX (User eXperience) information for the user by matching the operation information, physiological signal information, and image information.

그리고, 상기 디스플레이부는, 특정 서비스에 대한 영상 정보를 디스플레이하고, 상기 동작 인식부는, 특정 서비스에 대한 사용자의 동작 정보를 인식하며, 상기 생리신호 정보를 이용하여 상기 특정 서비스에 대한 사용자의 만족도 정보를 결정하는 제어부;를 더 포함할 수도 있다. In addition, the display unit displays image information on a specific service, and the motion recognition unit recognizes a user's operation information on a specific service, and uses the physiological signal information to obtain user satisfaction information on the specific service. It may further include a control unit for determining.

또한, 상기 디스플레이부는, 3차원 영상 정보를 디스플레이할 수도 있다. Also, the display unit may display 3D image information.

그리고, 상기 생리신호 측정부는, 상기 측정된 생리신호 정보를 이용하여 사용자의 감성 정보를 생성할 수도 있다. In addition, the physiological signal measurement unit may generate the user's emotional information using the measured physiological signal information.

또한, 상기 동작 인식부는, 사용자의 관절 정보를 추출하고 추출한 관절 정보를 이용하여 사용자의 위치 정보와 동작 정보를 인식할 수도 있다. In addition, the motion recognition unit may extract the user's joint information and recognize the user's location information and motion information using the extracted joint information.

한편, 본 발명의 일 실시예에 따른, 개인화 UX 프로파일링 시스템에 의한 개인화 UX 프로파일링 방법은, 사용자의 동작 정보을 인식하는 동작 인식 단계; 사용자의 생리신호 정보를 측정하는 생리신호 측정 단계; 사용자에게 영상 정보를 디스플레이하는 디스플레이 단계; 및 상기 동작 정보, 생리신호 정보 및 영상 정보를 매칭시켜 상기 사용자에 대한 개인화된 UX(User eXperience) 정보를 저장하는 단계;를 포함할 수도 있다.
On the other hand, according to an embodiment of the present invention, a personalized UX profiling method using a personalized UX profiling system includes: a motion recognition step of recognizing user's motion information; A physiological signal measuring step of measuring user physiological signal information; A display step of displaying image information to a user; And matching the operation information, physiological signal information, and image information to store personalized user eXperience (UX) information for the user.

본 발명의 다양한 실시예에 따르면, 사용자의 동작 정보와 생리신호 및 영상 정보를 매칭시켜 사용자에 대한 개인화된 UX 정보를 저장할 수 있게 되어, 서비스 프로토타이핑을 시뮬레이션 평가로 구현할 수 있게 되고, 다양한 지표를 활용하여 구현할 수 있게 된다.
According to various embodiments of the present invention, it is possible to store personalized UX information for a user by matching the user's motion information with physiological signals and image information, so that service prototyping can be implemented through simulation evaluation and various indicators It can be implemented by utilizing.

도 1은 본 발명의 일 실시예에 따른, 개인화 UX 프로파일링 시스템의 구조를 도시한 도면,
도 2는 본 발명의 일 실시예에 따른, 개인화 UX 프로파일링 방법을 설명하기 위해 제공되는 흐름도,
도 3은 본 발명의 일 실시예에 따른, 개인화 UX 프로파일링 순서를 도시한 도면,
도 4는 본 발명의 일 실시예에 따른, 실험 시작 신호 정보에 대한 송신기 구조를 도시한 도면,
도 5는 본 발명의 일 실시예에 따른, 준비 신호 정보에 대한 클라이언트 구조를 도시한 도면,
도 6은 본 발명의 일 실시예에 따른, 사용자 시점의 디스플레이 화면 중 실험시작 화면을 도시한 도면,
도 7은 본 발명의 일 실시예에 따른, 사용자 시점의 디스플레이 화면 중 앞으로 이동 문구를 표시한 화면을 도시한 도면,
도 8은 본 발명의 일 실시예에 따른, 사용자 시점의 디스플레이 화면 중 자리에 멈추라는 문구를 표시한 화면을 도시한 도면,
도 9는 본 발명의 일 실시예에 따른, 사용자 시점의 디스플레이 화면 중 선택하라는 문구를 표시한 화면을 도시한 도면,
도 10은 본 발명의 일 실시예에 따른, 사용자 시점의 디스플레이 화면 중 제1 태스크 화면을 도시한 도면,
도 11은 본 발명의 일 실시예에 따른, 사용자 시점의 디스플레이 화면 중 제2 태스크 화면을 도시한 도면,
도 12는 본 발명의 일 실시예에 따른, 사용자 시점의 디스플레이 화면 중 제3 태스크 화면을 도시한 도면,
도 13은 본 발명의 일 실시예에 따른, 패킷 전송 정보를 도시한 도면,
도 14는 본 발명의 일 실시예에 따른, 송신할 데이터 정보를 도시한 도면,
도 15는 본 발명의 일 실시예에 따른, 태스크 시작 및 종료 정보에 대한 클라이언트 구조를 도시한 도면,
도 16은 본 발명의 일 실시예에 따른, 태스크 시작 및 종료 정보에 대한 클라이언트 화면을 도시한 도면이다.
1 is a diagram showing the structure of a personalized UX profiling system according to an embodiment of the present invention;
2 is a flow chart provided to explain a personalized UX profiling method according to an embodiment of the present invention,
3 is a diagram illustrating a personalized UX profiling sequence according to an embodiment of the present invention;
4 is a diagram showing a transmitter structure for experiment start signal information according to an embodiment of the present invention;
5 is a diagram showing a client structure for ready signal information, according to an embodiment of the present invention;
6 is a diagram illustrating an experiment start screen among display screens from a user's point of view according to an embodiment of the present invention;
FIG. 7 is a diagram illustrating a screen displaying a forward movement phrase among display screens from a user's point of view according to an embodiment of the present invention;
FIG. 8 is a view showing a screen displaying the phrase stop in place on a display screen at a user's point of view according to an embodiment of the present invention;
9 is a diagram illustrating a screen displaying a phrase to select among display screens from a user's point of view according to an embodiment of the present invention;
10 is a diagram illustrating a first task screen among display screens of a user's viewpoint according to an embodiment of the present invention;
11 is a view showing a second task screen among display screens from a user's point of view according to an embodiment of the present invention;
12 is a view showing a third task screen among display screens from a user's point of view according to an embodiment of the present invention;
13 is a diagram showing packet transmission information according to an embodiment of the present invention;
14 is a diagram showing data information to be transmitted, according to an embodiment of the present invention;
15 is a diagram showing a client structure for task start and end information, according to an embodiment of the present invention;
16 is a diagram illustrating a client screen for task start and end information according to an embodiment of the present invention.

이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다. Hereinafter, the present invention will be described in more detail with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른, 개인화 UX 프로파일링 시스템(100)의 구조를 도시한 도면이다. 도 1에 도시된 바와 같이, 개인화 UX 프로파일링 시스템(100)은 디스플레이부(110), 생리신호 측정부(120), 동작 인식부(130), 데이터베이스(140) 및 제어부(150)를 포함한다. 1 is a diagram illustrating a structure of a personalized UX profiling system 100 according to an embodiment of the present invention. As shown in FIG. 1, the personalized UX profiling system 100 includes a display unit 110, a physiological signal measurement unit 120, a motion recognition unit 130, a database 140, and a control unit 150. .

디스플레이부(110)는 사용자에게 영상 정보를 시각적으로 디스플레이한다. 이 때, 디스플레이부(110)는 3차원 영상정보를 디스플레이하는 장치일 수도 있으며, 도 1에 도시된 바와 같이 "Oculus"가 이와 같이 3차원 영상을 디스플레이하는 장치의 일 예이다. 또한, 디스플레이부(110)는 특정 서비스에 대한 3차원 영상을 디스플레이할 수도 있다. The display 110 visually displays image information to the user. At this time, the display 110 may be a device that displays 3D image information, and as shown in FIG. 1, “Oculus” is an example of a device that displays a 3D image. Also, the display 110 may display a 3D image for a specific service.

생리신호 측정부(120)는 사용자의 생리신호 정보를 측정한다. 생리신호 측정부(120)는 측정된 생리신호 정보를 이용하여 사용자의 감성 정보를 생성할 수도 있으며, 예를 들어, 생리신호 측정부(120)는 사용자의 감정이 만족인지 불만족인지에 대한 감성 정보를 생리신호 정보에 기초하여 생성할 수 있게 된다. 도 1에 도시된 바와 같이, 생리신호 측정부(120)는 LabVIEW 언어를 활용하여 생체신호 중 자율신경계(맥박, 체온, 피부전도도)를 측정할 수도 있다. The physiological signal measuring unit 120 measures the user's physiological signal information. The physiological signal measuring unit 120 may generate the user's emotional information by using the measured physiological signal information, for example, the physiological signal measuring unit 120 is emotional information on whether the user's emotion is satisfactory or unsatisfactory. It can be generated based on the physiological signal information. As shown in FIG. 1, the physiological signal measurement unit 120 may measure an autonomic nervous system (pulse, body temperature, skin conductivity) among bio signals using the LabVIEW language.

동작 인식부(130)는 사용자의 동작 정보를 인식한다. 구체적으로, 동작 인식부(130)는 사용자의 관절 정보를 추출하고 추출한 관절 정보를 이용하여 사용자의 위치 정보와 동작 정보를 인식할 수도 있다. 동작 인식부(130)는 사용자의 위치 및 손 동작 패턴 정보를 측정하기 위한 모듈로써, Visual studio 2010을 사용하고 C++언어와 Kinect SDK를 이용하여 사용자의 관절 정보 추출, 이렇게 추출한 정보를 활용하여 사용자 위치 파악과 동작 인식에 적용할 수 있게 된다. The motion recognition unit 130 recognizes the user's motion information. Specifically, the motion recognition unit 130 may extract the user's joint information and recognize the user's location information and motion information using the extracted joint information. The motion recognition unit 130 is a module for measuring the user's position and hand motion pattern information.It uses Visual studio 2010 and extracts the joint information of the user using the C ++ language and Kinect SDK, and uses the extracted information to locate the user. It can be applied to identification and gesture recognition.

데이터 베이스부(140)는, 시간에 따른 동작 정보, 생리신호 정보 및 영상 정보를 매칭시켜 상기 사용자에 대한 개인화된 UX(User eXperience) 정보를 저장하게 된다. 이를 통해, 데이터 베이스부(140)는 사용자별로 개인화된 UX 정보를 저장할 수 있게 된다. The database unit 140 stores personalized UX (User eXperience) information for the user by matching motion information, physiological signal information, and image information over time. Through this, the database unit 140 may store personalized UX information for each user.

그리고, 특정 서비스에 대해 프로토타이핑을 수행하는 과정에서, 디스플레이부(110)는 특정 서비스에 대한 영상 정보를 디스플레이하고, 동작 인식부(130)는 특정 서비스에 대한 사용자의 동작 정보를 인식하며, 제어부(150)는 생리신호 정보를 이용하여 특정 서비스에 대한 사용자의 만족도 정보를 결정한다. Then, in the process of prototyping for a specific service, the display 110 displays video information for a specific service, and the motion recognition unit 130 recognizes the user's motion information for the specific service, and the controller 150 determines user satisfaction information for a specific service using physiological signal information.

이를 통해, 개인화 UX 프로파일링 시스템(100)은 다양한 정보를 이용하여 특정 서비스에 대한 프로토타이핑을 하기 위해 사용자의 UX에 대한 정보를 확인할 수 있게 된다. Through this, the personalized UX profiling system 100 can check information about the user's UX in order to prototype for a specific service using various information.

개인화 UX 프로파일링 시스템(100)의 각각 구성요소는 모듈 별 원활한 데이터 전송의 동기화를 위하여 연동 작업이 필수적으로 필요하다. 이에 한 PC내에서 데이터 전송은 UDP를 활용되며, 각각 프로세스 진행에 따라 송신기와 클라이언트는 달라진다. Each component of the personalized UX profiling system 100 is required to work in conjunction for synchronization of data transmission for each module. Accordingly, UDP is used for data transmission in one PC, and the transmitter and the client are different depending on the progress of each process.

도 2는 본 발명의 일 실시예에 따른, 개인화 UX 프로파일링 방법을 설명하기 위해 제공되는 흐름도이다. 2 is a flowchart provided to describe a personalized UX profiling method according to an embodiment of the present invention.

개인화 UX 프로파일링 시스템(100)은 먼저 서비스 프로파일링 구성요소를 정의한다(S210). 그리고, 개인화 UX 프로파일링 시스템(100)은 사용자 경험 중심의 서비스 프로파일링 구조를 만든다(S220). 그 후에, 개인화 UX 프로파일링 시스템(100)은 UX를 프로파일링한다(S230). The personalized UX profiling system 100 first defines a service profiling component (S210). Then, the personalized UX profiling system 100 creates a service profiling structure based on user experience (S220). Thereafter, the personalized UX profiling system 100 profiles the UX (S230).

이를 위해, 개인화 UX 프로파일링 시스템(100)은 UX 프로파일링 통합 모듈이 UX기반 상호작용 경험 특성 추출을 위한 실감 요소를 반영하여 프로파일링한다(S240). 또한, 개인화 UX 프로파일링 시스템(100)은 UX기반 상호작용경험 특성을 추출하고 이를 데이터베이스화하며, 반복적인 실험을 통해 서비스에서 제시하는 서비스 태스크에서의 사용자의 감각, 인지, 운동 특성을 추출한다(S250). To this end, the personalized UX profiling system 100 profiles the UX profiling integrated module by reflecting the sensory elements for extracting the UX-based interaction experience characteristics (S240). In addition, the personalized UX profiling system 100 extracts the UX-based interaction experience characteristics and database them, and extracts the user's sense, cognition, and movement characteristics in the service task presented by the service through repetitive experiments ( S250).

그리고, 개인화 UX 프로파일링 시스템(100)은 UX 프로파일링 기반으로 예상 수요자별 가상 개인화를 수행한다(S260). 그리고 개인화 UX 프로파일링 시스템(100)은 XML 기반의 UX 프로파일링을 데이터 베이스에 저장(S265)하고 사용자 프로파일링 기반 ISPA 소프트웨어를 생성하게 된다(S270). Then, the personalized UX profiling system 100 performs virtual personalization for each expected consumer based on UX profiling (S260). In addition, the personalized UX profiling system 100 stores XML-based UX profiling in a database (S265) and generates user profiling-based ISPA software (S270).

이와 같은 과정을 통해 개인화 UX 프로파일링 시스템(100)은 개인화 UX 프로파일링 방법을 제공하게 된다. Through this process, the personalized UX profiling system 100 provides a personalized UX profiling method.

또한, 개인화 UX 프로파일링 시스템(100)은 사용자의 동작 정보을 인식하고, 사용자의 생리신호 정보를 측정하며, 사용자에게 영상 정보를 디스플레이하고, 동작 정보, 생리신호 정보 및 영상 정보를 매칭시켜 상기 사용자에 대한 개인화된 UX(User eXperience) 정보를 저장함으로써, 개인화 UX 프로파일링 방법을 제공할 수도 있다. In addition, the personalized UX profiling system 100 recognizes the user's motion information, measures the user's physiological signal information, displays image information to the user, matches the motion information, physiological signal information, and image information to the user By storing personalized user UX (User eXperience) information, a personalized UX profiling method may be provided.

이하에서는, 개인화 UX 프로파일링의 과정, 프로토콜 규약 등에 대해 상세히 설명한다. 도 3은 본 발명의 일 실시예에 따른, 개인화 UX 프로파일링 순서를 도시한 도면이다. 도 3에 도시된 프로세스별 연동작업을 위한 데이터 프로토콜 규약 및 개발 방법은 아래와 같이 정의된다.
Hereinafter, the process of personalized UX profiling, protocol protocol, and the like will be described in detail. 3 is a diagram illustrating a personalized UX profiling sequence according to an embodiment of the present invention. The data protocol protocol and development method for interworking by process shown in FIG. 3 are defined as follows.

① 실험 시작 신호 정보 (생체계측(LabVIEW) 모듈 → Oculus Rift 모듈)① Experiment start signal information (LabVIEW module → Oculus Rift module)

* 데이터 프로토콜 규약* Data protocol protocol

- 3분 Reference측정이 끝났을 때: Oculus Rift 모듈로 “start”라는 문자열 정보를 전송함-When the 3-minute reference measurement is over: “start” string information is transmitted to the Oculus Rift module.

* LabVIEW환경에서의 UDP Sender* UDP Sender in LabVIEW environment

- UX 프로파일링을 위하여 3D 사용자 뷰를 제공하는 Oculus Rift 모듈과의 연동작업을 진행함 -Interworking with Oculus Rift module that provides 3D user view for UX profiling

- Port 번호를 9901, 9902를 열어, IP주소는 127.0.0.1로 연결함-Open port numbers 9901 and 9902, and connect IP address to 127.0.0.1

- UDP Sender에 대한 구조는 도 4를 참고, 도 4는 본 발명의 일 실시예에 따른, 실험 시작 신호 정보에 대한 송신기 구조를 도시한 도면임. -Refer to Figure 4 for the structure of the UDP Sender, Figure 4 is a diagram showing a transmitter structure for the experiment start signal information, according to an embodiment of the present invention.

* Unity3D환경에서의 UDP Client* UDP Client in Unity3D environment

- 할당했던 port번호로 client 생성-Create client with assigned port number

- IPEndPoint 생성. 수신받는 IP는 제한없이 모두 허용-IPEndPoint creation. All incoming IPs are allowed without restriction

- 생성한client로 receive (즉 ip는 위의 IPEndPoint, port는 client생성시 정한 port로)-Receive to the created client (ie ip is the above IPEndPoint, port is the port specified when creating the client)

- 수신한 byte data를 utf8 문자열로 Encoding-Encoding received byte data as utf8 string

Figure 112014113693619-pat00001
Figure 112014113693619-pat00001

[receive thread, udp client 생성 및 port 할당][receive thread, udp client creation and port assignment]

Figure 112014113693619-pat00002
Figure 112014113693619-pat00002

[receive thread 활성화][receive thread activation]

Figure 112014113693619-pat00003
Figure 112014113693619-pat00003

[Receive thread 함수]
[Receive thread function]

② 준비 신호 정보 (Oculus Rift 모듈 → 생체계측(LabVIEW) 모듈)② Preparation signal information (Oculus Rift module → Biomeasurement (LabVIEW) module)

* 데이터 프로토콜 규약* Data protocol protocol

- Oculus Rift 모듈에서 “imstart”라는 문자열 정보를 전송함-Oculus Rift module sends “imstart” string information

* Unity3D환경에서의 UDP Sender* UDP Sender in Unity3D environment

- ip, port, IPEndPoint, UdpClinet 선언-ip, port, IPEndPoint, UdpClinet declaration

- port는 3363으로 할당-Port is assigned as 3363

- IPEndPoint 생성 및 send client 생성-IPEndPoint creation and send client creation

- 메시지를 UTF8 포맷으로 encoding한 뒤 생성된 client로 보냄-Encode the message in UTF8 format and send it to the generated client

Figure 112014113693619-pat00004
Figure 112014113693619-pat00004

[ip, port, IPEndPoint, UdpClinet 선언]
[declaration of ip, port, IPEndPoint, UdpClinet]

Figure 112014113693619-pat00005
Figure 112014113693619-pat00005

[port는 3363으로 할당]
[port assigned to 3363]

Figure 112014113693619-pat00006
Figure 112014113693619-pat00006

[IPEndPoint 생성 및 send client 생성]
[Create IPEndPoint and create send client]

Figure 112014113693619-pat00007
Figure 112014113693619-pat00007

[UTF8 포맷으로 인코딩 후 Send 신호화면]
[Send signal screen after encoding in UTF8 format]

* LabVIEW환경에서의 UDP Client* UDP Client in LabVIEW environment

- 동일 IP로부터 3363 port로 들어오는 데이터 중에서 “imstart”가 들어오면, 생리신호 측정 대기 상태로 전환하도록 구현함-When “imstart” comes in among the data coming from 3363 port from the same IP, it is implemented to switch to the standby state of physiological signal measurement.

- 클라이언트의 구조는 도 5를 참고, 도 5는 본 발명의 일 실시예에 따른, 준비 신호 정보에 대한 클라이언트 구조를 도시한 도면임
-Referring to FIG. 5 for the structure of the client, and FIG. 5 is a diagram illustrating a client structure for ready signal information according to an embodiment of the present invention

③⑥⑨⑬ Oculus Rift 모듈 → 사용자(User) ③⑥⑨⑬ Oculus Rift module → User

* 시각적 정보 제공* Provide visual information

- 실험 시작을 알리는 문구, 도 6 참고, 도 6은 본 발명의 일 실시예에 따른, 사용자 시점의 디스플레이 화면 중 실험시작 화면을 도시한 도면-A phrase informing the start of the experiment, see FIG. 6, and FIG. 6 is a diagram showing an experiment start screen among display screens from a user's viewpoint according to an embodiment of the present invention

- 앞으로 이동하라는 문구, 도 7 참고, 도 7은 본 발명의 일 실시예에 따른, 사용자 시점의 디스플레이 화면 중 앞으로 이동 문구를 표시한 화면을 도시한 도면,-A phrase to move forward, see FIG. 7, and FIG. 7 is a diagram showing a screen displaying a move phrase in a display screen at a user's point of view, according to an embodiment of the present invention,

- 자리에 멈춰달라는 문구, 도 8 참고, 도 8은 본 발명의 일 실시예에 따른, 사용자 시점의 디스플레이 화면 중 자리에 멈추라는 문구를 표시한 화면을 도시한 도면-A phrase to stop in place, see FIG. 8, and FIG. 8 is a diagram illustrating a screen displaying a phrase to stop in a place among display screens of a user's viewpoint according to an embodiment of the present invention

- 선택하라는 문구, 도 9 참고, 도 9는 본 발명의 일 실시예에 따른, 사용자 시점의 디스플레이 화면 중 선택하라는 문구를 표시한 화면을 도시한 도면,-A phrase to select, see FIG. 9, FIG. 9 is a diagram showing a screen displaying a phrase to select among display screens at a user's point of view, according to an embodiment of the present invention,

- Task별 화면 예시-Screen example for each task

도 10은 본 발명의 일 실시예에 따른, 사용자 시점의 디스플레이 화면 중 제1 태스크 화면을 도시한 도면,10 is a diagram illustrating a first task screen among display screens of a user's viewpoint according to an embodiment of the present invention;

도 11은 본 발명의 일 실시예에 따른, 사용자 시점의 디스플레이 화면 중 제2 태스크 화면을 도시한 도면,11 is a view showing a second task screen among display screens from a user's point of view according to an embodiment of the present invention;

도 12는 본 발명의 일 실시예에 따른, 사용자 시점의 디스플레이 화면 중 제3 태스크 화면을 도시한 도면,
12 is a view showing a third task screen among display screens from a user's point of view according to an embodiment of the present invention;

④⑦⑩⑭사용자(User) → Kinect 모듈④⑦⑩⑭User → Kinect module

* 사용자가 주어지는 시?청각 자극에 의해 의식적으로 하는 행동들을 Kinect동작인식 모듈에서 처리하게 됨
* Kinect motion recognition module processes conscious actions by the user's visual and auditory stimuli.

⑤⑧⑪⑮ Kinect 모듈 → Oculus Rift 모듈⑤⑧⑪⑮ Kinect module → Oculus Rift module

* 데이터 프로토콜 규약* Data protocol protocol

- UDP 통신을 사용하며 IP는 localhost(127.0.0.1), Port 번호는 9900을 사용함.-UDP communication is used, IP is localhost (127.0.0.1), and port number is 9900.

- 네트워크 BYTE Order: Big Endian-Network BYTE Order: Big Endian

- Packet의 자료형: char형 전송-Packet data type: char type transmission

- Packet Size: 10byte x 10개 = 100byte-Packet Size: 10byte x 10 = 100byte

※ 추가적인 데이터 송수신을 위하여 packet size에 여유를 둠.※ Allow additional packet size for sending and receiving data.

* Kinect for Windows 환경에서의 UDP Sender* UDP Sender in Kinect for Windows environment

- Packet 전송 정보, 도 13 참고, 도 13은 본 발명의 일 실시예에 따른, 패킷 전송 정보를 도시한 도면-Packet transmission information, see FIG. 13, FIG. 13 is a diagram showing packet transmission information according to an embodiment of the present invention

ⓐ Packet Index: Packet의 시작 -> '1'로 고정Ⓐ Packet Index: Start of Packet-> Fixed as '1'

ⓑ 송수신 Index: 송신 시 '1', 수신 시 '2' 전송 (현재는 송신만 사용 -> '1'로 고정)Ⓑ Sending / Receiving Index: '1' for transmission, and '2' for reception (currently use only transmission-> fixed as '1')

b-1. 송신 Data: 도 14 참고, 도 14는 본 발명의 일 실시예에 따른, 송신할 데이터 정보를 도시한 도면, b-1. Transmission Data: See FIG. 14, FIG. 14 is a diagram showing data information to be transmitted according to an embodiment of the present invention,

ⓒ 수신 Data: Unity로부터 받을 데이터 (현재 사용하지 않음-> '0'으로 고정)Ⓒ Receiving Data: Data to receive from Unity (not currently used-> fixed as '0')

ⓓ Scene Number: Unity로부터 수신될 콘텐츠 화면의 번호Ⓓ Scene Number: Content screen number to be received from Unity

(현재 사용하지 않음 -> '0'으로 고정)(Not currently used-> fixed as '0')

ⓔ Z좌표: 피험자의 머리의 Z좌표로, 사용자의 위치를 대표하는 값. Unity로 송신
Ⓔ Z-coordinate: The Z-coordinate of the subject's head, which represents the user's location. Send to Unity

* Unity3D환경에서의 UDP Client * UDP Client in Unity3D environment

- receive thread, client, port 생성-Create receive thread, client, port

- Thread 시작-Thread start

- Client에 port 할당-Port assignment to Client

- IPEndPoint 생성-IPEndPoint creation

- 수신한 byte 데이터를 UTF8포멧으로 문자열 인코딩
-String encoding the received byte data in UTF8 format

Figure 112014113693619-pat00008
Figure 112014113693619-pat00008

[receive thread, client, port 생성][receive thread, client, port creation]

Figure 112014113693619-pat00009
Figure 112014113693619-pat00009

[Thread 시작][Start Thread]

Figure 112014113693619-pat00010
Figure 112014113693619-pat00010

[사용자 위치 및 손동작 정보에 대한 Client 개발 내용]
[Contents of client development for user location and hand gesture information]

⑫,16,17 Task 시작 및 종료 정보(Oculus Rift 모듈 → 생체계측(LabVIEW) 모듈)⑫, 16,17 Task start and end information (Oculus Rift module → Biomeasurement (LabVIEW) module)

* 데이터 프로토콜 규약 * Data protocol protocol

- Task 처음 시작할 때: Start_Tag(0) + 시작 시점 정보(HHMMSS, 시:분:초)-When task is first started: Start_Tag (0) + start time information (HHMMSS, hour: minute: second)

- Task 종료할 때: Start_Tag(5) + 시작 시점 정보(HHMMSS, 시:분:초) + 걸린 시간(MMSS, 분:초)-When task ends: Start_Tag (5) + start time information (HHMMSS, hour: minute: second) + time taken (MMSS, minute: second)

* Unity3D환경에서의 UDP Sender* UDP Sender in Unity3D environment

- Tag 번호, 시작 시점 정보(시, 분, 초), 걸린 시간 정보(분, 초)로 하여 보냄-Send with tag number, start point information (hour, minute, second), and time information (minute, second)

Figure 112014113693619-pat00011
Figure 112014113693619-pat00011

[Task 시작 및 종료 정보에 대한 Sender 개발 내용]
[Contents of Sender development for task start and end information]

* LabVIEW환경에서의 UDP Client* UDP Client in LabVIEW environment

- Task 1의 시작 정보로 Start Tag가 0으로 들어오며, Task1이라고 인지하는 순간 생리신호를 측정하기 시작함. -As start information of Task 1, Start Tag enters 0, and the moment it recognizes as Task 1, it starts to measure the physiological signal.

- Task2의 Start Tag가 1이라고 들어오면, Task1의 생리신호는 측정을 멈추고 저장 및 데이터 분석이 되며, Task2의 생리신호를 측정하기 시작함. 이렇게 계속 반복됨.-When the Start Tag of Task2 is 1, the physiological signal of Task1 stops the measurement, the data is stored and analyzed, and the physiological signal of Task2 starts to be measured. Repeated like this.

- 마지막으로 Task5의 Start Tag 4가 들어오면, 똑같이 진행하다가 Start Tag 5 가 들어오면 Task5의 생리신호 측정이 멈추고, 프로그램이 종료됨.-Lastly, when Task5's Start Tag 4 comes in, it goes the same way, but when Start Tag 5 comes in, the measurement of the physiological signal of Task5 stops and the program ends.

- 각 Task별로 Task번호와 시간정보, Duration 정보가 모두 엑셀 형태로 저장됨-Task number, time information, and duration information for each task are all saved in Excel format.

- Task 시작 및 종료 정보에 대한 클라이언트 구조 및 화면은 도 15 및 도 16 참고, 도 15는 본 발명의 일 실시예에 따른, 태스크 시작 및 종료 정보에 대한 클라이언트 구조를 도시한 도면, 도 16은 본 발명의 일 실시예에 따른, 태스크 시작 및 종료 정보에 대한 클라이언트 화면을 도시한 도면이다. -For the client structure and screen for task start and end information, see FIGS. 15 and 16, and FIG. 15 is a diagram showing a client structure for task start and end information according to an embodiment of the present invention, and FIG. This is a diagram showing a client screen for task start and end information according to an embodiment of the present invention.

지금까지, 개인화 UX 프로파일링의 과정, 프로토콜 규약 등에 대해 상세히 설명하였다. So far, the process of personalized UX profiling, protocol protocols, and the like have been described in detail.

이와 같은 개인화 UX 프로파일링 방법을 통해, Quick&Dirty방법으로 빠르고 쉽게 해당 서비스를 평가 및 비교해 볼 수 있으며, 시뮬레이션 평가 지표로써 Time 시간 값 외에도 다양한 지표를 활용하였으며, 이 지표들을 다른 서비스 평가에도 적용해 볼 수 있게 된다. Through this personalized UX profiling method, you can quickly and easily evaluate and compare the service with the Quick & Dirty method. As a simulation evaluation indicator, you can use various indicators in addition to the time value, and apply these indicators to other service evaluations. There will be.

한편, 본 실시예에 따른 시스템의 기능 및 방법을 수행하게 하는 컴퓨터 프로그램을 수록한 컴퓨터로 읽을 수 있는 기록매체에도 본 발명의 기술적 사상이 적용될 수 있음은 물론이다. 또한, 본 발명의 다양한 실시예에 따른 기술적 사상은 컴퓨터로 읽을 수 있는 기록매체에 기록된 컴퓨터로 읽을 수 있는 프로그래밍 언어 코드 형태로 구현될 수도 있다. 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터에 의해 읽을 수 있고 데이터를 저장할 수 있는 어떤 데이터 저장 장치이더라도 가능하다. 예를 들어, 컴퓨터로 읽을 수 있는 기록매체는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광디스크, 하드 디스크 드라이브, 플래시 메모리, 솔리드 스테이트 디스크(SSD) 등이 될 수 있음은 물론이다. 또한, 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터로 읽을 수 있는 코드 또는 프로그램은 컴퓨터간에 연결된 네트워크를 통해 전송될 수도 있다. On the other hand, of course, the technical idea of the present invention can be applied to a computer-readable recording medium containing a computer program for performing functions and methods of the system according to the present embodiment. Further, the technical idea according to various embodiments of the present disclosure may be implemented in the form of computer-readable programming language codes recorded on a computer-readable recording medium. The computer-readable recording medium can be any data storage device that can be read by a computer and stores data. Of course, the computer-readable recording medium may be a ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical disk, hard disk drive, flash memory, solid state disk (SSD), or the like. In addition, computer-readable codes or programs stored on a computer-readable recording medium may be transmitted through a network connected between computers.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although the preferred embodiments of the present invention have been shown and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention belongs without departing from the gist of the present invention claimed in the claims. In addition, various modifications can be implemented by those skilled in the art, and these modifications should not be individually understood from the technical idea or prospect of the present invention.

100 : 개인화 UX 프로파일링 시스템
110 : 디스플레이부
120 : 생리신호 측정부
130 : 동작 인식부
140 : 데이터베이스
150 : 제어부
100: personalized UX profiling system
110: display unit
120: physiological signal measurement unit
130: motion recognition unit
140: database
150: control unit

Claims (6)

사용자의 동작 정보을 인식하는 동작 인식부;
사용자의 생리신호 정보를 측정하는 생리신호 측정부;
사용자에게 영상 정보를 디스플레이하는 디스플레이부; 및
상기 동작 정보, 생리신호 정보 및 영상 정보를 매칭시켜 상기 사용자에 대한 개인화된 UX(User eXperience) 정보를 저장하는 데이터베이스부;를 포함하고,
상기 디스플레이부는,
특정 서비스를 프로토타이핑 하기 위한 개인화된 UX들을 영상 정보로 디스플레이하고,
상기 동작 인식부는,
개인화된 UX들에 대한 사용자의 동작 정보를 인식하며,
상기 특정 서비스에 대한 프로토타이핑 과정에서, 프로토타이핑 한 상기 특정 서비스에 대한 사용자의 만족도 정보를 상기 생리신호 정보를 이용하여 결정하는 제어부;를 더 포함하고,
상기 특정 서비스에 대한 프로토타이핑 과정에서,
상기 생리신호 측정부가 상기 디스플레이부에 실험 시작 신호를 전송하면, 상기 디스플레이부는 상기 생리신호 측정부에 준비 신호를 전송하며,
상기 디스플레이부는 상기 사용자에게 실험 시작 안내 문구 및 태스크 화면들을 제공하고,
상기 동작 인식부는 상기 디스플레이부에 사용자의 위치 정보와 동작 정보를 전송하며,
상기 디스플레이부는 상기 생리신호 측정부에 태스크 시작 신호 및 종료 신호를 전송하며,
상기 생리신호 측정부는 태스크 시작 신호 및 종료 신호를 기준으로, 태스크 별로 사용자의 생리신호를 측정하는 것을 특징으로 하는 개인화 UX 프로파일링 시스템.
A motion recognition unit for recognizing user motion information;
A physiological signal measurement unit for measuring user physiological signal information;
A display unit that displays image information to a user; And
It includes; a database unit for storing the personalized UX (User eXperience) information for the user by matching the operation information, physiological signal information and image information;
The display unit,
Display personalized UXs for prototyping specific services as video information,
The motion recognition unit,
Recognizes the user's motion information for personalized UXs,
In the process of prototyping for the specific service, a control unit for determining user satisfaction information for the specific service prototyping using the physiological signal information;
In the prototyping process for the specific service,
When the physiological signal measurement unit transmits an experiment start signal to the display unit, the display unit transmits a preparation signal to the physiological signal measurement unit,
The display unit provides the user with an experiment start guide phrase and task screens,
The motion recognition unit transmits the user's location information and motion information to the display unit,
The display unit transmits a task start signal and an end signal to the physiological signal measurement unit,
The physiological signal measuring unit is a personalized UX profiling system, characterized in that for measuring the physiological signal of the user for each task, based on the task start signal and the end signal.
삭제delete 제1항에 있어서,
상기 디스플레이부는,
3차원 영상 정보를 디스플레이하는 것을 특징으로 하는 개인화 UX 프로파일링 시스템.
According to claim 1,
The display unit,
A personalized UX profiling system characterized by displaying 3D image information.
제1항에 있어서,
상기 생리신호 측정부는,
상기 측정된 생리신호 정보를 이용하여 사용자의 감성 정보를 생성하는 것을 특징으로 하는 개인화 UX 프로파일링 시스템.
According to claim 1,
The physiological signal measuring unit,
Personalized UX profiling system, characterized in that for generating the user's emotional information using the measured physiological signal information.
제1항에 있어서,
상기 동작 인식부는,
사용자의 관절 정보를 추출하고 추출한 관절 정보를 이용하여 사용자의 위치 정보와 동작 정보를 인식하는 것을 특징으로 하는 개인화 UX 프로파일링 시스템.
According to claim 1,
The motion recognition unit,
Personalized UX profiling system characterized by extracting the user's joint information and recognizing the user's location information and motion information using the extracted joint information.
개인화 UX 프로파일링 시스템에 의한 개인화 UX 프로파일링 방법에 있어서,
개인화 UX 프로파일링 시스템의 동작 인식부가, 사용자의 동작 정보을 인식하는 동작 인식 단계;
개인화 UX 프로파일링 시스템의 생리신호 측정부가, 사용자의 생리신호 정보를 측정하는 생리신호 측정 단계;
개인화 UX 프로파일링 시스템의 디스플레이부가, 사용자에게 영상 정보를 디스플레이하는 디스플레이 단계; 및
개인화 UX 프로파일링 시스템의 데이터베이스부가, 상기 동작 정보, 생리신호 정보 및 영상 정보를 매칭시켜 상기 사용자에 대한 개인화된 UX(User eXperience) 정보를 저장하는 단계;를 포함하고,
상기 디스플레이 단계는,
특정 서비스를 프로토타이핑 하기 위한 개인화된 UX들을 영상 정보로 디스플레이하고,
상기 저장하는 단계는,
개인화된 UX들에 대한 사용자의 동작 정보를 인식하며,
상기 개인화 UX 프로파일링 방법은,
개인화 UX 프로파일링 시스템의 제어부가, 상기 특정 서비스에 대한 프로토타이핑 과정에서, 프로토타이핑 한 상기 특정 서비스에 대한 사용자의 만족도 정보를 상기 생리신호 정보를 이용하여 결정하는 단계;를 더 포함하고,
상기 특정 서비스에 대한 프로토타이핑 과정에서,
상기 생리신호 측정부가 상기 디스플레이부에 실험 시작 신호를 전송하면, 상기 디스플레이부는 상기 생리신호 측정부에 준비 신호를 전송하며,
상기 디스플레이부는 상기 사용자에게 실험 시작 안내 문구 및 태스크 화면들을 제공하고,
상기 동작 인식부는 상기 디스플레이부에 사용자의 위치 정보와 동작 정보를 전송하며,
상기 디스플레이부는 상기 생리신호 측정부에 태스크 시작 신호 및 종료 신호를 전송하며,
상기 생리신호 측정부는 태스크 시작 신호 및 종료 신호를 기준으로, 태스크 별로 사용자의 생리신호를 측정하는 것을 특징으로 하는 것을 특징으로 하는 개인화 UX 프로파일링 방법.
In the personalized UX profiling method by the personalized UX profiling system,
A motion recognition step in which the motion recognition unit of the personalized UX profiling system recognizes motion information of the user;
The physiological signal measuring unit of the personalized UX profiling system, the physiological signal measuring step of measuring the user's physiological signal information;
The display unit of the personalized UX profiling system, a display step of displaying image information to the user; And
Including the database unit of the personalized UX profiling system, matching the motion information, physiological signal information and image information to store personalized UX (User eXperience) information for the user;
The display step,
Display personalized UXs for prototyping specific services as video information,
The storing step,
Recognizes the user's motion information for personalized UXs,
The personalized UX profiling method,
The control unit of the personalized UX profiling system, in the prototyping process for the specific service, prototyping the user's satisfaction information for the specific service using the physiological signal information to determine; further comprising,
In the prototyping process for the specific service,
When the physiological signal measurement unit transmits an experiment start signal to the display unit, the display unit transmits a preparation signal to the physiological signal measurement unit,
The display unit provides the user with an experiment start guide phrase and task screens,
The motion recognition unit transmits the user's location information and motion information to the display unit,
The display unit transmits a task start signal and an end signal to the physiological signal measurement unit,
The physiological signal measuring unit personalized UX profiling method, characterized in that for measuring the physiological signal of the user for each task, based on the task start signal and the end signal.
KR1020140164925A 2014-11-25 2014-11-25 Personalized user experience profiling system and method applying thereto KR102111808B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140164925A KR102111808B1 (en) 2014-11-25 2014-11-25 Personalized user experience profiling system and method applying thereto

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140164925A KR102111808B1 (en) 2014-11-25 2014-11-25 Personalized user experience profiling system and method applying thereto

Publications (2)

Publication Number Publication Date
KR20160063438A KR20160063438A (en) 2016-06-07
KR102111808B1 true KR102111808B1 (en) 2020-05-19

Family

ID=56192602

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140164925A KR102111808B1 (en) 2014-11-25 2014-11-25 Personalized user experience profiling system and method applying thereto

Country Status (1)

Country Link
KR (1) KR102111808B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107633473B (en) * 2017-08-17 2021-02-19 王勤志 Service evaluation index reliability and validity guaranteeing method based on virtual reality

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012522470A (en) * 2009-03-30 2012-09-20 インナースコープ リサーチ, インコーポレイテッド Method and system for predicting viewer behavior
KR101411252B1 (en) * 2013-10-24 2014-06-24 서울여자대학교 산학협력단 Method, server and computer-readable recording medium for modeling of the virtual environment for health care service

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130121460A (en) * 2012-04-27 2013-11-06 상명대학교서울산학협력단 Emotion information sharing system
KR101389894B1 (en) * 2012-07-18 2014-04-29 주식회사 도담시스템스 Virtual reality simulation apparatus and method using motion capture technology and

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012522470A (en) * 2009-03-30 2012-09-20 インナースコープ リサーチ, インコーポレイテッド Method and system for predicting viewer behavior
KR101411252B1 (en) * 2013-10-24 2014-06-24 서울여자대학교 산학협력단 Method, server and computer-readable recording medium for modeling of the virtual environment for health care service

Also Published As

Publication number Publication date
KR20160063438A (en) 2016-06-07

Similar Documents

Publication Publication Date Title
JP6713034B2 (en) Smart TV audio interactive feedback method, system and computer program
KR102058976B1 (en) Application method and device
WO2019237657A1 (en) Method and device for generating model
TWI674516B (en) Animated display method and human-computer interaction device
KR101944353B1 (en) Method and apparatus for providing chatbot builder user interface
CN104199725A (en) Service interface data simulation method and system
CN109960642B (en) Automatic test method and device
CN104969205A (en) System for adaptive selection and presentation of context-based media in communications
EP3448349B2 (en) Infant feeding system
US10275341B2 (en) Mobile application usability testing
CN105788373A (en) Animation teaching method and system
CN111077996A (en) Information recommendation method based on point reading and learning equipment
KR102111808B1 (en) Personalized user experience profiling system and method applying thereto
CN103945161A (en) Information processing method and electronic devices
WO2016101735A1 (en) Drawing data based instant messaging method, client and system
CN110678879A (en) Data generation device, data generation method, and program
KR20130094058A (en) Communication system, apparatus and computer-readable storage medium
CN107292596A (en) The apparatus and method and service end of anti-automatic brush red packet
KR101567154B1 (en) Method for processing dialogue based on multiple user and apparatus for performing the same
KR102520990B1 (en) Terminal and method for providing web link in mobile messenger and web link providing server
CN113039768A (en) Explicit interaction contracts for network connected devices
US20180286084A1 (en) Device and method for digital painting
KR102316735B1 (en) Big data based personalized beauty class providing system
CN111580653A (en) Intelligent interaction method and intelligent interactive desk
CN110088750A (en) The method and system of context function is provided in static Web page

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant