KR20170060721A - Tangible Test System for UX Profiling in the Prototyping Service - Google Patents

Tangible Test System for UX Profiling in the Prototyping Service Download PDF

Info

Publication number
KR20170060721A
KR20170060721A KR1020150165219A KR20150165219A KR20170060721A KR 20170060721 A KR20170060721 A KR 20170060721A KR 1020150165219 A KR1020150165219 A KR 1020150165219A KR 20150165219 A KR20150165219 A KR 20150165219A KR 20170060721 A KR20170060721 A KR 20170060721A
Authority
KR
South Korea
Prior art keywords
user
display
service
test system
service scenario
Prior art date
Application number
KR1020150165219A
Other languages
Korean (ko)
Other versions
KR102163149B1 (en
Inventor
박영충
김성동
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020150165219A priority Critical patent/KR102163149B1/en
Publication of KR20170060721A publication Critical patent/KR20170060721A/en
Application granted granted Critical
Publication of KR102163149B1 publication Critical patent/KR102163149B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

서비스 프로토타이핑에서의 UX 프로파일링을 위한 실감형 테스트 시스템이 제공된다. 본 발명의 실시예에 따른 실감형 테스트 시스템은, 테스트를 위한 서비스 시나리오 기반의 콘텐츠가 표시되는 제1 디스플레이, 서비스 시나리오 내 태스크 수행을 위한 UI가 표시되는 제2 디스플레이, 서비스 시나리오를 체험하는 사용자의 걷는 동작을 인식하는 컨트롤러 및 컨트롤러를 통해 인식된 사용자의 걸음에 연동하여 제1 디스플레이에 표시되는 화면을 변경시키는 컴퓨터를 포함한다. 이에 의해, 빠르고 쉽게 해당 서비스를 평가 및 비교해 볼 수 있게 된다.A realistic test system for UX profiling in service prototyping is provided. A realistic test system according to an embodiment of the present invention includes a first display in which content based on a service scenario for testing is displayed, a second display in which a UI for performing a task in the service scenario is displayed, A controller for recognizing the walking motion, and a computer for changing the screen displayed on the first display in response to the user's perceived step through the controller. This makes it possible to quickly and easily evaluate and compare the service.

Description

서비스 프로토타이핑에서의 UX 프로파일링을 위한 실감형 테스트 시스템{Tangible Test System for UX Profiling in the Prototyping Service}[0001] The present invention relates to a test system for UX profiling in service prototyping, and more particularly, to a tangible test system for UX profiling in service prototyping,

본 발명은 실감형 테스트 시스템에 관한 것으로, 더욱 상세하게는 서비스 프로토타이핑에서의 UX 프로파일링을 위한 실감형 테스트 시스템 및 방법에 관한 것이다.The present invention relates to a sensible test system, and more particularly, to a sensible test system and method for UX profiling in service prototyping.

서비스 프로토타이핑은 어떠한 서비스가 시행되기 이전에 테스트와 검증 이루는 전반적인 프로세스를 말한다.Service prototyping refers to the overall process of testing and validating a service before it is enforced.

일반적으로, 사용자로 하여금 서비스 프로토타입을 임의로 이용해 보도록 한 후, 사용자의 평가를 수집하고 반영하여 실제 서비스에 적용하는 방식을 채택하고 있다.Generally, the service prototype is arbitrarily used by the user, and the user's evaluation is collected, reflected, and applied to the actual service.

하지만, 서비스는 일반적으로 형태가 없는 경우가 많아, 프로토타입 개발이 어려울 뿐만 아니라, 있다 하더라도 시제품으로 만들어 서비스에 반영하기까지 비용과 소요시간이 많이 든다는 단점이 있다.However, since the service is generally unstructured in many cases, it is difficult to develop a prototype, and even if it is a prototype, it takes much time and cost to reflect the service in the service.

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 프로파일링을 위해서 사용자 참여 형태의 실감환경 기반의 테스트 시스템 및 방법을 제공함에 있다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and it is an object of the present invention to provide a test system and method based on real environment for user participation for profiling.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 실감형 테스트 시스템은, 테스트를 위한 서비스 시나리오 기반의 콘텐츠가 표시되는 제1 디스플레이; 서비스 시나리오 내 태스크 수행을 위한 UI(User Interface)가 표시되는 제2 디스플레이; 서비스 시나리오를 체험하는 사용자의 걷는 동작을 인식하는 컨트롤러; 및 상기 컨트롤러를 통해 인식된 사용자의 걸음에 연동하여 상기 제1 디스플레이에 표시되는 화면을 변경시키는 컴퓨터;를 포함한다.According to an aspect of the present invention, there is provided a sensory test system including a first display for displaying content based on a service scenario for testing; A second display in which a UI (User Interface) for performing a task in a service scenario is displayed; A controller for recognizing a walking motion of a user experiencing a service scenario; And a computer for changing a screen displayed on the first display in response to a user's perceived step through the controller.

그리고, 본 발명의 실시예에 따른 실감형 테스트 시스템은, 상기 사용자의 머리 방향을 인식하는 제1 카메라;를 더 포함하고, 상기 컴퓨터는, 상기 머리 방향에 따라 상기 제1 디스플레이에 표시되는 화면을 변경시킬 수 있다.The sensible test system according to an embodiment of the present invention may further include a first camera for recognizing the head direction of the user, and the computer may further include a display unit for displaying a screen displayed on the first display Can be changed.

또한, 본 발명의 실시예에 따른 실감형 테스트 시스템은, 상기 사용자의 손동작을 인식하는 제2 카메라;를 더 포함하고, 상기 컴퓨터는, 상기 손동작에 따라 상기 UI의 인터랙션을 수행할 수 있다.Further, the sensible test system according to the embodiment of the present invention may further include a second camera for recognizing the hand motion of the user, and the computer may perform the interaction of the UI according to the hand motion.

그리고, 상기 제1 디스플레이는, 다수의 프로젝터들에서 출사되는 화면들을 와핑한 화면이 표시되는 곡면 디스플레이이고, 상기 제2 디스플레이는, 투명 디스플레이일 수 있다.In addition, the first display may be a curved surface display in which a screen in which images outputted from a plurality of projectors are waved, and the second display may be a transparent display.

또한, 상기 컴퓨터는, 사용자의 생체 신호를 분석하여, 상기 서비스 시나리오와 상기 UI에 대한 사용자의 감정 상태를 안내할 수 있다.In addition, the computer may analyze the user's bio-signal to guide the service scenario and the user's emotional state with respect to the UI.

한편, 본 발명의 다른 실시예에 따른, 실감형 테스트 방법은, 제1 디스플레이가 테스트를 위한 서비스 시나리오 기반의 콘텐츠를 표시하는 단계; 제2 디스플레이 서비스 시나리오 내 태스크 수행을 위한 UI(User Interface)를 표시하는 단계; 컨트롤러가, 서비스 시나리오를 체험하는 사용자의 걷는 동작을 인식하는 단계; 및 컴퓨터가, 상기 컨트롤러를 통해 인식된 사용자의 걸음에 연동하여 상기 제1 디스플레이에 표시되는 화면을 변경시키는 단계;를 포함한다.According to another embodiment of the present invention, there is provided a realistic testing method comprising: displaying a content based on a service scenario for a first display; Displaying a UI (User Interface) for performing a task in a second display service scenario; The controller recognizing a walking motion of a user experiencing a service scenario; And changing a screen displayed on the first display in response to a user's step recognized by the controller.

이상 설명한 바와 같이, 본 발명의 실시예들에 따르면, 실감형 테스트 시스템을 통해 Quick & Dirty 방법으로 빠르고 쉽게 해당 서비스를 평가 및 비교해 볼 수 있게 된다.As described above, according to the embodiments of the present invention, it is possible to quickly and easily evaluate and compare a corresponding service by a quick & dirty method through a sensible test system.

또한, 본 발명의 실시예들에 따르면, 시뮬레이션 평가 지표로 감성 평가 추론 값을 활용할 수 있게 된다.In addition, according to the embodiments of the present invention, the emotion evaluation reasoning value can be utilized as a simulation evaluation index.

아울러, 본 발명의 실시예들에 따르면, VR 컨트롤러, 머리 트래킹, 손동작 인식 및 U자형/투명 디스플레이를 활용한 2D 및 3D 뷰 제공 등을 통합하여, 사용자에 대한 서비스의 실감 효과를 극대화할 수 있게 된다.In addition, according to the embodiments of the present invention, it is possible to maximize the realization effect of the service for the user by integrating the VR controller, the head tracking, the hand movement recognition, and the 2D and 3D view utilization utilizing the U- do.

도 1은 본 발명의 일 실시예에 따른 실감형 테스트 시스템의 전체 구성을 나타낸 도면,
도 2는, 도 1에 제시된 실감형 테스트 시스템의 평면 배치 상태를 나타낸 도면,
도 3은 본 발명의 실시예에 따른 실감형 테스트 시스템의 개념도,
도 4는 본 발명의 실시예에 따른 실감형 테스트 시스템을 활용하여, UX 프로파일링을 수행하는 사례를 촬영한 사진, 그리고,
도 5 및 도 6은 본 발명의 실시예에 따른 실감형 테스트 시스템의 내부 흐름도이다.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a diagram showing the entire configuration of a sensible test system according to an embodiment of the present invention;
Fig. 2 is a diagram showing a planar arrangement state of the sensible test system shown in Fig. 1,
3 is a conceptual diagram of a sensible test system according to an embodiment of the present invention,
FIG. 4 is a photograph showing an example of performing UX profiling using a sensible test system according to an embodiment of the present invention,
5 and 6 are internal flowcharts of a sensory test system according to an embodiment of the present invention.

이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.Hereinafter, the present invention will be described in detail with reference to the drawings.

서비스 산업의 비중이 증가함에 따라 서비스 프로토타이핑이 점점 더 중요해지고 있다. 본 발명의 실시예들에서는, 서비스 프로토타이핑 방법 중 하나로 사용자 참여가능한 실감형 테스트 시스템을 제시하여, 사용자 참여형 실증을 가능하게 한다.Service prototyping is becoming more and more important as the service industry grows. In embodiments of the present invention, a sensible test system capable of user participation is presented as one of the service prototyping methods, thereby enabling user participation type demonstration.

본 발명의 실시예들에서는, 서비스 시나리오 내용을 2D 및 3D 형태로 가시화하여 사용자에게 실감적으로 제공하고 체험할 수 있도록 한다.In the embodiments of the present invention, the content of the service scenario is visualized in 2D and 3D form so that it can be provided to the user in a sensible manner and experienced.

이를 통해, 사용자들의 경험특성이 반영된 UX(User eXperience) 프로파일링이 가능하고, 실감형 테스트 시스템을 통해 도출된 결과들은 추후 해당 서비스 프로토타이핑 시뮬레이션에서 의미 있는 지표로 활용될 수 있음은 물론, 다른 서비스 분야에서도 UX 프로파일링에 참조될 수 있도록 한다.Through this, it is possible to perform UX (User experience) profiling that reflects the experience characteristics of users, and the results derived from the sensible test system can be used as a meaningful index in the corresponding service prototyping simulation, Also be referenced in UX profiling in the field.

도 1은 본 발명의 일 실시예에 따른 실감형 테스트 시스템의 전체 구성을 나타낸 도면이다. 그리고, 도 2에는, 도 1에 제시된 실감형 테스트 시스템의 평면 배치 상태를 나타내었다.FIG. 1 is a diagram showing the overall configuration of a sensible test system according to an embodiment of the present invention. Fig. 2 shows a planar arrangement state of the sensible test system shown in Fig.

본 발명의 실시예에 따른 실감형 테스트 시스템은, 서비스 프로토타이핑에서의 UX 프로파일링을 위한 시스템이다.The sensible test system according to the embodiment of the present invention is a system for UX profiling in service prototyping.

이와 같은 기능을 수행하는 본 발명의 실시예에 따른 실감형 테스트 시스템은, U자형 디스플레이(110), 프로젝터 세트(120), 스피커(130), 투명 디스플레이(140), 3D 카메라들(150,160), VR 컨트롤러(170), 생체 센서(180) 및 PC들(191~194)을 포함하여 구축된다.A realistic test system according to an embodiment of the present invention that performs the above functions includes a U-shaped display 110, a projector set 120, a speaker 130, a transparent display 140, 3D cameras 150 and 160, A VR controller 170, a biological sensor 180, and PCs 191 to 194.

U자형 디스플레이(110)와 스피커(130)는 해당 서비스 시나리오 기반의 3D 콘텐츠가 2D의 형태로 실감 있게 표시된다.The U-shaped display 110 and the speaker 130 realistically display the 3D content based on the service scenario in 2D form.

프로젝터 세트(120)는 3대의 프로젝터들로 구성되어, U자형 디스플레이(110)에 실감형 콘텐츠를 투사한다. 3대의 프로젝터들에서 출사되는 화면들을 매끄럽게 연결하기 위해, 와핑 시스템이 적용된다.The projector set 120 is composed of three projectors, and projects realistic contents to the U- In order to smoothly connect the screens emanating from the three projectors, a warping system is applied.

투명 디스플레이(140)는 U자형 디스플레이(110)에 표시되는 서비스 시나리오에서 특정 태스크를 이용하는 경우, 태스크 화면을 표시하는 디스플레이이다. 서비스 시나리오에서 UI(User Interface)가 필요한 경우에 사용된다.The transparent display 140 is a display for displaying a task screen when a specific task is used in a service scenario displayed on the U- It is used when a user interface (UI) is required in a service scenario.

사용자는 VR 컨트롤러(170)에 위치하여, U자형 디스플레이(110)와 투명 디스플레이(140)를 주시한다. 생체 센서(180)는 사용자의 손에 착용되어, 사용자의 생체 신호를 생성한다.The user is located at the VR controller 170 and watches the U-shaped display 110 and the transparent display 140. The biometric sensor 180 is worn in a user's hand to generate a biometric signal of the user.

사용자는 VR 컨트롤러(170) 위에서 걷는 동작을 통해 가상의 서비스 공간에서 이동할 수 있다. VR 컨트롤러(170)는 마이크로 사용자의 발걸음 소리를 획득하여 이동 동작 여부를 파악한다.The user can move in the virtual service space through the operation of walking on the VR controller 170. [ The VR controller 170 acquires the stepping sound of the micro user to determine whether or not the movement operation is performed.

VR 컨트롤러(170)의 전방에 위치한 3D 카메라-1(150)은 U자형 디스플레이(110)에 표시되는 서비스 시나리오 콘텐츠의 화면을 전환하고자 사용자의 머리를 트래킹(Head Tracking)하기 위한 3D 카메라이다. The 3D camera-1 150 located in front of the VR controller 170 is a 3D camera for tracking the head of the user to switch the screen of the service scenario content displayed on the U-

투명 디스플레이(140)의 상부에 위치한 3D 카메라-2(160)은 사용자의 손동작 인식을 위한 3D 카메라이다.The 3D camera-2 160 located at the upper part of the transparent display 140 is a 3D camera for recognizing a user's hand gesture.

VR 컨트롤러(170)의 후방에는 가상 서비스 시나리오 체험에 필요한 프로세스들을 처리하기 위한 PC들(191~194)이 데이터 통신가능하도록 연결되어 있다. 고사양의 PC를 이용하는 경우 PC들(191~194)은 하나로 통합될 수 있다.PCs 191 to 194 for processing processes necessary for a virtual service scenario experience are connected to the rear of the VR controller 170 so as to be capable of data communication. When a high-end PC is used, the PCs 191 to 194 can be integrated into one.

각각의 프로세스 진행에 따라, Sender와 Client는 수시로 변경된다. PC들(191~194)에는 다음에서 제시하는 6개의 모듈들이 분배되어 있다.As each process progresses, the Sender and Client are changed from time to time. In the PCs 191 to 194, the following six modules are distributed.

① U자형 디스플레이에서의 Unity 3D 모듈 : PC-1(191)1) Unity 3D module in U-shaped display: PC-1 (191)

서비스 시나리오 기반의 3D 콘텐츠를 U자형 디스플레이(110)에 시각화하기 위한 모듈로써, 메인 프로그램으로 볼 수 있으며, 다른 모듈과의 모든 데이터 통신이 이 모듈에서 이루어진다.The service scenario-based 3D content is visualized on the U-shaped display 110 as a main program, and all data communication with other modules is performed in this module.

② VR 컨트롤러 모듈 : PC-1(191)② VR controller module: PC-1 (191)

VR 컨트롤러(170)에서 사용자의 걸음 동작을 U자형 디스플레이(110)에서의 Unity 3D 모듈과 연동하기 위한 모듈로, 콘텐츠와 연계되어 콘텐츠를 앞으로 전진시키고자 할 때, 'w' 커맨드 입력이 가능하다.The VR controller 170 is a module for linking the user's stepping motion with the Unity 3D module in the U-shaped display 110. When a user wants to advance the content in association with the content, a 'w' command input is possible .

③ 생체 계측 모듈 : PC-2(192)③ Biometric module: PC-2 (192)

서비스 시나리오 기반의 각각의 태스크에 따라, 생체 센서(180)에서 생성된 생체 신호(맥박, 피부전도도, 체온)를 측정하여 감성 상태를 추론하고 및 실시간으로 분석하기 위한 모듈이다.(Pulse, skin conductivity, body temperature) generated by the bio-sensor 180 according to each service based on the service scenario, and deduces the emotional state and analyzes the bio-signals in real time.

④ 투명 디스플레이에서의 Unity 3D 모듈 : PC-3(193)④ Unity 3D module in transparent display: PC-3 (193)

서비스 시나리오 중 특정 태스크에서의 UI 화면을 투명 디스플레이(140)를 통해 제시하며, UI 인터랙션을 위해 동작 인식 모듈과 연계되어 내부적으로 연계되어 있다.A UI screen of a specific task among the service scenarios is presented through the transparent display 140 and is internally linked with the motion recognition module for UI interaction.

⑤ 동작 인식 모듈 : PC-3(193)⑤ Motion recognition module: PC-3 (193)

사용자의 손동작 패턴을 파악하기 위한 모듈로, 3D 카메라-1(150)을 이용하여 추출한 사용자의 관절 정보를 활용하여 사용자 위치 파악과 손동작 인식을 수행한다. 인터랙션 종류는 Select, Up, Down, Right 등을 포함한다.A module for grasping a hand motion pattern of a user, performs user's position recognition and hand motion recognition using the joint information of the user extracted using the 3D camera-1 (150). Interaction types include Select, Up, Down, Right, and so on.

⑥ Head Tracking 모듈 : PC-4(194)⑥ Head Tracking Module: PC-4 (194)

3D 카메라-1(150)로 사용자의 머리를 추출하여 좌, 우, 정면 등의 사용자가 보는 위치를 파악하기 위한 모듈이다. 이는, U자형 디스플레이에서의 Unity 3D 모듈과 데이터 연동을 통해 사용자가 좌, 우, 정면을 볼 때마다 3D 콘텐츠가 이에 맞춰 실시간으로 변화한다.And extracts the head of the user with the 3D camera-1 (150), and grasps the position of the user such as the left, right, and front. This is because the 3D content changes in real time whenever the user views the left, right, and front through the data link with the Unity 3D module in the U-shaped display.

도 3은 본 발명의 실시예에 따른 실감형 테스트 시스템의 개념도이고, 도 4는 본 발명의 실시예에 따른 실감형 테스트 시스템을 활용하여, "역사 앞 공공광장 복지정보 통합안내창구 서비스"에 대하여 UX 프로파일링을 수행하는 사례를 촬영한 사진들이다.FIG. 3 is a conceptual diagram of a realistic test system according to an embodiment of the present invention, and FIG. 4 is a flowchart illustrating a real-time test system according to an embodiment of the present invention, UX profiling.

도 5 및 도 6은 본 발명의 실시예에 따른 실감형 테스트 시스템의 내부 흐름도이다. 본 발명의 실시예에 따른 실감형 테스트 시스템에는 4개의 PC들(191~194)을 포함하고, 이들에는 6개의 모듈들이 분배되어 있음은 전술한 바 있다.5 and 6 are internal flowcharts of a sensory test system according to an embodiment of the present invention. In the sensible test system according to the embodiment of the present invention, four PCs 191 to 194 are included, and six modules are distributed to them.

PC들(191~194) 간의 데이터 통신은 PC-1(191-1)의 U자형 디스플레이(실린더)에서의 Unity 3D 모듈에서 이루어진다. 도 5 및 도 6에는, "역사 앞 공공광장 복지정보 통합안내창구 서비스"에 대한 UX 프로파일링을 위한 시스템 시퀀스를 나타내었다.Data communication between the PCs 191 to 194 is performed in the Unity 3D module in the U-shaped display (cylinder) of the PC-1 191-1. FIG. 5 and FIG. 6 show a system sequence for UX profiling for "Public Information Service for Integrated Public Welfare Information in History".

구체적으로, 도 5에는 사용자의 걷는 동작과 머리 방향에 연동시켜 서비스 시나리오 컨텐츠를 제공하고, 서비스 시나리오 내의 태스크에 대해 UI를 제공하고, 사용자의 손동작으로 인터랙션을 수행하는 과정이 나타나 있다.Specifically, FIG. 5 shows a process of providing service scenario contents in cooperation with a walking motion of a user and a head direction, providing a UI to a task in a service scenario, and performing interaction with a user's hand movements.

또한, 사용자의 생체 신호가 수집되어 표시되는 과정도 나타나 있다. 수집된 생체 신호는 측정 시간과 함께 저장/분석되며, 분석을 통해 파악된 감정 상태(이를 테면, 편안, 불편, 만족 등)는 서비스 프로토타이핑과 UX 프로파일링에 대한 사용자의 감정을 나타내는 것이므로 이들의 개선에 참조된다.Also, a process in which a user's biomedical signal is collected and displayed is also shown. The collected bio-signals are stored / analyzed together with the measurement time, and the emotion states (eg, comfort, discomfort, satisfaction, etc.) obtained through analysis represent user's feelings for service prototyping and UX profiling. Refer to the improvement.

그리고, 도 6에는 사용자가 손동작으로 UI 인터랙션 하는 보다 상세한 과정이 예시되어 있다.6 shows a more detailed process in which the user interacts with the UI by hand.

지금까지, 서비스 프로토타이핑에서의 UX 프로파일링을 위한 실감형 테스트 시스템에 대해 바람직한 실시예를 들어 상세히 설명하였다.Up to now, a realistic test system for UX profiling in service prototyping has been described in detail with a preferred embodiment.

본 발명의 실시예에 따른 실감형 테스트 시스템으로, 서비스 프로토타이핑에서의 가상 페르소나 UX 프로파일링 구축시, 생체 신호를 통한 정량적 평가가 가능해진다.With the realistic type test system according to the embodiment of the present invention, it is possible to quantitatively evaluate via biological signals when establishing virtual persona UX profiling in service prototyping.

또한, UX 프로파일링을 효과를 극대화를 위해서 U자형 디스플레이(110)와 투명 디스플레이(140)를 제공하여 실감적인 2D 및 3D 콘텐츠 뷰를 제공할 수 있다.In addition, U-shaped display 110 and transparent display 140 can be provided to maximize the effectiveness of UX profiling to provide realistic 2D and 3D content views.

그리고, 콘텐츠 뷰에서 사용자로 하여금 실감 효과를 주기 위하여 VR 컨트롤러(170)를 활용하여 걷는 효과를 주고, 방향 전환을 위하여 사용자의 머리를 트래킹하여 방향 전환이 유연하다.In the content view, the VR controller 170 is used to provide the user with a walking effect in order to give the user a real feeling effect, and the direction of the user is flexible by tracking the user's head in order to change the direction.

또한, 사용자가 서비스 시나리오 상의 태스크에서의 인터랙션은, 동작인식을 접목하여 좌, 우 손을 활용하여 인터랙션이 가능하다.In addition, the user interacts with the task in the service scenario by utilizing the left and right hands by combining the motion recognition.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the spirit and scope of the present invention.

110 : U자형 디스플레이 120 : 프로젝터 세트
130 : 스피커 140 : 투명 디스플레이
150,160 : 3D 카메라 170 : VR 컨트롤러
180 : 생체 센서 191~194 : PC
110: U-shaped display 120: Projector set
130: Speaker 140: Transparent display
150, 160: 3D camera 170: VR controller
180: Biometric sensors 191 to 194: PC

Claims (6)

테스트를 위한 서비스 시나리오 기반의 콘텐츠가 표시되는 제1 디스플레이;
서비스 시나리오 내 태스크 수행을 위한 UI(User Interface)가 표시되는 제2 디스플레이;
서비스 시나리오를 체험하는 사용자의 걷는 동작을 인식하는 컨트롤러; 및
상기 컨트롤러를 통해 인식된 사용자의 걸음에 연동하여 상기 제1 디스플레이에 표시되는 화면을 변경시키는 컴퓨터;를 포함하는 것을 특징으로 하는 실감형 테스트 시스템.
A first display in which content based on a service scenario for testing is displayed;
A second display in which a UI (User Interface) for performing a task in a service scenario is displayed;
A controller for recognizing a walking motion of a user experiencing a service scenario; And
And a computer for changing a screen displayed on the first display in response to a user's perceived step through the controller.
청구항 1에 있어서,
상기 사용자의 머리 방향을 인식하는 제1 카메라;를 더 포함하고,
상기 컴퓨터는,
상기 머리 방향에 따라 상기 제1 디스플레이에 표시되는 화면을 변경시키는 것을 특징으로 하는 실감형 테스트 시스템.
The method according to claim 1,
And a first camera for recognizing the head direction of the user,
The computer,
And changes the screen displayed on the first display in accordance with the head direction.
청구항 1에 있어서,
상기 사용자의 손동작을 인식하는 제2 카메라;를 더 포함하고,
상기 컴퓨터는,
상기 손동작에 따라 상기 UI의 인터랙션을 수행하는 것을 특징으로 하는 실감형 테스트 시스템.
The method according to claim 1,
And a second camera for recognizing the hand motion of the user,
The computer,
Wherein the interaction of the UI is performed according to the hand operation.
청구항 3에 있어서,
상기 제1 디스플레이는, 다수의 프로젝터들에서 출사되는 화면들을 와핑한 화면이 표시되는 곡면 디스플레이이고,
상기 제2 디스플레이는, 투명 디스플레이인 것을 특징으로 하는 실감형 테스트 시스템.
The method of claim 3,
Wherein the first display is a curved display in which a screen in which images outputted from a plurality of projectors are waved is displayed,
Wherein the second display is a transparent display.
청구항 1에 있어서,
상기 컴퓨터는,
사용자의 생체 신호를 분석하여, 상기 서비스 시나리오와 상기 UI에 대한 사용자의 감정 상태를 안내하는 것을 특징으로 하는 실감형 테스트 시스템.
The method according to claim 1,
The computer,
And analyzing the user's bio-signal to guide the service scenario and the user's emotional state with respect to the UI.
제1 디스플레이가 테스트를 위한 서비스 시나리오 기반의 콘텐츠를 표시하는 단계;
제2 디스플레이 서비스 시나리오 내 태스크 수행을 위한 UI(User Interface)를 표시하는 단계;
컨트롤러가, 서비스 시나리오를 체험하는 사용자의 걷는 동작을 인식하는 단계; 및
컴퓨터가, 상기 컨트롤러를 통해 인식된 사용자의 걸음에 연동하여 상기 제1 디스플레이에 표시되는 화면을 변경시키는 단계;를 포함하는 것을 특징으로 하는 실감형 테스트 방법.
The first display displaying content based on a service scenario for testing;
Displaying a UI (User Interface) for performing a task in a second display service scenario;
The controller recognizing a walking motion of a user experiencing a service scenario; And
And changing a screen displayed on the first display in response to a user's step recognized by the controller.
KR1020150165219A 2015-11-25 2015-11-25 Tangible Test System for UX Profiling in the Prototyping Service KR102163149B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150165219A KR102163149B1 (en) 2015-11-25 2015-11-25 Tangible Test System for UX Profiling in the Prototyping Service

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150165219A KR102163149B1 (en) 2015-11-25 2015-11-25 Tangible Test System for UX Profiling in the Prototyping Service

Publications (2)

Publication Number Publication Date
KR20170060721A true KR20170060721A (en) 2017-06-02
KR102163149B1 KR102163149B1 (en) 2020-10-08

Family

ID=59222403

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150165219A KR102163149B1 (en) 2015-11-25 2015-11-25 Tangible Test System for UX Profiling in the Prototyping Service

Country Status (1)

Country Link
KR (1) KR102163149B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102510412B1 (en) * 2022-01-21 2023-03-16 서정협 Bidirectional augmented reality content generating system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100911719B1 (en) * 2008-10-15 2009-08-10 (주) 전시나라 Game type virtual reality experience simulator
KR20090114138A (en) * 2008-04-29 2009-11-03 한국기술교육대학교산학협력단 System for realistic interactive technology education based on three dimension type contents
KR101180119B1 (en) * 2012-02-23 2012-09-05 (주)올라웍스 Method, apparatusand computer-readable recording medium for controlling display by head trackting using camera module
KR101289385B1 (en) * 2012-04-17 2013-07-29 전자부품연구원 Frontal/vertical dual camera based motion detection log data processing system for interactive user-participating contents service
KR20150099430A (en) * 2014-02-21 2015-08-31 삼성전자주식회사 Electronic device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090114138A (en) * 2008-04-29 2009-11-03 한국기술교육대학교산학협력단 System for realistic interactive technology education based on three dimension type contents
KR100911719B1 (en) * 2008-10-15 2009-08-10 (주) 전시나라 Game type virtual reality experience simulator
KR101180119B1 (en) * 2012-02-23 2012-09-05 (주)올라웍스 Method, apparatusand computer-readable recording medium for controlling display by head trackting using camera module
KR101289385B1 (en) * 2012-04-17 2013-07-29 전자부품연구원 Frontal/vertical dual camera based motion detection log data processing system for interactive user-participating contents service
KR20150099430A (en) * 2014-02-21 2015-08-31 삼성전자주식회사 Electronic device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102510412B1 (en) * 2022-01-21 2023-03-16 서정협 Bidirectional augmented reality content generating system

Also Published As

Publication number Publication date
KR102163149B1 (en) 2020-10-08

Similar Documents

Publication Publication Date Title
LaViola Jr et al. 3D user interfaces: theory and practice
CN110167421B (en) System for integrally measuring clinical parameters of visual function
Kalantari et al. Virtual environments for design research: Lessons learned from use of fully immersive virtual reality in interior design research
Brown et al. Finding waldo: Learning about users from their interactions
KR101338043B1 (en) Cognitive Rehabilitation System and Method Using Tangible Interaction
CN107463245A (en) Virtual reality emulation experimental system
US10832483B2 (en) Apparatus and method of monitoring VR sickness prediction model for virtual reality content
CN110826835A (en) Glove-based acupuncture training method, system, platform and storage medium
Frank et al. Engagement detection in meetings
KR20190066428A (en) Apparatus and method for machine learning based prediction model and quantitative control of virtual reality contents’ cyber sickness
CN108968989A (en) One kind based on it is psychologic stress training system and its application method
US11366631B2 (en) Information processing device, information processing method, and program
KR20170060721A (en) Tangible Test System for UX Profiling in the Prototyping Service
Leo et al. Mental rotation skill shapes haptic exploration strategies
KR101447563B1 (en) Evaluation system of cognitive ability based on physical object and method thereof
Joundi et al. ExperienceDNA: a framework to conduct and analyse user tests in VR using the Wizard-of-Oz methodology
CN113867532A (en) Evaluation system and evaluation method based on virtual reality skill training
JP6761407B2 (en) Physical information analyzer and facial shape diagnosis method
CN113176822A (en) Virtual user detection
Mengoni et al. Performing ergonomic analysis in virtual environments: a structured protocol to assess humans interaction
Argelaguet Sanz et al. Complexity and scientific challenges
Chen Improving the safety of construction site
Li et al. 3D Monitoring of Toothbrushing Regions and Force Using Multimodal Sensors and Unity
Stork et al. The influence of instruction mode on reaching movements during manual assembly
Adam Towards more realism: Improving immersion of a virtual human-robot working cell and discussing the comparability with its real-world representation

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right