KR20200073606A - Method and Electronic Apparatus for Designing of User Interface According to Personality of Things - Google Patents

Method and Electronic Apparatus for Designing of User Interface According to Personality of Things Download PDF

Info

Publication number
KR20200073606A
KR20200073606A KR1020180161952A KR20180161952A KR20200073606A KR 20200073606 A KR20200073606 A KR 20200073606A KR 1020180161952 A KR1020180161952 A KR 1020180161952A KR 20180161952 A KR20180161952 A KR 20180161952A KR 20200073606 A KR20200073606 A KR 20200073606A
Authority
KR
South Korea
Prior art keywords
user interface
personality
terminals
framework
designing
Prior art date
Application number
KR1020180161952A
Other languages
Korean (ko)
Other versions
KR102131785B1 (en
Inventor
박남춘
안미경
Original Assignee
서울여자대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울여자대학교 산학협력단 filed Critical 서울여자대학교 산학협력단
Priority to KR1020180161952A priority Critical patent/KR102131785B1/en
Publication of KR20200073606A publication Critical patent/KR20200073606A/en
Application granted granted Critical
Publication of KR102131785B1 publication Critical patent/KR102131785B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/10Requirements analysis; Specification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/20Software design

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention relates to a method and electronic device for designing a user interface according to natures of an object. The method may comprise the steps of: setting at least one scenario, which requires control of a plurality of terminals; setting at least one representative nature of an object to be applied to the user interface among predefined nature types of the object; designing the user interface based on scenarios and the representative nature of the object; and performing verification by implementing a prototype for the user interface. Other embodiments of the present invention may also be applied.

Description

사물성격에 따른 사용자 인터페이스 설계방법 및 전자장치{Method and Electronic Apparatus for Designing of User Interface According to Personality of Things}Method and Electronic Apparatus for Designing of User Interface According to Personality of Things}

본 발명은 사물성격에 따른 사용자 인터페이스 설계방법 및 전자장치에 관한 것이다.The present invention relates to a user interface design method and an electronic device according to an object personality.

사물 인터넷(IoT; internet of things) 시대가 도래하면서, 다양한 사물인 인터넷 기반으로 연결되어 사물 인터넷이 가능한 장치들 스스로가 데이터를 획득하고, 획득된 데이터를 바탕으로 학습하여 동작한다. 이러한 IoT 시대에는 사람, 장치 및 데이터를 중심으로 다양한 접점이 발생한다. 따라서, 사용자가 다양한 장치 및 데이터를 효과적으로 사용할 수 있도록 하기 위해 다양한 접점들을 모두 통합적으로 고려한 디자인의 설계 필요성이 대두되고 있다. With the advent of the Internet of Things (IoT) era, devices capable of the Internet of Things connected to the Internet, which are various objects, acquire data by themselves and operate by learning based on the acquired data. In this IoT era, various contact points occur mainly on people, devices, and data. Accordingly, there is a need to design a design that considers all the various points of contact in order to enable users to effectively use various devices and data.

이를 위해, 현재에는 종이를 이용한 페이퍼 프로토타이핑(paper prototyping)과, 디지털 툴(tool)을 이용한 디지털 프로토타이핑(digital prototyping)을 이용하여 사용자 인터페이스를 설계한 후 테스트한다. 그러나, 이러한 프로토타이핑 방식은 다양한 장치들의 동작을 개별적으로 확인하는 것을 전제로 하기 때문에 복수의 장치를 대상으로 한 프로토타이핑의 설계가 복잡한 문제점이 발생한다. To this end, the user interface is designed and tested using paper prototyping using digital paper and digital prototyping using digital tools. However, this prototyping method is based on the premise of individually confirming the operation of various devices, and thus a complex problem arises in the design of prototyping for a plurality of devices.

이러한 종래의 문제점을 해결하기 위한 본 발명의 다양한 실시 예들은 IoT환경에서 다양한 단말의 인터유저빌리티(interusability) 개선을 위해 사물의 성격을 활용하여 사물의 성격에 따른 사용자 인터페이스를 설계하는 사물성격에 따른 사용자 인터페이스 설계방법 및 전자장치를 제공하는 것이다. Various embodiments of the present invention for solving such a conventional problem according to the nature of the object to design the user interface according to the nature of things by utilizing the nature of things to improve the inter-usability (interusability) of various terminals in the IoT environment It is to provide a user interface design method and an electronic device.

본 발명의 일 실시 예에 따른 사물성격에 따른 사용자 인터페이스 설계방법은, 복수의 단말의 제어가 필요한 적어도 하나의 시나리오를 설정하는 단계, 기정의된 사물성격 유형 중에서 사용자 인터페이스에 적용하기 위한 적어도 하나의 대표 사물성격을 설정하는 단계, 상기 시나리오와 상기 대표 사물성격을 기반으로 상기 사용자 인터페이스를 설계하는 단계 및 상기 사용자 인터페이스에 대한 프로토타입을 구현하여 검증을 수행하는 단계를 포함하는 것을 특징으로 한다.According to an embodiment of the present invention, a method for designing a user interface according to an object personality includes setting at least one scenario requiring control of a plurality of terminals and at least one for applying to a user interface among predefined object personality types. And setting a representative object personality, designing the user interface based on the scenario and the representative object personality, and performing a verification by implementing a prototype for the user interface.

또한, 프로토타입을 구현하여 검증을 수행하는 단계는, 상기 프로토타입을 이용한 상기 복수의 단말의 제어결과를 기반으로 상기 프로토타입의 검증을 수행하는 단계인 것을 특징으로 한다.In addition, the step of implementing a verification by implementing a prototype is characterized in that the step of performing the verification of the prototype based on the control results of the plurality of terminals using the prototype.

또한, 사용자 인터페이스를 설계하는 단계는, 상기 시나리오와 상기 대표 사물성격에 대한 경우의 수로 조합하여 상기 조합된 수만큼 상기 사용자 인터페이스를 설계하는 단계인 것을 특징으로 한다.In addition, the step of designing the user interface is characterized in that the step of designing the user interface by the combined number by combining the scenario and the number of cases for the representative personality.

또한, 대표 사물성격을 설정하는 단계 이후에, 상기 대표 사물성격에 대한 페르소나를 생성하는 단계를 더 포함하는 것을 특징으로 한다.In addition, after the step of setting a representative object personality, characterized in that it further comprises the step of generating a persona for the representative object personality.

또한, 시나리오를 설정하는 단계 이전에, 복수의 단말에 대한 사물성격을 분류하기 위한 프레임워크를 제작하는 단계 및 상기 프레임워크를 기반으로 복수의 사물성격 유형을 정의하는 단계를 더 포함하는 것을 특징으로 한다.In addition, prior to the step of setting the scenario, characterized in that it further comprises the steps of creating a framework for classifying object personalities for a plurality of terminals and defining a plurality of object personality types based on the framework. do.

또한, 프레임워크를 제작하는 단계는, 상기 복수의 단말에서 수신되는 센싱 데이터를 분석을 통해 상기 복수의 단말 각각의 동작을 확인하는 단계, 상기 확인된 동작을 기반으로 상기 복수의 단말 각각에 대한 사물성격을 정의하는 단계 및 상기 정의된 사물성격을 기준으로 상기 프레임워크를 제작하는 단계를 포함하는 것을 특징으로 한다. In addition, the step of manufacturing a framework is to check the operation of each of the plurality of terminals through analysis of sensing data received from the plurality of terminals, and objects for each of the plurality of terminals based on the identified operation And defining a personality and constructing the framework based on the defined object personality.

아울러, 본 발명의 일 실시 예에 따른 사물성격에 따른 사용자 인터페이스를 설계하는 전자장치는, 복수의 단말의 제어가 필요한 적어도 하나의 시나리오를 설정하고, 기정의된 사물성격 유형 중에서 사용자 인터페이스에 적용하기 위한 적어도 하나의 대표 사물성격을 설정하고, 상기 시나리오와 상기 대표 사물성격을 기반으로 상기 사용자 인터페이스를 설계하는 사용자 인터페이스 관리부 및 상기 사용자 인터페이스의 프로토타입을 구현하여 검증을 수행하는 프로토타이핑부를 포함하는 것을 특징으로 한다.In addition, an electronic device for designing a user interface according to an object personality according to an embodiment of the present invention sets at least one scenario requiring control of a plurality of terminals, and applies it to a user interface among predefined object personality types And at least one representative object personality for setting, and including a user interface manager for designing the user interface based on the scenario and the representative object personality, and a prototyping unit for implementing a prototype of the user interface for verification. It is characterized by.

또한, 프로토타이핑부는, 상기 프로토타입을 이용한 상기 복수의 단말의 제어결과를 기반으로 상기 프로토타입의 검증을 수행하는 것을 특징으로 한다.In addition, the prototyping unit is characterized in that to perform the verification of the prototype based on the control results of the plurality of terminals using the prototype.

또한, 사용자 인터페이스 관리부는, 상기 시나리오와 상기 대표 사물성격에 대한 경우의 수로 조합하여 상기 조합된 수만큼 상기 사용자 인터페이스를 설계하는 것을 특징으로 한다.In addition, the user interface management unit is characterized by designing the user interface as many as the combined number by combining the number of cases for the scenario and the representative personality.

또한, 사용자 인터페이스 관리부는, 상기 대표 사물성격에 대한 페르소나를 생성하는 것을 특징으로 한다.In addition, the user interface management unit is characterized in that to generate a persona for the representative personality.

또한, 복수의 단말에 대한 사물성격을 분류하기 위한 프레임워크를 제작하고, 상기 프레임워크를 기반으로 복수의 사물성격 유형을 정의하는 프레임워크 관리부를 더 포함하는 것을 특징으로 한다.In addition, it is characterized in that it further comprises a framework management unit for creating a framework for classifying object personalities for a plurality of terminals and defining a plurality of types of object personalities based on the framework.

또한, 복수의 단말로부터 센싱 데이터를 수집하는 데이터수집부 및 상기 센싱 데이터를 분석하여 상기 복수의 단말 각각의 동작을 확인하는 분석부를 더 포함하는 것을 특징으로 한다.In addition, it characterized in that it further comprises a data collection unit for collecting sensing data from a plurality of terminals and an analysis unit for analyzing the sensing data and confirming the operation of each of the plurality of terminals.

또한, 프레임워크 관리부는, 상기 확인된 동작을 기반으로 상기 복수의 단말 각각에 대한 사물성격을 정의하고, 상기 정의된 사물성격을 기준으로 상기 프레임워크를 제작하는 것을 특징으로 한다. In addition, the framework management unit is characterized by defining the object personality for each of the plurality of terminals based on the identified operation, and producing the framework based on the defined object personality.

상술한 바와 같이 본 발명의 사물성격에 따른 사용자 인터페이스 설계방법 및 전자장치는, IoT환경에서 다양한 단말의 인터유저빌리티(interusability) 개선을 위해 사물의 성격을 활용하여 사물의 성격에 따른 사용자 인터페이스를 설계하여 제공할 수 있는 효과가 있다. As described above, the user interface design method and the electronic device according to the personality of the present invention design a user interface according to the personality of the object by utilizing the personality of the object to improve the interusability of various terminals in the IoT environment There is an effect that can be provided.

도 1은 본 발명의 실시 예에 따른 사물성격에 따른 사용자 인터페이스를 설계하는 전자장치의 주요구성을 나타내는 도면이다.
도 2는 본 발명의 실시 예에 따른 사물성격에 따른 사용자 인터페이스를 설계하는 방법을 설명하기 위한 순서도이다.
도 3은 본 발명의 실시 예에 따른 사물성격을 분류하기 위한 프레임워크를 설명하기 위한 도면이다.
도 4a 내지 도 4c는 본 발명의 실시 예에 따른 대표 사물성격에 페르소나를 생성하는 방법을 설명하기 위한 도면이다.
도 5는 본 발명의 실시 예에 따른 제1 시나리오를 기반으로 설계된 사용자 인터페이스에 대한 화면예시도이다.
도 6은 본 발명의 실시 예에 따른 제2 시나리오를 기반으로 설계된 사용자 인터페이스에 대한 화면예시도이다.
도 7은 본 발명의 실시 예에 따른 제3 시나리오를 기반으로 설계된 사용자 인터페이스에 대한 화면예시도이다.
도 8는 본 발명의 실시 예에 따른 사용자 인터페이스를 기반으로 구현된 프로토타입에 대한 화면예시도이다.
1 is a diagram illustrating a main configuration of an electronic device for designing a user interface according to an object personality according to an embodiment of the present invention.
2 is a flowchart illustrating a method of designing a user interface according to an object personality according to an embodiment of the present invention.
3 is a view for explaining a framework for classifying object personalities according to an embodiment of the present invention.
4A to 4C are diagrams illustrating a method of generating a persona in a representative personality according to an embodiment of the present invention.
5 is a screen example of a user interface designed based on a first scenario according to an embodiment of the present invention.
6 is a screen example of a user interface designed based on a second scenario according to an embodiment of the present invention.
7 is a screen example of a user interface designed based on a third scenario according to an embodiment of the present invention.
8 is a screen example of a prototype implemented based on a user interface according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 실시 예들을 보다 상세하게 설명하고자 한다. 이 때, 첨부된 도면에서 동일한 구성 요소는 가능한 동일한 부호로 나타내고 있음을 유의해야 한다. 그리고 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. At this time, it should be noted that the same components in the accompanying drawings are indicated by the same reference numerals as possible. In addition, detailed descriptions of known functions and configurations that may obscure the subject matter of the present invention will be omitted.

도 1은 본 발명의 실시 예에 따른 사물성격에 따른 사용자 인터페이스를 설계하는 전자장치의 주요구성을 나타내는 도면이다. 1 is a diagram illustrating a main configuration of an electronic device for designing a user interface according to an object personality according to an embodiment of the present invention.

도 1을 참조하면, 본 발명에 따른 전자장치(100)는 통신부(110), 입력부(120), 표시부(130), 메모리(140) 및 제어부(150)를 포함한다. 이때, 전자장치(100)는 댁내에 위치한 복수의 단말(미도시)를 통합 제어할 수 있는 장치로, 전자장치(100)는 허브 단말, 복수의 단말은 서브 단말로 혼용하여 사용한다. Referring to FIG. 1, the electronic device 100 according to the present invention includes a communication unit 110, an input unit 120, a display unit 130, a memory 140, and a control unit 150. At this time, the electronic device 100 is a device capable of integrally controlling a plurality of terminals (not shown) located in the home, and the electronic device 100 is used as a hub terminal and a plurality of terminals as a sub terminal.

통신부(110)는 전자장치(100)의 외부에 구비된 복수의 단말과의 통신을 수행한다. 이를 위해, 통신부(110)는 유선 또는 무선 통신 중 적어도 하나를 수행할 수 있다. 통신부(110)는 WiFi(wireless fidelity), 블루투스(bluetooth), BLE(bluetooth low energy) 및 NFC(near field communication) 등의 무선 통신을 수행할 수 있다. 또한, 통신부(110)는 사용자가 스마트 폰, 태블릿 PC 등의 사용자 단말(미도시)와의 통신을 통해, 구현된 프로토타입을 사용자 단말로 전송한다. The communication unit 110 performs communication with a plurality of terminals provided outside the electronic device 100. To this end, the communication unit 110 may perform at least one of wired or wireless communication. The communication unit 110 may perform wireless communication such as WiFi (wireless fidelity), Bluetooth (bluetooth), Bluetooth low energy (BLE), and near field communication (NFC). In addition, the communication unit 110 transmits the implemented prototype to the user terminal through communication with the user terminal (not shown) such as a smart phone or a tablet PC.

입력부(120)는 전자장치(100)의 사용자 입력에 대응하여, 입력데이터를 발생시킨다. 입력부(120)는 적어도 하나의 입력수단을 포함한다. 이러한 입력부(120)는 키 패드(key pad), 돔 스위치(dome switch), 터치 패널(touch panel), 조그 셔틀(jog and shuttle), 터치 키(touch key) 중 적어도 하나를 포함한다.The input unit 120 generates input data in response to a user input of the electronic device 100. The input unit 120 includes at least one input means. The input unit 120 includes at least one of a key pad, a dome switch, a touch panel, a jog and shuttle, and a touch key.

표시부(130)는 표시데이터를 출력한다. 예를 들면, 액정 디스플레이(LCD; liquid crystal display), 발광 다이오드(LED; light emitting diode) 디스플레이, 유기 발광 다이오드(OLED; organic LED) 디스플레이 등을 포함할 수 있다. 표시부(130)는 다수개의 발광 소자들을 포함할 수 있다. 표시부(130)는 입력부(120)와 결합되어 터치 스크린(touch screen)으로 구현될 수 있다.The display unit 130 outputs display data. For example, a liquid crystal display (LCD), a light emitting diode (LED) display, and an organic light emitting diode (OLED) display may be included. The display unit 130 may include a plurality of light emitting elements. The display unit 130 may be combined with the input unit 120 to be implemented as a touch screen.

메모리(140)는 전자장치(100)의 동작 프로그램들을 저장할 수 있다. 메모리(140)는 프레임워크를 제작하기 위해 복수의 단말에서 수신되는 센싱 데이터를 분석하기 위한 알고리즘, 프레임워크를 기반으로 복수의 단말에 사물성격을 정의하기 위한 사물성격에 대한 데이터, 사물성격에 매핑할 페르소나 정보 등 사용자 인터페이스 설계 및 프로토타이핑 구현을 위한 알고리즘 등을 저장한다. The memory 140 may store operation programs of the electronic device 100. The memory 140 is an algorithm for analyzing sensing data received from a plurality of terminals in order to produce a framework, and mappings to data and object characteristics for object characteristics to define object characteristics on a plurality of terminals based on the framework. Stores algorithms for user interface design and prototyping implementation, such as information about the persona to be done.

제어부(150)는 복수의 단말의 제어가 필요한 적어도 하나의 시나리오를 설정하고, 기정의된 사물성격 유형 중에서 사용자 인터페이스에 적용하기 위한 적어도 하나의 대표 사물성격을 설정한다. 제어부(150)는 시나리오와 대표 사물성격을 기반으로 사용자 인터페이스를 설계하고, 사용자 인터페이스에 대한 프로토타입을 구현하여 검증을 수행한다. 이를 위해, 제어부(150)는 데이터수집부(151), 분석부(152), 프레임워크관리부(153), 사용자 인터페이스 관리부(153, 이하, UI관리부(153)이라 함) 및 프로토타이핑부(155)를 포함한다. The control unit 150 sets at least one scenario that requires control of a plurality of terminals, and sets at least one representative object personality for application to a user interface among predefined object personality types. The controller 150 designs a user interface based on a scenario and a representative object personality, and implements a prototype for the user interface to perform verification. To this end, the control unit 150 includes a data collection unit 151, an analysis unit 152, a framework management unit 153, a user interface management unit 153 (hereinafter referred to as UI management unit 153) and a prototyping unit 155 ).

첫 번째로, 제어부(150)는 프레임워크 제작 및 사물성격 유형 정의를 우선적으로 수행한다. 프레임워크 제작 및 사물성격 유형 정의를 위해 데이터수집부(151)는 프레임워크 제작을 위해 사용되는 복수의 단말에서 센싱된 센싱 데이터를 수신한다. 분석부(152)는 수신된 센싱 데이터의 분석을 수행한다. 이때, 복수의 단말은 댁내에 위치한 복수의 단말일 수 있고, 프레임워크 제작을 위해 임시로 설치한 단말일 수 있다. 아울러, 복수의 단말은, 보안 카메라, 보안 센서, 도어락, 멀티탭, 에어컨, 공기청정기 등 전자장치(100)와의 통신이 가능한 단말일 수 있다.First, the controller 150 preferentially performs the framework creation and object personality type definition. For framework creation and object type definition, the data collection unit 151 receives sensing data sensed by a plurality of terminals used for framework creation. The analysis unit 152 analyzes the received sensing data. At this time, the plurality of terminals may be a plurality of terminals located in the home, or may be a terminal temporarily installed for framework production. In addition, the plurality of terminals may be terminals capable of communication with the electronic device 100 such as a security camera, a security sensor, a door lock, a multi-tap, an air conditioner, and an air purifier.

분석부(152)는 센싱 데이터의 분석을 통해 복수의 단말 각각의 동작을 확인하고, 확인된 결과를 프레임워크관리부(153)로 제공한다. 프레임워크관리부(153)는 확인된 결과를 기반으로 복수의 단말 각각에 대한 사물성격을 정의하고, 정의된 사물성격을 기준으로 프레임워크를 제작한다. The analysis unit 152 checks the operation of each of the plurality of terminals through analysis of the sensing data, and provides the confirmed result to the framework management unit 153. The framework management unit 153 defines object personalities for each of a plurality of terminals based on the confirmed result, and manufactures a framework based on the defined object personalities.

프레임워크관리부(153)는 복수의 단말 각각의 동작을 확인한 결과를 기반으로, 각각의 단말이 갖는 사물성격을 분류하기 위한 프레임워크를 제작한다. 예컨대, 복수의 단말로부터 수신된 센싱 데이터 분석결과, 복수의 단말 중 A단말은 현재 획득되는 센싱 데이터에 집중하고, B단말이 획득된 센싱 데이터를 기반으로 사용자의 행동 패턴과 B단말의 조작 패턴 등의 패턴 확인에 집중한다면, 프레임워크관리부(153)는 센싱 데이터의 구성 방식을 데이터 수집형과 데이터 구성형으로 나눌 수 있다. 또한, A단말이 센싱 데이터에 따라 디스플레이의 색 변화, 음악 변화 등의 동작을 수행하고, B단말이 센싱 데이터를 수치적으로 제공하는 동작을 수행한다면, 프레임워크관리부(153)는 센싱 데이터의 정의 방식을 감성형과 사실형으로 나눌 수 있다. 이를 통해, 프레임워크관리부(153)는 센싱 데이터의 구성 방식과 센싱 데이터의 정의 방식을 내부적 정체성의 구성 요인으로 확인한다. The framework management unit 153 builds a framework for classifying object personalities of each terminal based on the result of confirming the operation of each of the plurality of terminals. For example, as a result of analyzing the sensing data received from the plurality of terminals, terminal A among the plurality of terminals focuses on the currently acquired sensing data, and the user's behavior pattern and operation pattern of terminal B based on the sensed data obtained from terminal B, etc. If the focus is on checking the pattern of, the framework management unit 153 may divide the configuration method of the sensing data into a data collection type and a data configuration type. In addition, if the terminal A performs an operation such as a color change or a music change of the display according to the sensing data, and the terminal B performs an operation for numerically providing the sensing data, the framework management unit 153 defines the sensing data. The method can be divided into emotional type and fact type. Through this, the framework management unit 153 checks the configuration method of the sensing data and the definition method of the sensing data as constituent elements of the internal identity.

아울러, C단말은 센싱 데이터를 기반으로 사용자의 개입 없이 사용자에게 제공하는 서비스의 종류를 주도적으로 제어하고, D단말은 센싱 데이터에 따라 사용자로부터 제어 신호를 입력받아 서비스의 제공을 수행한다면, 프레임워크관리부(153)는 센싱 데이터를 기반으로 하는 서비스의 제어 방식을 능동형과 물음형으로 나눌 수 있다. 또한, C단말이 활발한 톤으로 사용자에게 센싱 데이터에 대한 정보를 잦은 횟수로 전달하고, D단말이 차분한 톤으로 사용자에게 센싱 데이터에 대한 정보를 전달하되, 정보 전달의 횟수가 C단말보다 적다면, 프레임워크관리부(153)는 정보 전달의 방식을 외향형과 내향형으로 나눌 수 있다. 이를 통해, 프레임워크관리부(153)는 서비스의 제어 방식과 정보 전달의 방식을 외부적 행동의 구성 요인으로 확인한다. In addition, C terminal actively controls the type of service provided to the user without user intervention based on the sensing data, and D terminal receives the control signal from the user according to the sensing data to provide the service. The management unit 153 may divide a control method of a service based on sensing data into an active type and a questionable type. In addition, if the C-terminal transmits information about the sensing data to the user with an active tone frequently, and the D-terminal transmits information about the sensing data to the user with a calm tone, but the number of information transmission is less than the C-terminal, The framework management unit 153 may divide the method of information transmission into an outward type and an inward type. Through this, the framework management unit 153 checks the control method of the service and the method of information transmission as components of external actions.

프레임워크관리부(153)는 제작된 프레임워크를 기반으로 복수의 사물성격 유형을 정의한다. 보다 구체적으로, 프레임워크관리부(153)는 프레임워크에 성격을 나타낼 수 있는 키워드를 대입하여 16가지의 사물성격 유형을 정의한다. 이를 위해, 프레임워크관리부(153)는 내부적 정체성의 구성 요인을 나타내는 그래프의 제1 사분면에 [스마트한 비서], 제2 사분면에 [다정한 비서], 제3 사분면에 [스마트한 전문가], 제4 사분면에 [다정한 전문가]의 키워드를 대입한다. 그리고, 프레임워크관리부(153)는 외부적 행동의 구성 요인을 나타내는 그래프의 제1 사분면에 [핵심적 조작], 제2 사분면에 [디테일한 조작], 제3 사분면에 [핵심적 보고], 제4 사분면에 [디테일한 보고]의 키워드를 대입한다. 아울러, 프레임워크관리부(153)는 프레임워크 및 사물성격 유형을 메모리(140)에 저장한다.The framework management unit 153 defines a plurality of object personality types based on the produced framework. More specifically, the framework management unit 153 defines 16 types of object personalities by substituting keywords that can express personality in the framework. To this end, the framework management unit 153 [Smart Secretary] in the first quadrant of the graph representing the constituent elements of the internal identity, [Friendly Secretary] in the second quadrant, [Smart Expert] in the third quadrant, and the fourth Substitute the keyword [affectionate expert] in the quadrant. In addition, the framework management unit 153 includes [core manipulation] in the first quadrant, [detailed manipulation] in the second quadrant, [core reporting] in the third quadrant, and the fourth quadrant in the graph representing the constituent factors of external behavior. Substitute the keyword of [Detailed Report] in. In addition, the framework management unit 153 stores the framework and object personality types in the memory 140.

두 번째로, 사용자 인터페이스 설계 및 프로토타입 구현을 수행하기 위해서 UI관리부(154)는 사용자 인터페이스를 설계하기 위한 서비스와 프로토타입의 구현 및 검증을 수행하기 위한 적어도 하나의 시나리오를 설정한다. 아울러, 본 발명의 실시 예에서 설명하고 있는 사용자 인터페이스를 설계하기 위해 설정하는 서비스 및 서비스와 관련된 시나리오는 사용자에 의해 변경 적용이 가능함을 명확히 하는 바이다. Second, in order to perform user interface design and prototype implementation, the UI management unit 154 sets at least one scenario for implementing a service and prototype implementation and verification for designing a user interface. In addition, it is clear that a service and a scenario related to a service set to design a user interface described in an embodiment of the present invention can be applied by a user.

UI관리부(154)는 사용자에게 제공하고자 하는 서비스 즉, IoT환경 내에서 댁내에 구비된 단말들의 제어 서비스의 성격을 고려하여 대표 사물성격 모델을 설정한다. UI관리부(154)는 16개의 사물성격 유형에 PCA(personal contextual assistants)화 및 사물의 지능화와의 관련도를 기준으로 점수를 부여하여 그룹핑한 이후에 AHP(analytic hierarchy process)분석 방법을 적용한다. 이를 통해, UI관리부(154)는 16가지의 사물성격 유형을 3개의 그룹으로 그룹핑하고, 각 그룹에서 대표 사물성격의 모델을 각각 설정한다. 예컨대, 각 그룹에서 IoT환경 내에서 댁내에 구비된 단말들의 제어 서비스의 성격을 고려하여 설정된 대표 사물성격의 모델을 설정한다.The UI management unit 154 sets a representative object personality model in consideration of the characteristics of the service to be provided to the user, that is, the control service of terminals provided in the home in the IoT environment. The UI management unit 154 applies an analytic hierarchy process (AHP) analysis method after grouping by assigning scores based on the degree of relevance to personalized contextual assistants (PCA) and intelligence of objects to 16 types of object personalities. Through this, the UI management unit 154 groups 16 types of object personalities into three groups, and sets a model of a representative object personality in each group. For example, in each group, a model of representative object personality set in consideration of the characteristics of the control service of terminals provided in the home in the IoT environment is set.

UI관리부(154)는 설정된 대표 사물성격 모델에 대응되는 페르소나를 생성한다. 보다 구체적으로, UI관리부(154)는 설정된 대표 사물성격의 모델 각각의 특징을 확인하고, 확인된 특징을 필요로 하는 가상의 사용자를 페르소나로 생성할 수 있다. UI관리부(154)는 사용자 인터페이스를 설계한다. 이때, UI관리부(154)는 설정된 시나리오와 생성된 대표 사물성격의 모델을 경우의 수로 조합한 만큼의 사용자 인터페이스를 설계한다. The UI management unit 154 generates a persona corresponding to the set representative object personality model. More specifically, the UI management unit 154 may check the characteristics of each model of the representative representative personality, and generate a virtual user in persona that needs the identified characteristics. The UI management unit 154 designs a user interface. At this time, the UI management unit 154 designs the user interface as much as a combination of the set scenario and the generated representative object personality model in the number of cases.

프로토타이핑부(155)는 UI관리부(154)에서 설계된 사용자 인터페이스의 프로토타입을 구현하고, 프로토타이핑부(155)는 구현된 프로토타입의 검증을 수행한다. 프로토타이핑부(155)는 사용자가 사용하는 스마트 폰, 태블릿 PC 등의 사용자 단말에서 댁내에 위치한 단말들을 관리할 수 있도록 프로토타입을 구현할 수 있다. The prototyping unit 155 implements a prototype of a user interface designed by the UI management unit 154, and the prototyping unit 155 performs verification of the implemented prototype. The prototyping unit 155 may implement a prototype to manage terminals located in the home from a user terminal such as a smart phone or tablet PC used by the user.

도 2는 본 발명의 실시 예에 따른 사물성격에 따른 사용자 인터페이스를 설계하는 방법을 설명하기 위한 순서도이다. 2 is a flowchart illustrating a method of designing a user interface according to an object personality according to an embodiment of the present invention.

도 2를 참조하면, 201단계에서 제어부(150)에 포함된 프레임워크관리부(153)는 프레임워크를 제작한다. 이를 위해, 통신부(110)는 프레임워크 제작을 위해 사용되는 복수의 단말(미도시)에서 센싱된 센싱 데이터를 수신한다. 이때, 복수의 단말은 댁내에 위치한 복수의 단말일 수 있고, 프레임워크 제작을 위해 임시로 설치한 단말일 수 있다. 아울러, 복수의 단말은, 보안 카메라, 보안 센서, 도어락, 멀티탭, 에어컨, 공기청정기 등 전자장치(100)와의 통신이 가능한 단말일 수 있다. Referring to FIG. 2, in step 201, the framework management unit 153 included in the controller 150 manufactures a framework. To this end, the communication unit 110 receives sensing data sensed by a plurality of terminals (not shown) used for framework creation. At this time, the plurality of terminals may be a plurality of terminals located in the home, or may be a terminal temporarily installed for framework production. In addition, the plurality of terminals may be terminals capable of communication with the electronic device 100 such as a security camera, a security sensor, a door lock, a multi-tap, an air conditioner, and an air purifier.

제어부(150)에 포함된 데이터수집부(151)는 통신부(110)를 통해 수신된 센싱 데이터를 수집하여 분석부(152)로 제공한다. 제어부(150)에 포함된 분석부(152)는 센싱 데이터의 분석을 통해 복수의 단말 각각의 동작을 확인하고, 확인된 결과를 프레임워크관리부(153)로 제공한다. 프레임워크관리부(153)는 확인된 결과를 기반으로 복수의 단말 각각에 대한 사물성격을 정의하고, 정의된 사물성격을 기준으로 도 3과 같은 프레임워크를 제작한다. 도 3은 본 발명의 실시 예에 따른 사물성격을 분류하기 위한 프레임워크를 설명하기 위한 도면이다. The data collection unit 151 included in the control unit 150 collects the sensing data received through the communication unit 110 and provides it to the analysis unit 152. The analysis unit 152 included in the control unit 150 confirms the operation of each of the plurality of terminals through analysis of the sensing data, and provides the confirmed result to the framework management unit 153. The framework management unit 153 defines object personalities for each of a plurality of terminals based on the confirmed result, and manufactures a framework as shown in FIG. 3 based on the defined object personalities. 3 is a view for explaining a framework for classifying object personalities according to an embodiment of the present invention.

도 3을 참조하면, 프레임워크관리부(153)는 복수의 단말 각각의 동작을 확인한 결과를 기반으로, 각각의 단말이 갖는 사물성격을 분류하기 위한 프레임워크를 제작한다. 예컨대, 복수의 단말이 공기청정기인 A단말, A단말과 제조사가 상이한 공기청정기인 B단말, 인공지능 헤드셋인 C단말 및 보안 카메라인 D단말이라고 한다. 각 단말로부터 수신된 센싱 데이터 분석결과, A단말은 현재 획득되는 센싱 데이터에 집중하고, B단말이 획득된 센싱 데이터를 기반으로 사용자의 행동 패턴과 B단말의 조작 패턴 등의 패턴 확인에 집중한다면, 프레임워크관리부(153)는 센싱 데이터의 구성 방식을 데이터 수집형과 데이터 구성형으로 나눌 수 있다. 또한, A단말이 센싱 데이터에 따라 디스플레이의 색 변화, 음악 변화 등의 동작을 수행하고, B단말이 센싱 데이터를 수치적으로 제공하는 동작을 수행한다면, 프레임워크관리부(153)는 센싱 데이터의 정의 방식을 감성형과 사실형으로 나눌 수 있다. 이를 통해, 프레임워크관리부(153)는 센싱 데이터의 구성 방식과 센싱 데이터의 정의 방식을 내부적 정체성의 구성 요인으로 확인한다. Referring to FIG. 3, the framework management unit 153 builds a framework for classifying object personalities of each terminal based on a result of confirming the operation of each of the plurality of terminals. For example, a plurality of terminals are referred to as the air purifier A terminal, the terminal A and the air purifier B terminal different from the manufacturer, the artificial intelligence headset C terminal and the security camera D terminal. As a result of analyzing the sensing data received from each terminal, terminal A focuses on the currently acquired sensing data, and if the terminal B focuses on the user's behavior pattern and B pattern manipulation pattern based on the acquired sensing data, The framework management unit 153 may divide the configuration method of sensing data into a data collection type and a data configuration type. In addition, if the terminal A performs an operation such as a color change or a music change of the display according to the sensing data, and the terminal B performs an operation for numerically providing the sensing data, the framework management unit 153 defines the sensing data. The method can be divided into emotional type and fact type. Through this, the framework management unit 153 checks the configuration method of the sensing data and the definition method of the sensing data as constituent elements of the internal identity.

아울러, C단말은 센싱 데이터를 기반으로 사용자의 개입 없이 사용자에게 제공하는 서비스의 종류를 주도적으로 제어하고, D단말은 센싱 데이터에 따라 사용자로부터 제어 신호를 입력받아 서비스의 제공을 수행한다면, 프레임워크관리부(153)는 센싱 데이터를 기반으로 하는 서비스의 제어 방식을 능동형과 물음형으로 나눌 수 있다. 또한, C단말이 활발한 톤으로 사용자에게 센싱 데이터에 대한 정보를 잦은 횟수로 전달하고, D단말이 차분한 톤으로 사용자에게 센싱 데이터에 대한 정보를 전달하되, 정보 전달의 횟수가 C단말보다 적다면, 프레임워크관리부(153)는 정보 전달의 방식을 외향형과 내향형으로 나눌 수 있다. 이를 통해, 프레임워크관리부(153)는 서비스의 제어 방식과 정보 전달의 방식을 외부적 행동의 구성 요인으로 확인한다. In addition, C terminal actively controls the type of service provided to the user without user intervention based on the sensing data, and D terminal receives the control signal from the user according to the sensing data to provide the service. The management unit 153 may divide a control method of a service based on sensing data into an active type and a questionable type. In addition, if the C-terminal transmits information about the sensing data to the user with an active tone frequently, and the D-terminal transmits information about the sensing data to the user with a calm tone, but the number of information transmission is less than the C-terminal, The framework management unit 153 may divide the method of information transmission into an outward type and an inward type. Through this, the framework management unit 153 checks the control method of the service and the method of information transmission as components of external actions.

203단계에서 프레임워크관리부(153)는 제작된 프레임워크를 기반으로 복수의 사물성격 유형을 정의한다. 보다 구체적으로, 프레임워크관리부(153)는 201단계에서 제작된 프레임워크에 성격을 나타낼 수 있는 키워드를 대입하여 하기의 표 1과 같은 16가지의 사물성격 유형을 정의한다. 이를 위해, 프레임워크관리부(153)는 내부적 정체성의 구성 요인을 나타내는 그래프의 제1 사분면에 [스마트한 비서], 제2 사분면에 [다정한 비서], 제3 사분면에 [스마트한 전문가], 제4 사분면에 [다정한 전문가]의 키워드를 대입한다. 그리고, 프레임워크관리부(153)는 외부적 행동의 구성 요인을 나타내는 그래프의 제1 사분면에 [핵심적 조작], 제2 사분면에 [디테일한 조작], 제3 사분면에 [핵심적 보고], 제4 사분면에 [디테일한 보고]의 키워드를 대입한다. 아울러, 프레임워크관리부(153)는 프레임워크 및 사물성격 유형을 메모리(140)에 저장한다. In step 203, the framework management unit 153 defines a plurality of object personality types based on the produced framework. More specifically, the framework management unit 153 defines 16 types of object personalities as shown in Table 1 below by substituting keywords that can indicate personality in the framework produced in step 201. To this end, the framework management unit 153 [Smart Secretary] in the first quadrant of the graph representing the constituent elements of the internal identity, [Friendly Secretary] in the second quadrant, [Smart Expert] in the third quadrant, and the fourth Substitute the keyword [affectionate expert] in the quadrant. In addition, the framework management unit 153 includes [core manipulation] in the first quadrant, [detailed manipulation] in the second quadrant, [core reporting] in the third quadrant, and the fourth quadrant in the graph representing the constituent factors of external behavior. Substitute the keyword of [Detailed Report] in. In addition, the framework management unit 153 stores the framework and object personality types in the memory 140.

구성Configuration 유형type 구성Configuration 유형type A-01A-01 [핵심적인 조작]을 하는 [스마트한 비서]정량적이고 객관적인 데이터를 중심으로 미리 설정된 기준에 따라 동작하도록 자동화되어, 수치적 데이터로 최소한의 알림만 제공함[Smart secretary], which performs [core manipulation], is automated to operate according to preset criteria based on quantitative and objective data, providing only minimal notification with numerical data C-01C-01 [핵심적인 조작]을 하는 [스마트한 전문가]
사용자의 패턴을 학습하여 능동적으로 동작하고 최소한의 알림만 수치적 데이터로 보고함
[Smart expert] doing [core manipulation]
Learning the user's pattern to operate actively and reporting only minimal notifications as numerical data
A-02A-02 [디테일한 조작]을 하는 [스마트한 비서]정량적이고 객관적인 데이터를 중심으로 미리 설정된 기준에 따라 자동으로 동작하는 대신, 사용자에게 수치적 데이터를 모두 알려줌[Smart secretary] performing [detailed manipulation] Instead of automatically operating according to preset criteria centered on quantitative and objective data, it informs the user of all numerical data C-02C-02 [디테일한 조작]을 하는 [스마트한 전문가]
사용자의 패턴을 학습하여 능동적으로 동작하고 매 상황을 수치적 데이터로 보고함
[Smart expert] doing [detailed manipulation]
Learning the user's pattern to operate actively and reporting each situation as numerical data
A-03A-03 [핵심적인 보고]를 하는 [스마트한 비서]정량적이고 객관적인 데이터를 중심으로 조작이 필요한 상황에는 사용자에게 수치적 데이터로 보고해 판단을 요구함[Smart secretary] who does [critical reporting] In situations where manipulation is needed based on quantitative and objective data, it is reported to the user as numerical data and requires judgment C-03C-03 [핵심적인 보고]를 하는 [스마트한 전문가]
사용자의 패턴을 학습하여 사용자의 조작이 필요한 상황에 수치적 데이터로 보고해 조작을 유도함
[Smart Expert] with [Key Reports]
Learning the user's pattern and inducing the manipulation by reporting it as numerical data in situations where the user's manipulation is needed
A-04A-04 [디테일한 보고]를 하는 [스마트한 비서]정량적이고 객관적인 데이터를 중심으로 사용자에게 매 상황을 수치적 데이터로 보고하고 사용자의 판단을 요구함[Smart secretary] who performs [detailed reporting] Reports each situation as numerical data to the user, focusing on quantitative and objective data, and requires user judgment C-04C-04 [디테일한 보고]를 하는 [스마트한 전문가]
사용자의 패턴을 학습하여 사용자에게 매 순간을 수치적 데이터로 보고하고 허락을 구함
[Smart Expert] with [Detailed Report]
Learning the user's pattern, reporting every moment to the user as numerical data and asking permission
B-01B-01 [핵심적인 조작]을 하는 [다정한 비서]측정된 데이터를 중심으로 미리 설정된 기준에 따라 자동으로 동작하여 사용자에게는 감성적인 표현으로 최소환의 알림만 제공함[Friendly secretary], who performs [core manipulation], automatically operates according to preset criteria based on the measured data, and provides the user with only a minimalistic notification with emotional expression D-01D-01 [핵심적인 조작]을 하는 [다정한 전문가]
사용자의 패턴을 학습하여 능동적으로 동작하고 최소한의 알림만 감성적 표현으로 전달함
[Friendly expert] doing [core manipulation]
Learning the user's pattern and operating it actively and delivering only minimal notifications in emotional expression
B-02B-02 [디테일한 조작]을 하는 [다정한 비서]측정된 데이터를 중심으로 미리 설정된 기준에 따라 자동으로 동작하여 사용자에게는 감성적인 표현으로 매 상황을 알려줌[Friendly secretary] performing [detailed manipulation] Automatically operates according to preset criteria based on measured data to inform the user of each situation with emotional expression D-02D-02 [디테일한 조작]을 하는 [다정한 전문가]
사용자의 패턴을 학습하여 능동적으로 동작하며 매 순간을 감성적 표현으로 전달함
[Friendly expert] doing [detailed manipulation]
It learns the user's pattern and works actively, delivering every moment as an emotional expression.
B-03B-03 [핵심적인 보고]를 하는 [다정한 비서]측정된 데이터를 중심으로 조작이 필요한 상황에서 사용자에게 감성적 표현으로 전달해 조작을 유도함[Friendly secretary] who does [critical reporting] Induces manipulation by delivering emotional expressions to the user in situations where manipulation is needed based on measured data D-03D-03 [핵심적인 보고]를 하는 [다정한 전문가]
사용자의 패턴을 학습하여 사용자의 조작이 필요한 상황에 감성적 표현으로 전달하여 조작을 유도함
[Friendly Experts] Doing [Key Reports]
Learning the user's pattern and inducing the manipulation by conveying it in an emotional expression to the situation that requires the user's manipulation
B-04B-04 [디테일한 보고]를 하는 [다정한 비서]측정된 데이터를 중심으로 사용자에게 매 상황을 감성적 표현으로 전달하고 사용자의 판단을 요구함[Friendly secretary] who does [detailed reporting] focuses on the measured data and conveys each situation to the user in an emotional expression and requests the user's judgment D-04D-04 [디테일한 보고]를 하는 [다정한 전문가]
사용자의 패턴을 학습하여 매 순간 사용자에게 감성적 표현으로 보고하고 허락을 구함
[Friendly Experts] Doing [Detailed Reporting]
Learning the user's pattern and reporting it to the user with emotional expression every moment and asking permission

이어서, 205단계에서 제어부(150)에 포함된 UI관리부(154)는 사용자 인터페이스를 설계하기 위한 서비스와 프로토타입의 구현 및 검증을 수행하기 위한 시나리오를 설정한다. 즉, UI관리부(154)는 사용자 인터페이스를 설계하기 위한 서비스로 IoT환경 내에서 댁내에 구비된 단말들의 제어 서비스를 설정할 수 있고, 제어 서비스의 특징과 프로토타이핑을 진행할 시나리오로 "외출 전", "외출 중", "귀가 전"과 같은 시나리오를 각각 제1 시나리오, 제2 시나리오 및 제3 시나리오로 설정할 수 있다. 아울러, 본 발명의 실시 예에서 설명하고 있는 사용자 인터페이스를 설계하기 위해 설정하는 서비스 및 서비스와 관련된 시나리오는 사용자에 의해 변경 적용이 가능함을 명확히 하는 바이다. Subsequently, in step 205, the UI management unit 154 included in the control unit 150 sets a scenario for implementing and verifying a service and prototype for designing a user interface. That is, the UI management unit 154 is a service for designing a user interface, and can set a control service of terminals provided in the home in the IoT environment, and is a scenario in which the control service characteristics and prototyping are performed. Scenarios such as "going out" and "before returning home" may be set as a first scenario, a second scenario, and a third scenario, respectively. In addition, it is clear that a service and a scenario related to a service set to design a user interface described in an embodiment of the present invention can be applied by a user.

205단계에서 시나리오가 설정되면, UI관리부(154)는 207단계를 수행한다. 207단계에서 UI관리부(154)는 대표 사물성격의 모델을 설정한다. 보다 구체적으로, UI관리부(154)는 사용자에게 제공하고자 하는 서비스 즉, IoT환경 내에서 댁내에 구비된 단말들의 제어 서비스의 성격을 고려하여 대표 사물성격 모델을 설정한다. UI관리부(154)는 203단계에서 정의된 16개의 사물성격 유형에 PCA(personal contextual assistants)화 및 사물의 지능화와의 관련도를 기준으로 점수를 부여하여 그룹핑한 이후에 AHP(analytic hierarchy process)분석 방법을 적용한다. 이를 통해, UI관리부(154)는 16가지의 사물성격 유형을 3개의 그룹으로 그룹핑하고, 각 그룹에서 대표 사물성격의 모델을 각각 설정한다. 예컨대, 각 그룹에서 IoT환경 내에서 댁내에 구비된 단말들의 제어 서비스의 성격을 고려하여 설정된 대표 사물성격의 모델은 표 1의 A-03, B-02, D-01일 수 있다.If the scenario is set in step 205, the UI management unit 154 performs step 207. In step 207, the UI management unit 154 sets a model of a representative object personality. More specifically, the UI management unit 154 sets a representative object personality model in consideration of the characteristics of the service to be provided to the user, that is, the control service of terminals provided in the home in the IoT environment. The UI management unit 154 analyzes the analytic hierarchy process (AHP) after grouping by assigning scores based on the relationship between personalized contextual assistants (PCA) and intelligence of objects to the 16 object personality types defined in step 203. Method is applied. Through this, the UI management unit 154 groups 16 types of object personalities into three groups, and sets a model of a representative object personality in each group. For example, the representative object personality model set in consideration of the characteristics of the control service of terminals provided in the home in the IoT environment in each group may be A-03, B-02, D-01 of Table 1.

209단계에서 UI관리부(154)는 설정된 대표 사물성격 모델에 대응되는 페르소나를 생성한다. 보다 구체적으로, UI관리부(154)는 설정된 대표 사물성격의 모델 각각의 특징을 확인하고, 확인된 특징을 필요로 하는 가상의 사용자를 설정한다. 대표 사물성격 모델이 A-03을 예로 설명하면, A-03은 [핵심적인 보고]를 하는 [스마트한 비서]로, 정량적이고 객관적인 데이터를 중심으로 조작이 필요한 상황에는 사용자에게 수치적 데이터로 보고해 판단을 요구하는 특징을 갖고 있다. 따라서, UI관리부(154)는 A-03에 해당하는 [핵심적인 보고]를 하는 [스마트한 비서]를 사용하기 적합한 사용자를 가상으로 설정할 수 있다. 예컨대, UI관리부(154)는 기기가 나의 모든 데이터를 알고 있는 것에 대해 거부감을 느끼는 43세의 프리랜서 여성을 가상의 사용자로 설정할 수 있다. 이와 같이, UI관리부(154)는 A-03, B-02, D-01에 해당하는 각각의 페르소나를 생성할 수 있으며, 이는 하기의 도 4a 내지 도 4c를 이용하여 상세히 설명하기로 한다. In step 209, the UI management unit 154 generates a persona corresponding to the representative representative personality model. More specifically, the UI management unit 154 checks each feature of the model of the representative representative personality and sets a virtual user who needs the identified feature. If the representative object personality model describes A-03 as an example, A-03 is a [smart secretary] that performs [critical reporting], and reports to the user as numerical data when manipulation is needed based on quantitative and objective data. It has characteristics that require judgment. Accordingly, the UI management unit 154 can virtually set a user suitable for using [smart secretary] for [core report] corresponding to A-03. For example, the UI management unit 154 may set a 43-year-old freelance woman who feels rejected by the device to know all my data as a virtual user. As described above, the UI management unit 154 may generate respective personas corresponding to A-03, B-02, and D-01, which will be described in detail with reference to FIGS. 4A to 4C below.

211단계에서 UI관리부(154)는 사용자 인터페이스를 설계한다. 이때, UI관리부(154)는 세 가지의 시나리오와 세 개의 대표 사물성격의 모델을 경우의 수로 조합한 만큼의 사용자 인터페이스를 설계한다. 즉, UI관리부(154)는 총 9개의 사용자 인터페이스를 설계할 수 있으며, 이는 하기의 도 5 내지 도 7을 이용하여 상세히 설명하기로 한다. In step 211, the UI management unit 154 designs the user interface. At this time, the UI management unit 154 designes a user interface that combines three scenarios and three representative object personality models in a number of cases. That is, the UI management unit 154 can design a total of nine user interfaces, which will be described in detail with reference to FIGS. 5 to 7 below.

213단계에서 제어부(150)에 포함된 프로토타이핑부(155)는 UI관리부(154)에서 설계된 사용자 인터페이스의 프로토타입을 구현하고, 215단계에서 프로토타이핑부(155)는 구현된 프로토타입의 검증을 수행한다. 프로토타이핑부(155)는 사용자가 사용하는 스마트 폰, 태블릿 PC 등의 사용자 단말에서 댁내에 위치한 단말들을 관리할 수 있도록 프로토타입을 구현할 수 있으며, 이는 하기의 도 8을 이용하여 상세히 설명하기로 한다. In step 213, the prototyping unit 155 included in the control unit 150 implements a prototype of the user interface designed in the UI management unit 154, and in step 215, the prototyping unit 155 performs verification of the implemented prototype. Perform. The prototyping unit 155 may implement a prototype to manage terminals located in the home from a user terminal such as a smart phone or tablet PC used by the user, which will be described in detail with reference to FIG. 8 below. .

도 4a 내지 도 4c는 본 발명의 실시 예에 따른 대표 사물성격에 페르소나를 생성하는 방법을 설명하기 위한 도면이다. 4A to 4C are diagrams illustrating a method of generating a persona in a representative personality according to an embodiment of the present invention.

도 4a 내지 도 4c를 참조하면, 도 4a는 대표 사물성격 모델이 A-03인 경우에 설정된 페르소나에 대한 정보, 도 4b는 대표 사물성격 모델이 B-02인 경우에 설정된 페르소나에 대한 정보 및 도 4c는 대표 사물성격 모델이 D-01인 경우에 설정된 페르소나에 대한 정보이다. 4A to 4C, FIG. 4A shows information about a persona set when the representative object personality model is A-03, and FIG. 4B shows information and a persona set when the representative object personality model is B-02. 4c is information about a persona set when the representative object personality model is D-01.

UI관리부(154)는 페르소나를 설정한 이후에 도 4a 내지 도 4c와 같이 표시부(130)에 설정된 페르소나에 대하여 표시할 수 있다. 표시부(130)에 표시되는 페르소나 화면(400a, 400b, 400c)은 그래프 형태로 대표 사물성격의 모델을 표시하는 그래프영역(410a, 410b, 410c), 대표 사물성격의 모델의 특징을 필요로 하는 가상의 사용자에 대한 기본 정보를 표시하는 기본정보영역(420a, 420b, 420c) 및 사용자에 대한 성향을 상세히 표시하는 상세정보영역(430a, 430b, 430c)를 포함한다. 이때, 기본정보영역(420a, 420b, 420c)과 상세정보영역(430a, 430b, 430c)에 표시되는 데이터는 메모리(140)에 기저장될 수 있다. After setting the persona, the UI management unit 154 can display the persona set in the display unit 130 as shown in FIGS. 4A to 4C. The persona screens 400a, 400b, and 400c displayed on the display unit 130 are graph regions 410a, 410b, 410c displaying models of representative object personalities in a graph form, and virtual requiring characteristics of models of representative object personalities. It includes a basic information area (420a, 420b, 420c) for displaying basic information about the user and a detailed information area (430a, 430b, 430c) for displaying the propensity for the user in detail. At this time, data displayed in the basic information areas 420a, 420b, and 420c and the detailed information areas 430a, 430b, and 430c may be pre-stored in the memory 140.

UI관리부(154)는 A-03에 해당하는 [핵심적인 보고]를 하는 [스마트한 비서]를 사용하기 적합한 사용자로 43세의 프리랜서 여성을 가상으로 설정할 수 있다. 즉, UI관리부(154)는 기기가 나의 모든 데이터를 알고 있는 것에 대해 거부감을 느끼는 성향을 기반으로 A-03을 사용하기 적합한 것으로 확인할 수 있다. The UI management unit 154 can virtually set a 43-year-old freelancer woman as a user suitable for using [smart secretary] for [core report] corresponding to A-03. That is, the UI management unit 154 can confirm that the device is suitable for using the A-03 based on the tendency to feel rejected for knowing all my data.

또한, UI관리부(154)는 B-02에 해당하는 [디테일한 보고]를 하는 [다정한 비서]를 사용하기 적합한 사용자로28세의 개발자 여성을 가상으로 설정할 수 있다. 즉, UI관리부(154)는 많은 기기의 상황에 관심이 많고 다양한 정보에 호기심을 느끼는 성향을 기반으로 B-02를 사용하기 적합한 것으로 확인할 수 있다. In addition, the UI manager 154 can virtually set a 28-year-old developer woman as a user suitable for using [Friendly Assistant] who performs [Detailed Reporting] corresponding to B-02. That is, the UI management unit 154 can confirm that it is suitable to use B-02 based on the tendency to be interested in the situation of many devices and to be curious about various information.

또한, UI관리부(154)는 D-01에 해당하는 [핵심적인 조작]을 하는 [다정한 전문가]를 사용하기 적합한 사용자로 36세의 직장인 여성을 가상으로 설정할 수 있다. 즉, UI관리부(154)는 많은 기기의 상황에 관심이 많고 다양한 정보에 호기심을 느끼는 성향을 기반으로 D-01을 사용하기에 적합한 것으로 확인할 수 있다. In addition, the UI management unit 154 is a user suitable for using [Friendly Experts] who perform [core manipulation] corresponding to D-01 and can virtually set a 36-year-old office worker woman. That is, the UI management unit 154 can confirm that it is suitable to use D-01 based on the tendency to be interested in the situation of many devices and to be curious about various information.

도 5는 본 발명의 실시 예에 따른 제1 시나리오를 기반으로 설계된 사용자 인터페이스에 대한 화면예시도이다. 도 5에 표시된 메인화면(500)은 도 2에서 설정된 세 개의 시나리오 중 제1 시나리오에 세 개의 대표 사물성격 모델 중에서 첫 번째 대표 사물성격 모델인 A-03을 조합하여 설계한 사용자 인터페이스를 나타낸다.5 is a screen example of a user interface designed based on a first scenario according to an embodiment of the present invention. The main screen 500 shown in FIG. 5 represents the user interface designed by combining the first representative object personality model A-03 among the three representative object personality models in the first scenario among the three scenarios set in FIG. 2.

도 5를 참조하면, 사용자 인터페이스의 메인화면(500)은 제1 영역(510) 내지 제7 영역(570)을 포함하여 구성될 수 있다. 제1 영역(510)에는 그래프 형태로 대표 사물성격 모델이 A-03임이 표시된다. 제2 영역(520)에는 "외출 시 집안환경 제어"와 같이 사용자의 외출에 따라 집안 환경을 외출상태에 맞게 컨트롤하는 상황에 대한 설명이 표시된다. 제3 영역(530)에는 A-03의 유형인 [핵심적인 보고]를 하는 [스마트한 비서]가 표시된다. Referring to FIG. 5, the main screen 500 of the user interface may include first areas 510 to seventh areas 570. In the first area 510, it is indicated that the representative object personality model is A-03 in a graph form. In the second area 520, a description of a situation in which the home environment is controlled according to the outing state according to a user's going out is displayed, such as "control of the home environment when going out." In the third area 530, [smart secretary] that performs [core report], which is the type of A-03, is displayed.

제4 영역(540)에는 외출 시 집안환경을 제어하기 위해 사용자에게 알림을 제공해야 하는 동작이 포함하도록 설계될 수 있다. 예컨대, A-03은 핵심적인 보고를 하는 스마트한 비서이므로, "타임라인", "상태업데이트", "외출모드 추가", "외출모드 적용" 및 "외출모드 동작 중"의 동작마다 알림을 제공하도록 설계될 수 있다. 제5 영역(550)에는 사용자에게 알림을 제공해야 할 때 사용자 단말(미도시)에 표시해야 하는 사용자 UI가 배치 및 표시된다. 제5 영역(550)에 배치 및 표시되는 사용자 UI는 제4 영역(540)에 표시된 동작인 "타임라인", "상태업데이트", "외출모드 추가", "외출모드 적용" 및 "외출모드 동작 중" 과 대응되는 사용자 UI인 것이 바람직하다. The fourth area 540 may be designed to include an operation of providing a notification to a user in order to control the house environment when going out. For example, A-03 is a smart secretary that reports critically, so notifications are provided for each operation of "Timeline", "Status Update", "Add Mode", "Apply Mode" and "Out Mode" It can be designed to. In the fifth area 550, when a notification to the user is to be provided, a user UI to be displayed on the user terminal (not shown) is disposed and displayed. The user UI placed and displayed in the fifth area 550 is an operation displayed in the fourth area 540, "timeline", "status update", "adding outgoing mode", "applying outgoing mode" and "outgoing mode operation" It is preferably a user UI corresponding to "Middle".

제6 영역(560)에는 사용자의 행동에 따라 허브 단말인 전자장치(100) 및 전자장치(100)에 연결된 서브 단말을 제어하는 시점이 표시된다. 제7 영역(570)에는 서브 단말과 관련된 아이콘이 표시된다. 이때, 제7 영역(570)에는 서브 단말의 상태 변화에 따른 아이콘의 변화 상태가 표시될 수 있다. In the sixth area 560, a time point for controlling the electronic device 100 as a hub terminal and a sub terminal connected to the electronic device 100 is displayed according to a user's action. An icon related to the sub terminal is displayed on the seventh area 570. At this time, a change state of an icon according to a state change of the sub terminal may be displayed on the seventh area 570.

도 6은 본 발명의 실시 예에 따른 제1 시나리오를 기반으로 설계된 사용자 인터페이스에 대한 화면예시도이다. 도 6에 표시된 메인화면(600)은 도 2에서 설정된 세 개의 시나리오 중 제1 시나리오에 세 개의 대표 사물성격 모델 중에서 두 번째 대표 사물성격 모델인 B-02를 조합하여 설계한 사용자 인터페이스를 나타낸다.6 is a screen example of a user interface designed based on a first scenario according to an embodiment of the present invention. The main screen 600 shown in FIG. 6 represents a user interface designed by combining the second representative object personality model B-02 among the three representative object personality models in the first scenario among the three scenarios set in FIG. 2.

도 6을 참조하면, 사용자 인터페이스의 메인화면(600)은 제1 영역(610) 내지 제7 영역(670)을 포함하여 구성될 수 있다. 제1 영역(610)에는 그래프 형태로 대표 사물성격 모델이 B-02임이 표시된다. 제2 영역(620)에는 "외출 시 집안환경 제어"와 같이 사용자의 외출에 따라 집안 환경을 외출상태에 맞게 컨트롤하는 상황에 대한 설명이 표시된다. 제3 영역(630)에는 B-02의 유형인 [디테일한 보고]를 하는 [다정한 비서]가 표시된다. Referring to FIG. 6, the main screen 600 of the user interface may include first areas 610 to seventh areas 670. In the first area 610, it is indicated that the representative object personality model is B-02 in a graph form. In the second area 620, a description of a situation in which the home environment is controlled according to the outing state according to a user's going out is displayed, such as "control of the home environment when going out." In the third area 630, [Friendly Secretary], which is a type of B-02, [Detailed Report] is displayed.

제4 영역(640)에는 외출 시 집안환경을 제어하기 위해 사용자에게 알림을 제공해야 하는 동작이 포함하도록 설계될 수 있다. 예컨대, B-02는 디테일한 보고를 하는 다정한 비서이므로, "외출모드 적용 권유", "외출모드 추가", "외출모드 적용", "외출모드 동작 중" 및 "디바이스 상태 안내" 와 같이 외출 시에 집안환경을 제어하기 위해 필요한 동작마다 알림을 제공하도록 설계될 수 있다. 제5 영역(650)에는 사용자에게 알림을 제공해야 할 때 사용자 단말(미도시)에 표시해야 하는 사용자 UI가 배치 및 표시된다. 제5 영역(650)에 배치 및 표시되는 사용자 UI는 제4 영역(640)에 표시된 동작인 "외출모드 적용 권유", "외출모드 추가", "외출모드 적용", "외출모드 동작 중" 및 "디바이스 상태 안내" 와 대응되는 사용자 UI인 것이 바람직하다. The fourth area 640 may be designed to include an operation of providing a notification to a user in order to control the house environment when going out. For example, B-02 is a friendly secretary who reports in detail, so when going out, such as "recommended to go out mode", "added out mode", "applied out mode", "in operation of out mode" and "information of device status" It can be designed to provide notifications for each action required to control the house environment. In the fifth area 650, a user UI to be displayed on a user terminal (not shown) is disposed and displayed when a notification must be provided to the user. The user UI disposed and displayed in the fifth area 650 includes the operations indicated in the fourth area 640, "recommended to apply the outing mode", "add the outing mode", "applying the outing mode", "in the outing mode operation" and It is preferably a user UI corresponding to "device status guide".

제6 영역(660)에는 사용자의 행동에 따라 허브 단말인 전자장치(100) 및 전자장치(100)에 연결된 서브 단말을 제어하는 시점이 표시된다. 제7 영역(670)에는 서브 단말과 관련된 아이콘이 표시된다. 이때, 제7 영역(670)에는 서브 단말의 상태 변화에 따른 아이콘의 변화 상태가 표시될 수 있다. In the sixth area 660, a time point for controlling the electronic device 100 as a hub terminal and a sub terminal connected to the electronic device 100 is displayed according to a user's action. An icon related to the sub terminal is displayed in the seventh area 670. At this time, a change state of an icon according to a state change of the sub terminal may be displayed on the seventh area 670.

도 7은 본 발명의 실시 예에 따른 제3 시나리오를 기반으로 설계된 사용자 인터페이스에 대한 화면예시도이다. 도 7에 표시된 메인화면(700)은 도 2에서 설정된 세 개의 시나리오 중 제1 시나리오에 세 개의 대표 사물성격 모델 중에서 세 번째 대표 사물성격 모델인 D-01를 조합하여 설계한 사용자 인터페이스를 나타낸다.7 is a screen example of a user interface designed based on a third scenario according to an embodiment of the present invention. The main screen 700 shown in FIG. 7 represents a user interface designed by combining D-01, which is the third representative object personality model, among the three representative object personality models in the first scenario among the three scenarios set in FIG. 2.

도 7을 참조하면, 사용자 인터페이스의 메인화면(700)은 제1 영역(710) 내지 제7 영역(770)을 포함하여 구성될 수 있다. 제1 영역(710)에는 그래프 형태로 대표 사물성격 모델이 D-01임이 표시된다. 제2 영역(720)에는 "외출 시 집안환경 제어"와 같이 사용자의 외출에 따라 집안 환경을 외출상태에 맞게 컨트롤하는 상황에 대한 설명이 표시된다. 제3 영역(730)에는 D-01의 유형인 [핵심적인 조작]을 하는 [다정한 전문가]가 표시된다. Referring to FIG. 7, the main screen 700 of the user interface may include first areas 710 to seventh areas 770. In the first area 710, it is displayed that the representative object personality model is D-01 in a graph form. In the second area 720, a description of a situation in which the home environment is controlled according to the outing state according to the user's going out is displayed, such as "control of the home environment when going out." In the third region 730, [Friendly Expert] who performs [core manipulation], which is a type of D-01, is displayed.

제4 영역(740)에는 외출 시 집안환경을 제어하기 위해 사용자에게 알림을 제공해야 하는 동작이 포함하도록 설계될 수 있다. 예컨대, D-01은 핵심적인 조작을 하는 다정한 전문가이므로, "외출모드 적용 알림" 및 "외출모드 동작 중"과 같이 외출 시에 집안환경을 제어하기 위해 필요한 동작마다 알림을 제공하도록 설계될 수 있다. 제5 영역(750)에는 사용자에게 알림을 제공해야 할 때 사용자 단말(미도시)에 표시해야 하는 사용자 UI가 배치 및 표시된다. 제5 영역(750)에 배치 및 표시되는 사용자 UI는 제4 영역(740)에 표시된 동작인 "외출모드 적용 알림" 및 "외출모드 동작 중" 와 대응되는 사용자 UI인 것이 바람직하다. The fourth area 740 may be designed to include an operation of providing a notification to a user in order to control the house environment when going out. For example, since the D-01 is a friendly expert who performs a key operation, it may be designed to provide a notification for every operation required to control the house environment when going out, such as "outgoing mode application notification" and "outgoing mode operation". . In the fifth area 750, a user UI to be displayed on a user terminal (not shown) is disposed and displayed when a notification needs to be provided to the user. The user UI disposed and displayed in the fifth area 750 is preferably a user UI corresponding to the "outgoing mode application notification" and the "outing mode operation" which are the operations displayed in the fourth area 740.

제6 영역(760)에는 사용자의 행동에 따라 허브 단말인 전자장치(100) 및 전자장치(100)에 연결된 서브 단말을 제어하는 시점이 표시된다. 제7 영역(770)에는 서브 단말과 관련된 아이콘이 표시된다. 이때, 제7 영역(770)에는 서브 단말의 상태 변화에 따른 아이콘의 변화 상태가 표시될 수 있다. In the sixth area 760, a time point for controlling the electronic device 100 as a hub terminal and a sub terminal connected to the electronic device 100 is displayed according to a user's action. In the seventh area 770, an icon related to the sub terminal is displayed. At this time, a change state of an icon according to a state change of the sub terminal may be displayed on the seventh area 770.

도 5 내지 도 7에서 확인할 수 있는 것처럼, 동일한 제1 시나리오라도 서로 다른 세 개의 대표 사물성격의 모델을 적용하면 사용자 인터페이스의 설계가 매우 상이해질 수 있다. 따라서, 사물성격에 따른 사용자 인터페이스를 설계할 수 있는 효과가 있다. As can be seen in FIGS. 5 to 7, the design of the user interface may be very different when three different representative object personality models are applied to the same first scenario. Therefore, it is possible to design a user interface according to the personality.

도 8은 본 발명의 실시 예에 따른 사용자 인터페이스를 기반으로 구현된 프로토타입에 대한 화면예시도이다.8 is a screen example of a prototype implemented based on a user interface according to an embodiment of the present invention.

도 8을 참조하면, 도 5 내지 도 7과 같이 사용자 인터페이스가 설계되면, 제어부(150)는 설계된 사용자 인터페이스를 이용하여 도 8과 같은 프로토타입을 구현한다. 이때, 프로토타입은 도 5 내지 도 7에서 설계된 사용자 인터페이스의 제5 영역(550, 650, 750)의 표시된 사용자 UI를 기반으로 구현된 것으로, 특히, 도 8은 도 4 영역(540, 640, 740)에 표시된 외출 시 집안환경을 제어하기 위해 사용자에게 알림을 제공해야 하는 동작 중 "외출모드 동작 중"일 때 사용자 단말(810)로 제공하기 위해 구현된 프로토타입을 나타낸다. Referring to FIG. 8, when the user interface is designed as shown in FIGS. 5 to 7, the control unit 150 implements the prototype shown in FIG. 8 using the designed user interface. In this case, the prototype is implemented based on the displayed user UI of the fifth areas 550, 650, and 750 of the user interface designed in FIGS. 5 to 7, and in particular, FIG. 8 is the area of the FIG. 4 (540, 640, 740). ) Indicates a prototype implemented to be provided to the user terminal 810 when "out of operation" during the operation of providing a notification to the user to control the house environment when going out.

사용자는 사용자 단말(810)에 표시된 UI 프로토타입에서 제어버튼(820, 830, 840, 850)의 조작을 통해 댁내에 설치된 복수의 단말이 제대로 작동이 되는지 확인할 수 있다. 확인결과, 복수의 단말이 제대로 작동되고, 사용자 인터페이스의 수정이 필요하지 않으면 프로토타입의 검증을 완료할 수 있다. The user can check whether a plurality of terminals installed in the home is operating properly through manipulation of the control buttons 820, 830, 840, and 850 in the UI prototype displayed on the user terminal 810. As a result of verification, if a plurality of terminals operate properly and no modification of the user interface is required, verification of the prototype can be completed.

아울러, 제어부(150)는 사용자 단말(810)의 종류를 고려하여 프로토타입을 구현된다. 특히, 사용자 단말(810)은 프로토타입의 검증을 위한 실제 스마트 폰 등의 단말일 수 있고, 전자장치(100)에서 생성한 에뮬레이터 등일 수 있다. 제어부(150)는 프로토타입의 검증을 위해 구현된 프로토타입을 사용자 단말(810)로 전송할 수 있고, 에뮬레이터에 프로토타입을 적용하여 검증을 수행할 수 있다. In addition, the controller 150 implements a prototype in consideration of the type of the user terminal 810. In particular, the user terminal 810 may be a terminal such as an actual smart phone for verification of a prototype, or an emulator generated by the electronic device 100. The controller 150 may transmit the prototype implemented for the verification of the prototype to the user terminal 810, and apply the prototype to the emulator to perform verification.

한편, 본 명세서와 도면에 개시된 본 발명의 실시예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 즉 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.On the other hand, the embodiments of the present invention disclosed in the specification and drawings are merely to provide a specific example to easily explain the technical content of the present invention and to help understand the present invention, and are not intended to limit the scope of the present invention. That is, it is obvious to those skilled in the art to which the present invention pertains that other modified examples based on the technical spirit of the present invention can be implemented.

Claims (13)

복수의 단말의 제어가 필요한 적어도 하나의 시나리오를 설정하는 단계;
기정의된 사물성격 유형 중에서 사용자 인터페이스에 적용하기 위한 적어도 하나의 대표 사물성격을 설정하는 단계;
상기 시나리오와 상기 대표 사물성격을 기반으로 상기 사용자 인터페이스를 설계하는 단계; 및
상기 사용자 인터페이스에 대한 프로토타입을 구현하여 검증을 수행하는 단계;
를 포함하는 것을 특징으로 하는 사용자 인터페이스 설계방법.
Setting at least one scenario requiring control of a plurality of terminals;
Setting at least one representative object personality for application to a user interface among predefined object personality types;
Designing the user interface based on the scenario and the representative personality; And
Performing a verification by implementing a prototype for the user interface;
User interface design method comprising a.
제1항에 있어서,
상기 프로토타입을 구현하여 검증을 수행하는 단계는,
상기 프로토타입을 이용한 상기 복수의 단말의 제어결과를 기반으로 상기 프로토타입의 검증을 수행하는 단계인 것을 특징으로 하는 사용자 인터페이스 설계방법.
According to claim 1,
Step of implementing the prototype to perform the verification,
User interface design method characterized in that the step of performing the verification of the prototype based on the control results of the plurality of terminals using the prototype.
제2항에 있어서,
상기 사용자 인터페이스를 설계하는 단계는,
상기 시나리오와 상기 대표 사물성격에 대한 경우의 수로 조합하여 상기 조합된 수만큼 상기 사용자 인터페이스를 설계하는 단계인 것을 특징으로 하는 사용자 인터페이스 설계 방법.
According to claim 2,
Designing the user interface comprises:
And designing the user interface as many as the combined number by combining the scenario and the number of cases for the representative object personality.
제3항에 있어서,
상기 대표 사물성격을 설정하는 단계 이후에,
상기 대표 사물성격에 대한 페르소나를 생성하는 단계;
를 더 포함하는 것을 특징으로 하는 사용자 인터페이스 설계 방법.
According to claim 3,
After the step of setting the representative object personality,
Generating a persona for the representative personality;
User interface design method further comprising a.
제4항에 있어서,
상기 시나리오를 설정하는 단계 이전에,
복수의 단말에 대한 사물성격을 분류하기 위한 프레임워크를 제작하는 단계; 및
상기 프레임워크를 기반으로 복수의 사물성격 유형을 정의하는 단계;
를 더 포함하는 것을 특징으로 하는 사용자 인터페이스 설계방법.
According to claim 4,
Before the step of setting the above scenario,
Creating a framework for classifying object personalities for a plurality of terminals; And
Defining a plurality of object personality types based on the framework;
User interface design method further comprising a.
제5항에 있어서,
상기 프레임워크를 제작하는 단계는,
상기 복수의 단말에서 수신되는 센싱 데이터를 분석을 통해 상기 복수의 단말 각각의 동작을 확인하는 단계;
상기 확인된 동작을 기반으로 상기 복수의 단말 각각에 대한 사물성격을 정의하는 단계; 및
상기 정의된 사물성격을 기준으로 상기 프레임워크를 제작하는 단계;
를 포함하는 것을 특징으로 하는 사용자 인터페이스 설계 방법.
The method of claim 5,
The step of producing the framework,
Confirming the operation of each of the plurality of terminals through analysis of sensing data received from the plurality of terminals;
Defining an object personality for each of the plurality of terminals based on the identified operation; And
Producing the framework based on the defined object personality;
User interface design method comprising a.
복수의 단말의 제어가 필요한 적어도 하나의 시나리오를 설정하고, 기정의된 사물성격 유형 중에서 사용자 인터페이스에 적용하기 위한 적어도 하나의 대표 사물성격을 설정하고, 상기 시나리오와 상기 대표 사물성격을 기반으로 상기 사용자 인터페이스를 설계하는 사용자 인터페이스 관리부; 및
상기 사용자 인터페이스의 프로토타입을 구현하여 검증을 수행하는 프로토타이핑부;
를 포함하는 것을 특징으로 하는 사용자 인터페이스를 설계하는 전자장치.
Set at least one scenario that requires control of a plurality of terminals, set at least one representative object personality to apply to a user interface among predefined types of object personalities, and set the user based on the scenario and the representative object personality A user interface management unit for designing an interface; And
A prototyping unit that implements a prototype of the user interface to perform verification;
An electronic device for designing a user interface comprising a.
제7항에 있어서,
상기 프로토타이핑부는,
상기 프로토타입을 이용한 상기 복수의 단말의 제어결과를 기반으로 상기 프로토타입의 검증을 수행하는 것을 특징으로 하는 사용자 인터페이스를 설계하는 전자장치.
The method of claim 7,
The prototyping unit,
An electronic device for designing a user interface, characterized in that verification of the prototype is performed based on a control result of the plurality of terminals using the prototype.
제8항에 있어서,
상기 사용자 인터페이스 관리부는,
상기 시나리오와 상기 대표 사물성격에 대한 경우의 수로 조합하여 상기 조합된 수만큼 상기 사용자 인터페이스를 설계하는 것을 특징으로 하는 사용자 인터페이스를 설계하는 전자장치.
The method of claim 8,
The user interface management unit,
An electronic device for designing a user interface, wherein the user interface is designed as many as the combined number by combining the scenario and the number of cases for the representative personality.
제9항에 있어서,
상기 사용자 인터페이스 관리부는,
상기 대표 사물성격에 대한 페르소나를 생성하는 것을 특징으로 하는 사용자 인터페이스를 설계하는 전자장치.
The method of claim 9,
The user interface management unit,
An electronic device for designing a user interface, characterized in that a persona for the representative object personality is generated.
제10항에 있어서,
복수의 단말에 대한 사물성격을 분류하기 위한 프레임워크를 제작하고, 상기 프레임워크를 기반으로 복수의 사물성격 유형을 정의하는 프레임워크 관리부;
를 더 포함하는 것을 특징으로 하는 사용자 인터페이스를 설계하는 전자장치.
The method of claim 10,
A framework management unit for creating a framework for classifying object personalities for a plurality of terminals, and defining a plurality of object personality types based on the framework;
Electronic device for designing a user interface, characterized in that it further comprises.
제11항에 있어서,
상기 복수의 단말로부터 센싱 데이터를 수집하는 데이터수집부; 및
상기 센싱 데이터를 분석하여 상기 복수의 단말 각각의 동작을 확인하는 분석부;
를 더 포함하는 것을 특징으로 하는 사용자 인터페이스를 설계하는 전자장치.
The method of claim 11,
A data collection unit collecting sensing data from the plurality of terminals; And
An analysis unit that analyzes the sensing data and checks the operation of each of the plurality of terminals;
Electronic device for designing a user interface, characterized in that it further comprises.
제12항에 있어서,
상기 프레임워크 관리부는,
상기 확인된 동작을 기반으로 상기 복수의 단말 각각에 대한 사물성격을 정의하고, 상기 정의된 사물성격을 기준으로 상기 프레임워크를 제작하는 것을 특징으로 하는 사용자 인터페이스를 설계하는 전자장치.
The method of claim 12,
The framework management unit,
An electronic device for designing a user interface characterized by defining an object personality for each of the plurality of terminals based on the identified operation and manufacturing the framework based on the defined object personality.
KR1020180161952A 2018-12-14 2018-12-14 Method and Electronic Apparatus for Designing of User Interface According to Personality of Things KR102131785B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180161952A KR102131785B1 (en) 2018-12-14 2018-12-14 Method and Electronic Apparatus for Designing of User Interface According to Personality of Things

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180161952A KR102131785B1 (en) 2018-12-14 2018-12-14 Method and Electronic Apparatus for Designing of User Interface According to Personality of Things

Publications (2)

Publication Number Publication Date
KR20200073606A true KR20200073606A (en) 2020-06-24
KR102131785B1 KR102131785B1 (en) 2020-07-08

Family

ID=71407786

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180161952A KR102131785B1 (en) 2018-12-14 2018-12-14 Method and Electronic Apparatus for Designing of User Interface According to Personality of Things

Country Status (1)

Country Link
KR (1) KR102131785B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220007210A (en) * 2020-07-10 2022-01-18 동서대학교 산학협력단 User-designed emotional web design UI design method using deep learning technique and big data

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005505077A (en) * 2001-10-04 2005-02-17 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Device running user interface application
KR20080087918A (en) * 2007-01-09 2008-10-02 어니컴 주식회사 Test method for automatically testing target device and apparatus there-for
KR20150040245A (en) * 2013-10-04 2015-04-14 삼성전자주식회사 User interface management method and system
KR101640377B1 (en) * 2016-01-06 2016-07-18 스튜디오씨드코리아 주식회사 Method for prototyping Graphic User Interface and System thereof
KR20170092368A (en) * 2016-02-03 2017-08-11 삼성전자주식회사 Method and electronic device for controlling an external electronic device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005505077A (en) * 2001-10-04 2005-02-17 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Device running user interface application
KR20080087918A (en) * 2007-01-09 2008-10-02 어니컴 주식회사 Test method for automatically testing target device and apparatus there-for
KR20150040245A (en) * 2013-10-04 2015-04-14 삼성전자주식회사 User interface management method and system
KR101640377B1 (en) * 2016-01-06 2016-07-18 스튜디오씨드코리아 주식회사 Method for prototyping Graphic User Interface and System thereof
KR20170092368A (en) * 2016-02-03 2017-08-11 삼성전자주식회사 Method and electronic device for controlling an external electronic device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220007210A (en) * 2020-07-10 2022-01-18 동서대학교 산학협력단 User-designed emotional web design UI design method using deep learning technique and big data

Also Published As

Publication number Publication date
KR102131785B1 (en) 2020-07-08

Similar Documents

Publication Publication Date Title
US9703778B2 (en) Method of remotely controlling external services and selectively sharing control of the same
JP6671483B2 (en) Method and apparatus for controlling smart devices and computer storage media
WO2020015166A1 (en) Charting component creation method and device and computer readable storage medium
EP4331214A1 (en) User interfaces for managing locks
KR102405752B1 (en) Method for controlling the permission of application program and electronic device
US20200070839A1 (en) Electronic device and method using machine learning for identifying characteristics of users located within a specific space
CN106250116B (en) A kind of software generic skeleton code generation method and system
EP3131050A1 (en) 3d printer design, printing and permission method, device and system
US9680705B2 (en) Competency based device access
CN105431816A (en) Synchronizing device association data among computing devices
CN107533618A (en) Protect data from unwarranted access
CN109661661A (en) Group communication
US20230161543A1 (en) Screen sharing system, screen sharing method, and display apparatus
KR102131785B1 (en) Method and Electronic Apparatus for Designing of User Interface According to Personality of Things
IL290259B1 (en) Adaptive systems, apparatus and methods for correlating compressed multidimensional data profiles to engagement rules
KR102616793B1 (en) Electronic device and method for providing scrren thereof
Coelho et al. The contribution of multimodal adaptation techniques to the GUIDE interface
CN109328096B (en) Information processing apparatus, information processing method, and program
AU2018214441A1 (en) Workplace task management system and process
US20150339163A1 (en) Devices and methods for controlling operation of arithmetic and logic unit
US9665382B2 (en) Method and apparatus for providing a cross-device macro framework
CN104503669A (en) Interface component and production method thereof
JP6909984B2 (en) Home appliance management server, home appliance management method, and program
KR102198686B1 (en) Method for creating business screen and system for performing the same
KR102152940B1 (en) Medical practice contents cps(contents sercice platform) interworking interface

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant