KR20210105153A - 디바이스 및 그 제어 방법 - Google Patents

디바이스 및 그 제어 방법 Download PDF

Info

Publication number
KR20210105153A
KR20210105153A KR1020200019761A KR20200019761A KR20210105153A KR 20210105153 A KR20210105153 A KR 20210105153A KR 1020200019761 A KR1020200019761 A KR 1020200019761A KR 20200019761 A KR20200019761 A KR 20200019761A KR 20210105153 A KR20210105153 A KR 20210105153A
Authority
KR
South Korea
Prior art keywords
information
output layout
additional information
artificial intelligence
output
Prior art date
Application number
KR1020200019761A
Other languages
English (en)
Inventor
강현호
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020200019761A priority Critical patent/KR20210105153A/ko
Priority to PCT/KR2021/001806 priority patent/WO2021167289A1/en
Priority to US17/249,038 priority patent/US11768598B2/en
Publication of KR20210105153A publication Critical patent/KR20210105153A/ko

Links

Images

Classifications

    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G9/00Visual time or date indication means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3438Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment monitoring of user actions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G19/00Electric power supply circuits specially adapted for use in electronic time-pieces
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • G04G21/08Touch switches specially adapted for time-pieces
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G9/00Visual time or date indication means
    • G04G9/0076Visual time or date indication means in which the time in another time-zone or in another city can be displayed at will
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G9/00Visual time or date indication means
    • G04G9/02Visual time or date indication means by selecting desired characters out of a number of characters or by selecting indicating elements the position of which represent the time, e.g. by using multiplexing techniques
    • G04G9/027Visual time or date indication means by selecting desired characters out of a number of characters or by selecting indicating elements the position of which represent the time, e.g. by using multiplexing techniques provided with means for displaying at will a time indication or a date or a part thereof
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G99/00Subject matter not provided for in other groups of this subclass
    • G04G99/006Electronic time-pieces using a microcomputer, e.g. for multi-function clocks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3466Performance evaluation by tracing or monitoring
    • G06F11/3476Data logging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • G04G21/04Input or output devices integrated in time-pieces using radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks

Abstract

디바이스가 개시된다. 디바이스는 디스플레이, 디바이스에서 제공되는 부가 정보의 출력 레이아웃 정보를 획득하도록 학습된 인공 지능 모델(Artificial Intelligence Model)을 저장하는 메모리 및 디스플레이 및 메모리와 연결되어 디바이스를 제어하는 프로세서를 포함하고, 프로세서는, 디바이스에서 제공되는 메인 정보의 출력 레이아웃이 선택되면, 메인 정보의 출력 레이아웃과 관련된 정보를 인공 지능 모델에 입력하여 부가 정보의 출력 레이아웃 정보를 획득하고, 메인 정보의 출력 레이아웃 및 부가 정보의 출력 레이아웃 정보에 기초하여 시간 정보 및 부가 정보를 포함하는 UI 화면을 제공하도록 디스플레이를 제어한다.

Description

디바이스 및 그 제어 방법 { Device and control method thereof }
본 발명은 디바이스 및 그 제어 방법에 관한 것으로, 더욱 상세하게는, 시간 정보를 제공하는 디바이스 및 그 제어 방법에 관한 것이다.
전자 기술의 발달에 힘입어 다양한 유형의 전자기기가 개발 및 보급되고 있다. 최근에는 더 새롭고 다양한 기능을 원하는 사용자의 니즈(needs)에 부합하기 위하여 다양한 유형의 웨어러블 디바이스(wearable device)가 개발 및 보급되고 있는 실정이다.
특히, 다양한 유형의 웨어러블 디바이스에서도 스마트 워치(smart watch)는 착용의 편리함 등으로 다른 웨어러블 디바이스 보다도 활발히 보급되고 있다.
종래의 손목 시계, 전자 시계와 달리 최근 개발 및 보급되는 스마트 워치는 단순히 시간 정보만을 제공하는데 그치지 않고 다양한 정보를 제공하고 있다. 예를 들어, 스마트 워치 심박수, 걸음 수, 메신저 알람 등과 같은 추가 정보를 시간 정보와 함께 제공할 수 있다.
다만, 이러한 추가 정보를 제공하는 UI는 3rd party 개발자들의 개발이 필수적으로 요구됨에 따라 사용자의 니즈에 부합하는 추가 정보를 손쉽게 추가 및 디스플레이하기에는 제약 조건이 다수 존재하는 문제가 있었다.
본 발명은 상술한 필요성에 따른 것으로, 본 발명의 목적은, 시간 정보 외에 다양한 추가 정보, 부가 정보를 제공하는 스마트 워치 디바이스 및 그 제어 방법을 제공함에 있다.
이상과 같은 목적을 달성하기 위한 본 개시의 일 실시 예에 따른 디바이스에 있어서, 디스플레이, 상기 디바이스에서 제공되는 부가 정보의 출력 레이아웃 정보를 획득하도록 학습된 인공 지능 모델(Artificial Intelligence Model)을 저장하는 메모리 및 상기 디스플레이 및 상기 메모리와 연결되어 상기 디바이스를 제어하는 프로세서를 포함하고, 상기 프로세서는, 상기 디바이스에서 제공되는 메인 정보의 출력 레이아웃이 선택되면, 상기 메인 정보의 출력 레이아웃과 관련된 정보를 상기 인공 지능 모델에 입력하여 상기 부가 정보의 출력 레이아웃 정보를 획득하고, 상기 메인 정보의 출력 레이아웃 및 상기 부가 정보의 출력 레이아웃 정보에 기초하여 상기 메인 정보 및 상기 부가 정보를 포함하는 UI 화면을 제공하도록 상기 디스플레이를 제어한다.
여기서, 상기 메인 정보는 시간 정보이고, 상기 시간 정보의 출력 레이아웃은, 상기 시간 정보를 제공하기 위한 시침, 분침 및 초침 각각의 형태, 크기 또는 색상 중 적어도 하나에 대한 정보를 포함하고, 상기 부가 정보의 출력 레이아웃 정보는, 상기 부가 정보의 타입, 상기 부가 정보를 제공하기 위한 서브 UI의 개수, 크기, 색상 또는 위치 중 적어도 하나를 포함할 수 있다.
또한, 상기 메인 정보는 시간 정보이고, 상기 프로세서는, 상기 디바이스에서 제공되는 시간 정보의 출력 레이아웃이 선택되면, 상기 출력 레이아웃과 관련된 정보 및 사용자 컨텍스트를 상기 인공 지능 모델에 입력하여 상기 부가 정보의 출력 레이아웃 정보를 획득하며, 상기 사용자 컨텍스트는, 사용자의 터치 이력 또는 외부 사용자 단말에서의 어플리케이션 사용 이력 중 적어도 하나를 포함할 수 있다.
여기서, 상기 사용자의 터치 이력은, 터치 면적 또는 터치 위치 중 적어도 하나를 포함하며, 상기 프로세서는, 상기 터치 면적 또는 터치 위치 중 적어도 하나를 상기 인공 지능 모델에 입력하여 상기 부가 정보를 제공하기 위한 서브 UI의 크기 또는 위치 중 적어도 하나를 획득할 수 있다.
또한, 상기 프로세서는, 상기 외부 사용자 단말에서의 어플리케이션 사용 이력을 상기 인공 지능 모델에 입력하여 상기 어플리케이션의 기능과 관련된 알림을 제공하는 상기 부가 정보를 획득할 수 있다.
또한, 상기 메인 정보는 시간 정보이고, 상기 프로세서는, 현재 시간 정보에 기초한 시침, 분침 및 초침 중 적어도 하나의 위치에 기초하여 상기 부가 정보를 제공하기 위한 서브 UI의 위치를 변경할 수 있다.
또한, 상기 메인 정보는 시간 정보이고, 상기 디바이스에서 제공되는 시간 정보의 출력 레이아웃은 아날로그(Analog) 형태의 출력 레이아웃 또는 디지털(Digital) 형태의 출력 레이아웃을 포함하고, 상기 프로세서는, 상기 시간 정보의 출력 레이아웃이 아날로그 형태이면, 상기 아날로그 형태의 출력 레이아웃과 관련된 정보를 상기 인공 지능 모델에 입력하여 상기 부가 정보에 대응되는 아날로그 형태의 출력 레이아웃 정보를 획득하고, 상기 시간 정보의 출력 레이아웃이 디지털 형태이면, 상기 디지털 형태의 출력 레이아웃과 관련된 정보를 상기 인공 지능 모델에 입력하여 상기 부가 정보에 대응되는 디지털 형태의 출력 레이아웃 정보를 획득할 수 있다.
또한, 센서를 더 포함하고, 상기 프로세서는, 상기 센서를 통해 감지된 사용자 신체 정보에 기초하여 상기 감지된 사용자 신체 정보와 관련된 부가 정보를 포함하는 상기 UI 화면을 제공하도록 상기 디스플레이를 제어할 수 있다.
또한, 상기 프로세서는, 상기 메인 정보의 출력 레이아웃과 관련된 정보 및 상기 디바이스의 배터리 잔량 정보를 상기 인공 지능 모델에 입력하여 상기 부가 정보의 출력 레이아웃 정보를 획득하며, 상기 인공 지능 모델은, 상이한 배터리 소모량을 가지는 복수의 출력 레이아웃 중 입력된 배터리 잔량 정보에 대응되는 출력 레이아웃 정보를 출력하도록 학습될 수 있다.
또한, 상기 프로세서는, 상기 디바이스가 대기 모드에 진입하면, 상기 메인 정보의 출력 레이아웃과 관련된 정보 및 상기 대기 모드에서 배터리 예상 소모량에 대한 정보를 상기 인공 지능 모델에 입력하여 상기 부가 정보의 출력 레이아웃 정보를 획득하며, 상기 인공 지능 모델은, 상이한 배터리 소모량을 가지는 복수의 출력 레이아웃 중 입력된 배터리 예상 소모량에 대응되는 출력 레이아웃 정보를 출력하도록 학습될 수 있다.
한편, 본 개시의 일 실시 예에 따른 디바이스에서 제공되는 부가 정보의 출력 레이아웃 정보를 획득하도록 학습된 인공 지능 모델(Artificial Intelligence Model)을 포함하는 상기 디바이스의 제어 방법은, 상기 디바이스에서 제공되는 메인 정보의 출력 레이아웃이 선택되면, 상기 메인 정보의 출력 레이아웃과 관련된 정보를 상기 인공 지능 모델에 입력하여 상기 부가 정보의 출력 레이아웃 정보를 획득하는 단계 및 상기 메인 정보의 출력 레이아웃 및 상기 부가 정보의 출력 레이아웃 정보에 기초하여 상기 메인 정보 및 상기 부가 정보를 포함하는 UI 화면을 제공하는 단계를 포함한다.
여기서, 상기 메인 정보는 시간 정보이고, 상기 시간 정보의 출력 레이아웃은, 상기 시간 정보를 제공하기 위한 시침, 분침 및 초침 각각의 형태, 크기 또는 색상 중 적어도 하나에 대한 정보를 포함하고, 상기 부가 정보의 출력 레이아웃 정보는, 상기 부가 정보의 타입, 상기 부가 정보를 제공하기 위한 서브 UI의 개수, 크기, 색상 또는 위치 중 적어도 하나를 포함할 수 있다.
또한, 상기 부가 정보의 출력 레이아웃 정보를 획득하는 단계는, 상기 디바이스에서 제공되는 메인 정보의 출력 레이아웃이 선택되면, 상기 출력 레이아웃과 관련된 정보 및 사용자 컨텍스트를 상기 인공 지능 모델에 입력하여 상기 부가 정보의 출력 레이아웃 정보를 획득하는 단계를 포함하고, 상기 사용자 컨텍스트는, 사용자의 터치 이력 또는 외부 사용자 단말에서의 어플리케이션 사용 이력 중 적어도 하나를 포함할 수 있다.
여기서, 상기 사용자의 터치 이력은, 터치 면적 또는 터치 위치 중 적어도 하나를 포함하며, 상기 부가 정보의 출력 레이아웃 정보를 획득하는 단계는, 상기 터치 면적 또는 터치 위치 중 적어도 하나를 상기 인공 지능 모델에 입력하여 상기 부가 정보를 제공하기 위한 서브 UI의 크기 또는 위치 중 적어도 하나를 획득하는 단계를 포함할 수 있다.
또한, 상기 외부 사용자 단말에서의 어플리케이션 사용 이력을 상기 인공 지능 모델에 입력하여 상기 어플리케이션의 기능과 관련된 알림을 제공하는 상기 부가 정보를 획득하는 단계를 더 포함할 수 있다.
또한, 상기 메인 정보는 시간 정보이고, 현재 시간 정보에 기초한 시침, 분침 및 초침 중 적어도 하나의 위치에 기초하여 상기 부가 정보를 제공하기 위한 서브 UI의 위치를 변경하는 단계를 더 포함할 수 있다.
또한, 상기 메인 정보는 시간 정보이고, 상기 디바이스에서 제공되는 시간 정보의 출력 레이아웃은 아날로그(Analog) 형태의 출력 레이아웃 또는 디지털(Digital) 형태의 출력 레이아웃을 포함하고, 상기 부가 정보의 출력 레이아웃 정보를 획득하는 단계는, 상기 시간 정보의 출력 레이아웃이 아날로그 형태이면, 상기 아날로그 형태의 출력 레이아웃과 관련된 정보를 상기 인공 지능 모델에 입력하여 상기 부가 정보에 대응되는 아날로그 형태의 출력 레이아웃 정보를 획득하는 단계 및 상기 시간 정보의 출력 레이아웃이 디지털 형태이면, 상기 디지털 형태의 출력 레이아웃과 관련된 정보를 상기 인공 지능 모델에 입력하여 상기 부가 정보에 대응되는 디지털 형태의 출력 레이아웃 정보를 획득하는 단계를 포함할 수 있다.
또한, 상기 디바이스는 센서를 포함하고, 상기 센서를 통해 감지된 사용자 신체 정보에 기초하여 상기 감지된 사용자 신체 정보와 관련된 부가 정보를 포함하는 상기 UI 화면을 제공하도록 상기 디스플레이를 제어하는 단계를 더 포함할 수 있다.
또한, 상기 부가 정보의 출력 레이아웃 정보를 획득하는 단계는, 상기 메인 정보의 출력 레이아웃과 관련된 정보 및 상기 디바이스의 배터리 잔량 정보를 상기 인공 지능 모델에 입력하여 상기 부가 정보의 출력 레이아웃 정보를 획득하는 단계를 포함하고, 상기 인공 지능 모델은, 상이한 배터리 소모량을 가지는 복수의 출력 레이아웃 중 입력된 배터리 잔량 정보에 대응되는 출력 레이아웃 정보를 출력하도록 학습될 모델일 수 있다.
또한, 상기 부가 정보의 출력 레이아웃 정보를 획득하는 단계는, 상기 디바이스가 대기 모드에 진입하면, 상기 메인 정보의 출력 레이아웃과 관련된 정보 및 상기 대기 모드에서 배터리 예상 소모량에 대한 정보를 상기 인공 지능 모델에 입력하여 상기 부가 정보의 출력 레이아웃 정보를 획득하는 단계를 포함하고, 상기 인공 지능 모델은, 상이한 배터리 소모량을 가지는 복수의 출력 레이아웃 중 입력된 배터리 예상 소모량에 대응되는 출력 레이아웃 정보를 출력하도록 학습될 수 있다.
상술한 바와 같이 본 개시의 다양한 실시 예에 따르면, 사용자의 선택에 따라 시간 정보의 출력 레이아웃 예를 들어, 워치 페이스를 자유롭게 설정할 수 있다.
또한, 3rd party 개발자의 개발 및 생성 없이도, 선택된 출력 레이아웃에 적절히 변형, 커스터마이징(customizing)된 부가 정보, 추가 정보를 사용자에게 제공할 수 있다.
또한, 외부 사용자 단말과 같은 모(母) 단말의 사용 이력을 고려한 부가 정보를 사용자에게 제공할 수 있다.
도 1은 본 개시의 일 실시 예에 따른 디바이스를 설명하기 위한 도면이다.
도 2는 본 개시의 일 실시 예에 따른 디바이스의 구성을 나타내는 블록도이다.
도 3은 본 개시의 일 실시 예에 따른 부가 정보의 출력 레이아웃 정보를 획득하는 방법을 설명하기 위한 도면이다.
도 4는 본 개시의 일 실시 예에 따른 사용자 컨텍스트를 설명하기 위한 도면이다.
도 5는 본 개시의 일 실시 예에 따른 사용자의 터치 이력을 설명하기 위한 도면이다.
도 6은 본 개시의 일 실시 예에 따른 서브 UI의 위치를 변경하는 방법을 설명하기 위한 도면이다.
도 7은 본 개시의 일 실시 예에 따른 시간 정보의 출력 레이아웃을 설명하기 위한 도면이다.
도 8은 본 개시의 일 실시 예에 따른 배터리 잔량 정보를 설명하기 위한 도면이다.
도 9는 본 개시의 일 실시 예에 따른 UI 화면을 설명하기 위한 도면이다.
도 10은 본 개시의 일 실시 예에 따른 디바이스의 상세 블록도이다.
도 11은 본 개시의 일 실시 예에 따른 디바이스의 제어 방법을 설명하기 위한 흐름도이다.
이하에서는 첨부 도면을 참조하여 본 개시를 상세히 설명한다.
본 개시의 실시 예에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 개시의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 명세서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.
A 또는/및 B 중 적어도 하나라는 표현은 "A" 또는 "B" 또는 "A 및 B" 중 어느 하나를 나타내는 것으로 이해되어야 한다.
본 명세서에서 사용된 "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다.
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 어떤 구성요소가 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 개시에서 "모듈" 혹은 "부"는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈" 혹은 복수의 "부"는 특정한 하드웨어로 구현될 필요가 있는 "모듈" 혹은 "부"를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.
본 명세서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
이하 첨부된 도면들을 참조하여 본 개시의 일 실시 예를 보다 상세하게 설명한다.
도 1은 본 개시의 일 실시 예에 따른 디바이스를 설명하기 위한 도면이다.
도 1은 본 개시의 일 실시 예에 따른 디바이스의 구현 형태를 설명하기 위한 도면이다. 여기서, 디바이스는 다양한 유형의 웨어러블 디바이스, 포터블 디바이스를 포함할 수 있다. 예를 들어, 디바이스는 스마트 워치 디바이스(100)로 구현될 수 있다. 여기서, 스마트 워치 디바이스(100)는 일반 시계보다 향상된 다양한 기능들을 수행할 수 있는 전자 장치를 의미한다.
도 1은 스마트 워치 디바이스(100)를 상정하여 도시하였으나, 본 개시의 다양한 실시 예는 다양한 형태의 웨어러블 디바이스(wearable device), 포터블 디바이스(portable device)를 통해 구현될 수 있음은 물론이다. 웨어러블 디바이스(wearable device)란 플렉서블한 재질(예를 들어, 실리콘 고무)로 이루어져, 사용자가 착용할 수 있는 디바이스를 의미한다. 예를 들어, 사람이나 동물이 신체에 착용할 수 있는 시계, 의복, 신발, 장갑, 안경, 모자, 장신구(예를 들어 링) 등과 같은 다양한 유형의 디바이스가 웨어러블 디바이스가 될 수 있다. 이하에서는, 설명의 편의를 위해 손목에 착용할 수 있는 스마트 워치 디바이스(100)를 상정하여 설명하도록 한다.
한편, 스마트 워치 디바이스(smart watch device)(100)는 일반 시계보다 향상된 기능들을 장착하고 있는 임베디드 시스템 손목 시계를 의미한다. 스마트 워치 디바이스(100)는 모바일 앱(application)을 구동할 수 있다. 또한, 스마트 워치 디바이스(100)는 통신 기능, 오디오나 비디오 파일 재생 기능 등 모바일 미디어 플레이어 기능을 가지고 있어, 이를 블루투스 기능을 통해 외부 장치(예를 들어, 헤드셋)로 사운드 신호를 출력할 수도 있다. 또한, 제공되는 서비스에 따라서 스마트 워치 디바이스(100)는 데이터를 내려받을 수도 있고, 웹 브라우저로 데이터를 전송할 수도 있다. 또한, 스마트 워치 디바이스(100)는 초기 상태에서 기설정된 패턴을 그리거나, 서명을 통해 잠금 상태를 해제하도록 구현될 수 있다. 즉, 스마트 워치 디바이스(100)는 기존의 사용자 단말 장치(미도시)(예를 들어, 스마트 폰)에서 구현가능한 대부분의 기능이 실행가능하도록 구현될 수 있다.
스마트 워치 디바이스(100)는 크게 단독형 스마트 워치 및 연동형 스마트 워치로 나눌 수 있다. 이들은 공통적으로 카메라, 가속도계, 온도계, 고도계, 기압계, 나침반, 크로노그래프, 계산기, 휴대 전화, 터치스크린, GPS, 지도 표시, 인포메이션 그래픽, 컴퓨터 스피커, 달력 기능, 손목 시계, SD 카드 용량 장치 인식 기능과 재충전 배터리 등을 구비할 수 있다. 단독형 스마트 워치는 연동형 스마트 워치와는 달리 단독적으로 쓸 수 있게 무선 헤드셋, 마이크로폰, 통화/데이터용 모뎀, SIM 카드 슬릇 등의 자체 통신 기능을 가지고 있을 수 있다. 다만, 연동형 스마트 워치는 스마트 폰과 연동을 편리하게 해서 동기화가 편리하다는 장점이 있지만, 스마트 폰과 블루투스로 연결을 해야 제대로 된 사용을 할 수 있다는 단점이 있을 수 있다. 본 발명에서는, 단독형 스마트 워치의 경우를 상정하여 설명하도록 하지만, 본 발명에 따른 기술적 사상은 연동형 스마트 워치에도 적용 가능한 형태로 변형되어 적용될 수도 있음은 물론이다.
한편, 본 개시의 다양한 실시 예에 따른 디바이스는 스마트 워치 디바이스와 같은 웨어러블 디바이스 외에도 사용자 단말 장치, 디스플레이 장치, 셋톱 박스(set-top box), 태블릿 PC(tablet personal computer), 스마트 폰(smart phone), 전자책 리더기(e-book reader), 데스크탑 PC (desktop PC), 랩탑 PC(laptop PC), 워크스테이션(workstation), 서버, PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 키오스크(Kiosk) 등과 같은 다양한 형태의 디바이스로 구현될 수 있음은 물론이다. 또한, 본 개시의 다양한 실시 예는 웨어러블 디바이스 외에도 다양한 형태의 디바이스에서 구현될 수 있음은 물론이다.
도 2는 본 개시의 일 실시 예에 따른 스마트 워치 디바이스의 구성을 나타내는 블록도이다.
도 2를 참조하면, 본 개시의 일 실시 예에 따른 스마트 워치 디바이스(100)는 디스플레이(110), 메모리(120) 및 프로세서(130)를 포함한다.
디스플레이(110)는 자발광 소자를 포함하는 디스플레이 또는, 비자발광 소자 및 백라이트를 포함하는 디스플레이로 구현될 수 있다. 예를 들어, LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이, LED(Light Emitting Diodes), 마이크로 LED(micro LED), Mini LED, PDP(Plasma Display Panel), QD(Quantum dot) 디스플레이, QLED(Quantum dot light-emitting diodes) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 디스플레이(110) 내에는 a-si TFT, LTPS(low temperature poly silicon) TFT, OTFT(organic TFT) 등과 같은 형태로 구현될 수 있는 구동 회로, 백라이트 유닛 등도 함께 포함될 수 있다. 한편, 디스플레이(110)는 터치 센서와 결합된 터치 스크린, 플렉시블 디스플레이(flexible display), 롤러블 디스플레이(rollable display), 3차원 디스플레이(3D display), 복수의 디스플레이 모듈이 물리적으로 연결된 디스플레이 등으로 구현될 수 있다.
또한, 본 발명의 일 실시 예에 따른, 디스플레이(110)는 영상을 출력하는 디스플레이 패널뿐만 아니라, 디스플레이 패널을 하우징하는 베젤을 포함할 수 있다. 특히, 본 발명의 일 실시 예에 따른, 베젤은 사용자 인터렉션을 감지하기 위한 터치 센서(미도시)를 포함할 수 있다.
특히, 본 개시의 일 실시 예에 따른 디스플레이(110)는 프로세서(130)의 제어에 따라 메인 정보를 제공할 수 있다. 여기서, 메인 정보는 디바이스를 통해 제공되는 주된 정보를 의미할 수 있다. 예를 들어, 디바이스가 스마트 워치 디바이스(100)로 구현되면, 스마트 워치 디바이스(100)를 통해 제공되는 메인 정보는 시간 정보를 의미할 수 있다. 여기서, 시간 정보는 현 위치에 대응되는 현재 시간, 설정된 국가의 현재 시간, 스톱 워치(Stop watch) 기능, 타이머 기능에 따른 경과 시간 등을 의미할 수 있다. 다른 예로, 디바이스가 디스플레이 장치로 구현되면, 디스플레이 장치를 통해 제공되는 메인 정보는 다양한 유형의 컨텐츠(예를 들어, 동영상, 정지 영상 등)을 의미할 수 있다.
한편, 디스플레이(110)는 프로세서(130)의 제어에 따라 메인 정보의 출력 레이아웃에 기초하여 메인 정보를 디스플레이할 수 있다. 예를 들어, 디바이스가 스마트 워치 디바이스(100)로 구현되면, 스마트 워치 디바이스(100)는 시간 정보의 출력 레이아웃에 기초하여 시간 정보를 디스플레이할 수 있다. 여기서, 시간 정보의 출력 레이아웃은 스마트 워치 디바이스(100)의 배경화면(예를 들어, 스마트 워치 디바이스의 워치 페이스(Watch face), 테마(Theme))를 의미할 수 있다. 시간 정보의 출력 레이아웃은 배경 이미지, 복수의 객체 또는 타입 정보 중 적어도 하나를 포함할 수 있다.
여기서, 복수의 객체는, 문자, 형상, 표식(indicator), 도형, 및/또는 그림 등을 포함할 수 있다. 또한, 복수의 객체는 시간 정보를 제공하기 위한 시침, 분침 및 초침 각각의 형태, 크기 또는 색상 중 적어도 하나에 대한 정보를 포함할 수 있다.
시간 정보의 출력 레이아웃에 포함된 타입 정보는 아날로그 타입 정보 또는 디지털 타입 정보를 포함할 수 있다. 일 실시 예에 따라, 시간 정보의 출력 레이아웃이 아날로그 형태의 출력 레이아웃이면, 디스플레이(110)는 프로세서(130)의 제어에 따라 시간 정보를 아날로그 형태로 디스플레이할 수 있다. 다른 예로, 시간 정보의 출력 레이아웃이 디지털 형태의 출력 레이아웃이면, 디스플레이(110)는 프로세서(130)의 제어에 따라 시간 정보를 디지털 형태로 디스플레이할 수 있다.
한편, 상술한 실시 예는 일 구현 예에 불과하며, 이에 한정되지 않음은 물론이다. 예를 들어, 디바이스(100)는 공조 기기로 구현될 수도 있고, 디바이스(100)는 메인 정보의 출력 레이아웃에 기초하여 공조 기기의 구동에 따른 실내 온도, 실내 습도, 희망 온도, 희망 습도 등을 메인 정보로 제공할 수도 있음은 물론이다. 이하에서는, 설명의 편의를 위해 디바이스가 스마트 워치 디바이스(100)로 구현되고, 메인 정보가 시간 정보인 경우를 상정하여 설명하도록 한다.
메모리(120)는 스마트 워치 디바이스(100)의 기능과 관련된 다양한 정보를 가변적으로 저장하기 위한 구성이다. 메모리(120)는 하드 디스크, SSD(Solid state drive), 플래시 메모리(ex. NOR 또는 NAND형 플래시 메모리 등) 등의 비휘발성 메모리로 구현될 수 있다.
메모리(120)에는 하나 이상의 인공 지능 모델(Artificial Intelligence Model)이 저장될 수 있다. 구체적으로, 본 개시의 일 실시 예에 따른 메모리(120)에는 스마트 워치 디바이스(100)에서 제공되는 부가 정보의 출력 레이아웃 정보를 획득하도록 학습된 인공 지능 모델이 저장될 수 있다. 일 예로, 프로세서(130)는 시간 정보의 출력 레이아웃과 관련된 정보를 인공 지능 모델에 입력하여 부가 정보의 출력 레이아웃 정보를 획득할 수 있다. 부가 정보 및 부가 정보의 출력 레이아웃 정보에 대한 구체적인 설명은 후술하도록 한다.
일 실시 예에 따른 인공 지능 모델은 인공지능 알고리즘 기반으로 복수의 이미지에 기초하여 학습된 판단 모델로서, 신경망(Neural Network)을 기반으로 하는 모델일 수 있다. 학습된 판단 모델은 인간의 뇌 구조를 컴퓨터 상에서 모의하도록 설계될 수 있으며 인간의 신경망의 뉴런(neuron)을 모의하는, 가중치를 가지는 복수의 네트워크 노드들을 포함할 수 있다. 복수의 네트워크 노드들은 뉴런이 시냅스(synapse)를 통하여 신호를 주고 받는 뉴런의 시냅틱(synaptic) 활동을 모의하도록 각각 연결 관계를 형성할 수 있다. 또한 학습된 판단 모델은, 일 예로, 기계 학습(Machine Learning) 모델, 신경망 모델, 또는 신경망 모델에서 발전한 딥 러닝(Deep Learning) 모델을 포함할 수 있다. 딥 러닝 모델에서 복수의 네트워크 노드들은 서로 다른 깊이(또는, 레이어)에 위치하면서 컨볼루션(convolution) 연결 관계에 따라 데이터를 주고 받을 수 있다.
일 실시 예에 따른 인공 지능 모델은 인공지능 알고리즘 기반으로 복수의 시간 정보의 출력 레이아웃에 기초하여 학습된 판단 모델일 수 있다. 예를 들어, 메모리(120)에 저장된 인공 지능 모델은 시간 정보의 출력 레이아웃에 따른 배경 이미지, 복수의 객체 또는 타입 정보에 기초하여 학습되어 부가 정보의 출력 레이아웃을 출력하도록 학습된 인공 지능 모델일 수 있다.
일 예로, 인공 지능 모델은 이미지에 기초하여 학습된 CNN(Convolution Neural Network, 컨벌루션 신경망) 모델일 수 있다. CNN은 음성처리, 이미지 처리 등을 위해 고안된 특수한 연결구조를 가진 다층신경망이다. 한편, 인공 지능 모델은 CNN에 한정되지 않음은 물론이다. 예를 들어, 인공 지능 모델은 RNN(Recurrent Neural Network), LSTM(Long Short Term Memory Network), GRU(Gated Recurrent Units) 또는 GAN(Generative Adversarial Networks) 중 적어도 하나의 DNN(Deep Neural Network) 모델로 구현될 수 있다.
프로세서(130)는 전자 장치(100)의 전반적인 동작을 제어한다.
일 실시 예에 따라 프로세서(130)는 디지털 영상 신호를 처리하는 디지털 시그널 프로세서(digital signal processor(DSP), 마이크로 프로세서(microprocessor), AI(Artificial Intelligence) 프로세서, T-CON(Timing controller)으로 구현될 수 있다. 다만, 이에 한정되는 것은 아니며, 중앙처리장치(central processing unit(CPU)), MCU(Micro Controller Unit), MPU(micro processing unit), 컨트롤러(controller), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)), ARM 프로세서 중 하나 또는 그 이상을 포함하거나, 해당 용어로 정의될 수 있다. 또한, 프로세서(130)는 프로세싱 알고리즘이 내장된 SoC(System on Chip), LSI(large scale integration)로 구현될 수도 있고, FPGA(Field Programmable gate array) 형태로 구현될 수도 있다.
특히, 본 개시의 일 실시 예에 따른 프로세서(130)는 시간 정보의 출력 레이아웃이 선택되면, 시간 정보의 출력 레이아웃과 관련된 정보를 인공 지능 모델에 입력하여 부가 정보의 출력 레이아웃 정보를 획득할 수 있다. 이에 대한 구체적인 설명은 도 3을 참고하여 하도록한다.
도 3은 본 개시의 일 실시 예에 따른 부가 정보의 출력 레이아웃 정보를 획득하는 방법을 설명하기 위한 도면이다.
도 3을 참조하면, 본 개시의 일 실시 예에 따른 프로세서(130)는 선택 가능한 복수의 시간 정보의 출력 레이아웃을 제공할 수 있다. 예를 들어, 복수의 시간 정보의 출력 레이아웃 각각은 상이한 배경 이미지, 복수의 객체 또는 타입으로 구현될 수 있다. 프로세서(130)는 복수의 시간 정보의 출력 레이아웃 중 어느 하나가 선택되면, 선택된 출력 레이아웃(10)에 따른 배경 이미지(예를 들어, 와치 페이스), 복수의 객체 및 타입으로 시간 정보를 제공할 수 있다. 구체적으로, 프로세서(130)는 선택된 출력 레이아웃(10)에 포함된 배경 이미지를 디스플레이하고, 이어서, 선택된 출력 레이아웃(10)에 포함된 시침, 분침 및 초침 각각의 형태, 크기 또는 색상 중 적어도 하나에 대한 정보에 기초하여 시간 정보를 제공할 수 있다.
도 3은 설명의 편의를 위해 아날로그 형태의 출력 레이아웃에 문자가 아라비아 숫자로 표시되는 경우를 상정하여 도시하였으나, 이는 일 실시 예에 불과하며 이에 한정되지 않음은 물론이다. 예를 들어, 프로세서(130)는 선택된 시간 정보의 출력 레이아웃에 따라 시간 정보를 디지털 형태의 출력 레이아웃으로 제공할 수도 있고, 문자를 로마 숫자로 표시할 수도 있음은 물론이다.
이어서, 프로세서(130)는 선택된 시간 정보의 출력 레이아웃(10)과 관련된 정보를 인공 지능 모델(1000)에 입력하여 부가 정보의 출력 레이아웃 정보(20)를 획득할 수 있다.
여기서, 부가 정보는 시계의 고유 기능(예를 들어, 시간 정보의 제공, 현재 시간의 제공)을 제외한 스마트 워치 디바이스(100)를 통해 제공 가능한 모든 정보를 의미할 수 있다. 예를 들어, 프로세서(130)는 시간 정보 외에 설정된 위치에 대응되는 현재 날씨, 일출/일몰 시간, 걸음 수 등을 추가적으로 디스플레이할 수 있다. 한편, 상술한 예시는 부가 정보의 일 실시 예이며 부가 정보는 다양한 형태의 정보를 포함할 수 있음은 물론이다.
예를 들어, 디바이스가 디스플레이 장치로 구현되면, 메인 정보는 디스플레이 장치를 통해 제공되는 컨텐츠이고, 부가 정보는 해당 컨텐츠와 관련된 정보(예를 들어, 컨텐츠에 대한 설명, 컨텐츠의 제작에 관련된 정보 등), 디스플레이 장치를 통해 제공되는 컨텐츠와 동일 또는 유사한 장르의 타 추천 컨텐츠에 대한 정보 등을 포함할 수 있음은 물론이다.
또 다른 예로, 디바이스가 공조 기기로 구현되면, 메인 정보는 공조 기기가 위치한 공간의 실내 온도, 실내 습도, 희망 온도, 희망 습도를 의미할 수 있다. 부가 정보는 주간 예상 온도, 주간 예상 습도 등에 대한 정보를 포함할 수 있다.
종래에는 선택된 시간 정보의 출력 레이아웃(10)에 따라 제공 가능한 부가 정보가 제한적이였으며, 제공되는 부가 정보의 크기, 색상 등이 시간 정보의 출력 레이아웃(10)에 따른 배경 이미지(예를 들어, 와치 페이스)의 색상 등과 다소 이질적인 문제가 있었다. 본 개시의 다양한 실시 예에 따른 프로세서(130)는 시간 정보의 출력 레이아웃(10)을 인공 지능 모델(1000)에 입력하여 시간 정보의 출력 레이아웃(10)에 보다 적합한 부가 정보의 출력 레이아웃 정보(20)를 획득할 수 있다.
여기서, 부가 정보의 출력 레이아웃 정보(20)는 부가 정보의 타입, 부가 정보를 제공하기 위한 서브 UI의 개수, 크기, 색상 또는 위치 중 적어도 하나를 포함할 수 있다.
도 3을 참조하면, 본 개시의 일 실시 예에 따른 프로세서(130)는 선택된 시간 정보의 출력 레이아웃(10)을 인공 지능 모델(1000)에 입력하여 부가 정보의 출력 레이아웃 정보(20)를 획득할 수 있다.
예를 들어, 인공 지능 모델(1000)은 시간 정보의 출력 레이아웃(10)에 포함된 배경 이미지의 색상에 기초하여 부가 정보의 색상을 출력할 수 있다. 다른 예로, 인공 지능 모델(1000)은 시간 정보의 출력 레이아웃(10)에 따른 시침, 분침 및 초침 각각의 위치, 형태, 크기 등에 기초하여 부가 정보를 제공하기 위한 서브 UI의 개수, 크기, 색상 또는 위치를 출력할 수 있다.
본 개시의 일 실시 예에 따른 프로세서(130)는 시간 정보의 출력 레이아웃(10) 및 부가 정보의 출력 레이아웃 정보(20)에 기초하여 시간 정보 및 부가 정보를 포함하는 UI 화면(30)을 제공할 수 있다.
한편, 본 개시의 일 실시 예에 따른 프로세서(130)는 복수의 UI 화면(30)을 획득할 수도 있다. 이 경우, 프로세서(130)는 사용자의 선택, 적합도 등에 기초하여 복수의 UI 화면(30) 중 어느 하나를 디스플레이할 수도 있음은 물론이다. 여기서, 적합도 등은 시간 정보의 출력 레이아웃(10)과 부가 정보의 출력 레이아웃 정보 간 유사도를 의미할 수 있다. 예를 들어, 프로세서(130)는 시간 정보의 출력 레이아웃(10)에 따른 배경 이미지의 색상과 부가 정보의 출력 레이아웃 정보에 따른 부가 정보를 제공하기 위한 서브 UI의 색상의 유사도가 상대적으로 높은 UI 화면(30)을 디스플레이하도록 디스플레이(110)를 제어할 수 있다.
한편, 부가 정보를 제공하기 위한 서브 UI는 컴플리케이션(Complication)으로 불릴 수 있으나, 이하에서는 설명의 편의를 위해 서브 UI로 통칭하도록 한다. 부가 정보를 통해 제공되는 정보, 컨텐츠는 날씨, 활동 진행상황, 일출/일몰 시간, 달의 위상, 알람(Notification), 일정 이벤트 등 시간 정보를 제외한 모든 유형의 추가 정보를 의미할 수 있음은 물론이다. 또한, 스마트 워치 디바이스(100)는 사용자 단말 장치(예를 들어, 스마트 폰)와 통신을 수행하는 연동형 스마트 워치로 구현될 수 있고, 부가 정보를 통해 제공되는 정보, 컨텐츠는 사용자 단말 장치에서 제공 가능한 모든 유형의 추가 정보를 포함할 수 있음은 물론이다. 이하에서는 설명의 편의를 위해 부가 정보를 통해 제공되는 정보, 컨텐츠를 부가 정보의 타입(type)으로 통칭하여 설명하도록 한다.
본 개시의 일 실시 예에 따른 프로세서(130)는 선택된 시간 정보의 출력 레이아웃(10) 및 사용자의 컨텍스트를 인공 지능 모델(1000)에 입력하여 부가 정보의 출력 레이아웃 정보(20)를 획득할 수 있다.
여기서, 사용자의 컨텍스트는 사용자의 터치 이력 또는 외부 사용자 단말에서의 어플리케이션 사용 이력 중 적어도 하나를 포함할 수 있다. 이에 대한 구체적인 설명은 도 4 및 도 5를 참조하여 설명하도록 한다.
도 4는 본 개시의 일 실시 예에 따른 사용자 컨텍스트를 설명하기 위한 도면이다.
도 4를 참조하면, 본 개시의 일 실시 예에 따른 프로세서(130)는 외부 사용자 단말(200)에서의 어플리케이션 사용 이력을 인공 지능 모델에 입력하여 어플리케이션의 기능과 관련된 알림을 제공하는 부가 정보를 획득할 수 있다.
예를 들어, 일 실시 예에 따른 스마트 워치 디바이스(100)는 외부 사용자 단말(200)로부터 외부 사용자 단말(200)에 포함된 복수의 어플리케이션 각각에 대한 사용 이력을 수신할 수 있다. 이어서, 프로세서(130)는 수신된 사용 이력에 기초하여 복수의 부가 정보 중 적어도 하나의 부가 정보를 식별할 수 있다. 일 예로, 인공 지능 모델(1000)는 사용 이력에 기초하여 최빈 사용 이력에 대응되는 어플리케이션과 관련된 부가 정보의 타입을 출력할 수 있다. 도 4를 참조하면, 외부 사용자 단말(200)에서 최빈 사용 이력에 대응되는 어플리케이션이 메신저 어플리케이션이면, 프로세서(130)는 인공 지능 모델(1000)을 이용하여 메신저 어플리케이션과 관련된 부가 정보의 출력 레이아웃 정보(20)을 획득할 수 있다. 이어서, 프로세서(130)는 획득된 부가 정보의 출력 레이아웃 정보(20)에 기초하여 메신저 어플리케이션의 기능과 관련된 알림(Notification)을 제공하는 부가 정보를 획득할 수 있다. 이는 일 실시 예에 불과하며 이에 한정되지 않음은 물론이다.
일 예로, 스마트 워치 디바이스(100) 및 외부 사용자 단말(200)에서 주로 이용되는 어플리케이션은 사용자 별로 상이하다. 예를 들어, 제1 사용자는 Game 관련 컨텐츠, 정보를 제공하는 어플리케이션을 스마트 워치 디바이스(100) 또는 외부 사용자 단말(200)에서 주로 실행하며, 제2 사용자는 Shopping 관련 컨텐츠, 정보를 제공하는 어플리케이션을 스마트 워치 디바이스(100) 또는 외부 사용자 단말(200)에서 주로 실행하는 경우를 상정할 수 있다.
프로세서(130)는 스마트 워치 디바이스(100)에 포함된 복수의 어플리케이션 각각에 대한 사용 이력 또는 외부 사용자 단말(200)에 포함된 복수의 어플리케이션 각각에 대한 사용 이력을 인공 지능 모델(1000)에 입력하여 부가 정보를 통해 제공되는 정보, 컨텐츠 즉, 부가 정보의 타입을 획득할 수 있다. 예를 들어, 제1 사용자의 스마트 워치 디바이스(100)에 따른 프로세서(130)는 Game 관련 정보, 컨텐츠, 알람을 제공하는 부가 정보의 출력 레이아웃 정보(20)를 획득하고, 이어서, 획득된 부가 정보의 출력 레이아웃 정보(20)에 기초하여 Game 관련 부가 정보를 디스플레이할 수 있다.
다른 예로, 제2 사용자의 스마트 워치 디바이스(100)에 따른 프로세서(130)는 Shopping 관련 정보, 컨텐츠, 알람을 제공하는 부가 정보의 출력 레이아웃 정보(20)를 획득하고, 이어서, 획득된 부가 정보의 출력 레이아웃 정보(20)에 기초하여 Shopping 관련 부가 정보를 디스플레이할 수 있다.
도 5는 본 개시의 일 실시 예에 따른 사용자의 터치 이력을 설명하기 위한 도면이다.
도 5를 참조하면, 본 개시의 일 실시 예에 따른 프로세서(130)는 사용자의 터치 이력을 인공 지능 모델(1000)에 입력하여 부가 정보를 제공하기 위한 서브 UI의 크기 또는 위치 중 적어도 하나에 대한 정보를 획득할 수 있다.
예를 들어, 스마트 워치 디바이스(100)의 사용자 별 터치 면적의 크기가 상이할 수 있다. 일 실시 예에 따른 프로세서(130)는 부가 정보를 제공하기 위한 서브 UI의 크기가 스마트 워치 디바이스(100)의 사용자의 터치 면적에 적합하도록 터치 이력을 인공 지능 모델(1000)에 입력하여 부가 정보를 제공하기 위한 서브 UI의 크기 또는 위치 중 적어도 하나에 대한 정보를 획득할 수 있다.
여기서, 사용자의 터치 이력은, 터치 면적 또는 터치 위치 중 적어도 하나를 포함할 수 있다.
일 실시 예에 따라 스마트 워치 디바이스(100)의 사용자 별 손가락 굵기가 상이하므로 터치 면적도 상이하다. 프로세서(130)는 터치 이력에 기초하여 터치 면적이 상대적으로 넓은 사용자에게는 서브 UI의 크기를 터치 면적에 비례하여 크게 제공하고, 터치 면적이 상대적으로 좁은 사용자에게는 서브 UI의 크기를 터치 면적에 비례하여 작게 제공할 수 있다. 이에 따라, 프로세서(130)는 의도치 않은 터치의 유발을 방지할 수 있다.
또한, 프로세서(130)는 터치 위치를 인공 지능 모델(1000)에 입력하여 부가 정보를 제공하기 위한 서브 UI의 위치를 획득할 수 있다. 예를 들어, 사용자 별 편리하게 느끼는 주된 터치 위치가 상이할 수 있다. 프로세서(130)는 터치 이력에 포함된 사용자의 주된 터치 위치에 기초하여 서브 UI를 사용자가 편리하게 느끼는 터치 위치에 디스플레이할 수 있다.
도 6은 본 개시의 일 실시 예에 따른 서브 UI의 위치를 변경하는 방법을 설명하기 위한 도면이다.
도 6을 참조하면, 일 실시 예에 따른 프로세서(130는 서브 UI의 위치를 고정시킬 수도 있고, 유동적으로 변경시킬 수도 있다.
일 예로, 프로세서(130)는 시간 정보에 따라 시침, 분침 및 초침 중 적어도 하나의 위치에 기초하여 부가 정보를 제공하기 위한 서브 UI의 위치를 변경할 수 있다.
예를 들어, 프로세서(130)는 현재 시간 정보에 따른 시침 및 분침의 위치에 따라 서브 UI의 일 영역이 가려지지 않도록 서브 UI의 위치를 변경시킬 수 있다.
도 6을 참조하면, 좌측에 도시된 스마트 워치 디바이스(100)에서는 상단 및 하단에 위치한 서브 UI가 시침 및 분침에 의해 가려지지 않으나, 시간의 경과에 따라 시침 또는 분침이 이동하면 서브 UI의 일 영역이 디스플레이되지 않을 수 있다. 이 경우, 프로세서(130)는 우측에 도시된 스마트 워치 디바이스(100)와 같이, 서브 UI의 모든 영역이 시침 또는 분침에 가려지지 않도록 서브 UI의 위치를 이동시킬 수 있다.
도 6에 도시된 바와 같이, 프로세서(130)는 시침 및 분침의 이동에 따라 서브 UI의 위치를 지속적으로 이동시킬 수도 있고, 기 설정된 시간 간격(예를 들어, 5분 간격)으로 시침 및 분침에 의해 서브 UI의 일 영역이 가려지지 않도록 서브 UI의 위치를 이동시킬 수도 있음은 물론이다.
또한, 일 실시 예에 따른 프로세서(130)는 부가 정보의 타입에 기초하여 부가 정보를 제공하기 위한 서브 UI의 위치를 고정시킬 수도 있고, 유동적으로 변경시킬 수도 있다. 예를 들어, 부가 정보를 통해 제공되는 컨텐츠, 정보가 지속적으로 변경되는 애니메이션 효과를 포함하거나, 업데이트 주기가 임계 시간 미만(예를 들어, 1분이내)이면, 프로세서(130)는 해당 부가 정보를 제공하기 위한 서브 UI의 위치가 시침 및 분침에 의해 가려지지 않도록 서브 UI의 위치를 이동시킬 수 있다. 다른 예로, 부가 정보를 통해 제공되는 컨텐츠, 정보의 업데이트 주기가 임계 시간 이상(예를 들어, 하루 간격)이면, 프로세서(130)는 해당 부가 정보를 제공하기 위한 서브 UI의 위치를 고정시킬 수 있다. 다만, 이는 일 실시 예로 이에 한정되지 않음은 물론이다.
도 7은 본 개시의 일 실시 예에 따른 시간 정보의 출력 레이아웃을 설명하기 위한 도면이다.
도 7을 참조하면, 본 개시의 일 실시 예에 따른 스마트 워치 디바이스(100)에서 제공되는 시간 정보의 출력 레이아웃(10)은 아날로그(Analog) 형태의 출력 레이아웃 또는 디지털(Digital) 형태의 출력 레이아웃을 포함할 수 있다.
일 실시 예에 따른 프로세서(130)는 시간 정보의 출력 레이아웃(10)이 아날로그 형태이면, 아날로그 형태의 출력 레이아웃과 관련된 정보를 인공 지능 모델(1000)에 입력하여 부가 정보에 대응되는 아날로그 형태의 출력 레이아웃 정보(20)를 획득할 수 있다.
다른 예로, 도 7을 참조하면, 시간 정보의 출력 레이아웃(10)이 디지털 형태이면, 디지털 형태의 출력 레이아웃과 관련된 정보를 인공 지능 모델(1000)에 입력하여 부가 정보에 대응되는 디지털 형태의 출력 레이아웃 정보(20)를 획득할 수 있다.
도 7은 상술한 도 3 내지 도 6과 달리, 시간 정보의 출력 레이아웃(10)이 디지털 형태인 경우를 상정하여 도시하였다. 프로세서(130)는 시간 정보(예를 들어, 현재 시간)을 디지털 형태로 제공할 수 있다. 이어서, 프로세서(130)는 디지털 형태의 출력 레이아웃과 관련된 정보를 인공 지능 모델(1000)에 입력할 수 있다. 일 실시 예에 따른 인공 지능 모델(1000)은 시간 정보의 출력 레이아웃(100)과 부가 정보의 출력 레이아웃 정보(20)의 유사도가 임계 값 이상이되도록 부가 정보의 출력 레이아웃을 디지털 형태로 출력할 수 있다.
이어서, 프로세서(130)는 부가 정보에 대응되는 디지털 형태의 출력 레이아웃 정보에 기초하여 부가 정보를 제공하기 위한 서브 UI를 디지털 형태로 제공할 수 있다. 여기서, 디지털 형태는 부가 정보를 통해 제공하기 위한 컨텐츠, 정보를 문자, 숫자 등의 텍스트로 표현하는 것을 의미할 수 있다. 또한,
형태는 부가 정보를 통해 제공하기 위한 컨텐츠, 정보를 연속적으로 변하는 바늘 형태의 오브젝트의 각도, 길이로 수치화하여 표현하는 것을 의미할 수 있다.
한편, 도 7은 일 실시 예로, 시간 정보의 출력 레이아웃이 아날로그 형태일 때, 서브 UI가 반드시 아날로그 형태로 제한되는 것을 의미하지 않는다. 또한, 시간 정보의 출력 레이아웃이 디지털 형태일 때, 서브 UI가 반드시 디지털 형태로 제한되는 것을 의미하지 않음은 물론이다. 예를 들어, 프로세서(130)는 시간 정보를 아날로그 형태로 제공하고, 부가 정보를 제공하기 위한 서브 UI를 디지털 형태로 제공할 수도 있음은 물론이다.
도 8은 본 개시의 일 실시 예에 따른 배터리 잔량 정보를 설명하기 위한 도면이다.
도 8을 참조하면, 본 개시의 일 실시 예에 따른 프로세서(130)는 시간 정보의 출력 레이아웃(10) 및 스마트 워치 디바이스(100)의 배터리 잔량 정보(40)를 인공 지능 모델(1000)에 입력하여 부가 정보의 출력 레이아웃 정보(20)를 획득할 수 있다.
일 예로, 인공 지능 모델(1000)은 동일한 부가 정보를 제공하기 위한 복수의 서브 UI 중 배터리 잔량 정보(40)에 대응되는 어느 하나의 서브 UI를 출력하도록 학습된 모델일 수 있다. 예를 들어, 인공 지능 모델(1000)이 출력한 부가 정보의 출력 레이아웃 정보(20)에 따른 서브 UI는 스마트 워치 디바이스(100)의 배터리 잔량 정보(40)에 따라 상이할 수 있다.
일 예로, 디스플레이(110)에 포함된 복수의 픽셀 중 서브 UI의 디스플레이에 따라 온 상태의 픽셀이 증가하면, 배터리 소모량이 비례하여 증가할 수 있다. 일 실시 예에 따른 인공 지능 모델(1000)은 배터리 잔량 정보(40)에 기초하여 배터리 잔량이 임계 잔량 이상이면 OPR(On Pixel Ratio)가 높게 유지되는 서브 UI를 디스플레이하도록 부가 정보의 출력 레이아웃 정보(20)를 출력할 수 있다. 예를 들어, 프로세서(130)는 서브 UI에 대한 심미적 효과가 증가할 수 있도록 턴 온 상태의 픽셀이 증가하는 색 조합으로 서브 UI를 디스플레이할 수 있다.
다른 예로, 인공 지능 모델(1000)은 배터리 잔량 정보(40)에 기초하여 배터리 잔량이 임계 잔량 미만이면 OPR(On Pixel Ratio)가 낮게 유지되는 서브 UI를 디스플레이하도록 부가 정보의 출력 레이아웃 정보(20)를 출력할 수 있다. 예를 들어, 프로세서(130)는 검은색 배경에 컨텐츠, 정보를 빨간색으로 제공하는 서브 UI를 디스플레이할 수 있다.
따라서, 인공 지능 모델(1000)은 상이한 배터리 소모량을 가지는 복수의 출력 레이아웃 중 입력된 배터리 잔량 정보(40)에 대응되는 출력 레이아웃 정보를 출력하도록 학습된 모델일 수 있다.
또한, 본 개시의 일 실시 예에 따른 프로세서(130)는 스마트 워치 디바이스(100)가 대기 모드에 진입하면, 시간 정보의 출력 레이아웃(10)과 관련된 정보 및 대기 모드에서 배터리 예상 소모량에 대한 정보를 인공 지능 모델(1000)에 입력하여 부가 정보의 출력 레이아웃 정보(20)를 획득할 수 있다.
여기서, 대기 모드는 AOD(Always On Display) 모드일 수 있다. AOD 모드는 화면의 제공이 종료된 뒤에도 날짜, 시간, 배터리 잔량, 알림 등, 시간 정보 및 부가 정보를 디스플레이하는 모드일 수 있다.
일 실시 예에 따라 AOD 모드는 시간 정보 및 부가 정보를 지속적으로 디스플레이하면서도, 배터리 잔량이 급격히 주는 문제를 예방하기 위해 배터리 소모량을 임계 소모량 미만으로 줄일 필요가 있다.
배터리 소모량은 OLED로 구현된 디스플레이(110)의 경우 온(On) 상태의 픽셀 수에 비례하므로, 일 실시 예에 따른 인공 지능 모델(1000)은 배터리 예상 소모량에 기초하여 OPR(On Pixel Ratio)가 임계 비율을 초과하지 않도록 부가 정보의 출력 레이아웃 정보(20)를 출력할 수 있다.
예를 들어, AOD 모드에서 서브 UI의 디스플레이에 따라 온 상태의 픽셀 수가 증가하고, OPR이 임계 비율을 초과하면 배터리 소모량이 증가하는 문제가 발생할 수 있다. 프로세서(130)는 AOD 모드에서 시간 정보 및 부가 정보의 디스플레이에 따른 배터리 예상 소모량을 인공 지능 모델에 입력하여 AOD 모드에서 OPR이 임계 비율을 유지하는 부가 정보의 출력 레이아웃 정보(20)를 획득할 수 있다.
일 실시 예에 따른 프로세서(130)는 획득된 출력 레이아웃 정보(20)에 기초하여 부가 정보를 제공하기 위한 서브 UI를 디스플레이할 수 있다. 예를 들어, 프로세서(130)는 일반 모드(예를 들어, AOD 모드가 아닌 모드)에는 제1 서브 UI로 부가 정보를 제공하고, 대기 모드(예를 들어, AOD 모드)에서는 제2 서브 UI로 부가 정보를 제공할 수 있다. 여기서, 제1 및 제2 서브 UI는 동일한 부가 정보를 제공하기 위한 서브 UI이고, 제1 서브 UI는 제2 서브 UI 보다 상대적으로 온 상태의 픽셀 수가 많은 서브 UI일 수 있다.
다른 예로, 프로세서(130)는 AOD 모드에서 시간 정보만 디스플레이하고, 부가 정보는 디스플레이하지 않을 수도 있다.
또 다른 예로, 프로세서(130)는 AOD 모드에서 부가 정보의 타입에 기초하여 일부 부가 정보만 디스플레이하고, 나머지 부가 정보는 디스플레이하지 않을 수도 있다. 예를 들어, 프로세서(130)는 부가 정보를 통해 제공되는 컨텐츠, 정보가 지속적으로 변경되는 애니메이션 효과를 포함하거나, 업데이트 주기가 임계 시간 미만(예를 들어, 1분이내)이면, 프로세서(130)는 해당 부가 정보를 제공하기 위한 서브 UI를 AOD 모드에서도 디스플레이할 수 있다. 다른 예로, 부가 정보를 통해 제공되는 컨텐츠, 정보의 업데이트 주기가 임계 시간 이상(예를 들어, 하루 간격)이면, 프로세서(130)는 해당 부가 정보를 제공하기 위한 서브 UI를 AOD 모드에서 디스플레이하지 않을 수 있다. 이는 일 실시 예에 불과하며, 이에 한정되지 않음은 물론이다.
도 9는 본 개시의 일 실시 예에 따른 UI 화면을 설명하기 위한 도면이다.
도 9를 참조하면, 본 개시의 일 실시 예에 따른 프로세서(130)는 시간 정보의 출력 레이아웃(10) 및 부가 정보의 출력 레이아웃 정보(20)에 기초하여 시간 정보 및 부가 정보를 제공하기 위한 UI 화면(30)을 획득할 수 있다.
또한, 일 실시 예에 따른 프로세서(130)는 시간 정보의 출력 레이아웃(10) 및 부가 정보의 출력 레이아웃 정보(20)를 인공 지능 모델(1000)에 입력하여 UI 화면(30)을 획득할 수도 있다.
종래에는 시간 정보의 출력 레이아웃(10)(예를 들어, 워치 페이스(watch face))에 따라 제공 가능한 부가 정보(예를 들어, 컴플리케이션(Complication))의 개수, 크기, 색상이 고정되어 있었으며, 부가 정보와 관련된 어플리케이션의 개발자(예를 들어, 3rd party 개발자)는 다양한 시간 정보의 출력 레이아웃(10) 별로 부가 정보의 출력 레이아웃 정보(20)를 개발 및 생성하여야 하는 어려움이 있었다.
이에 따라, 사용자의 부가 정보를 제공하기 위한 서브 UI의 선택이 매우 제한적이거나, 3rd party 개발자의 개발 및 생성이 없으면 서브 UI를 스마트 워치 디바이스(100)에 디스플레이하지 못하는 문제점이 있었다.
본 개시의 다양한 실시 예에 따르면, 부가 정보의 출력 레이아웃 정보(20)에 대한 개발자의 개발 및 생성이 없이도, 프로세서(130)는 인공 지능 모델(1000)을 이용하여 다양한 시간 정보의 출력 레이아웃(10)에 대응되는 부가 정보의 출력 레이아웃 정보(20)를 획득할 수 있다. 이어서, 프로세서(130)는 획득된 출력 레이아웃 정보(20)에 기초하여 부가 정보를 제공하기 위한 서브 UI를 스마트 워치 디바이스(100)에 디스플레이할 수 있음은 물론이다.
도 10은 본 개시의 일 실시 예에 따른 스마트 워치 디바이스의 상세 블록도이다.
도 10을 참조하면, 본 개시의 일 실시 예에 따른 스마트 워치 디바이스(100)는 디스플레이(110), 메모리(120), 프로세서(130), 통신 인터페이스(140), 센서(150) 및 사용자 인터페이스(160)를 포함한다.
메모리(120)는 본 개시의 다양한 실시 예를 위해 필요한 데이터를 저장할 수 있다. 메모리(120)는 데이터 저장 용도에 따라 스마트 워치 디바이스(100)에 임베디드된 메모리 형태로 구현되거나, 스마트 워치 디바이스(100)에 탈부착이 가능한 메모리 형태로 구현될 수도 있다. 예를 들어, 스마트 워치 디바이스(100)의 구동을 위한 데이터의 경우 스마트 워치 디바이스(100)에 임베디드된 메모리에 저장되고, 스마트 워치 디바이스(100)의 확장 기능을 위한 데이터의 경우 스마트 워치 디바이스(100)에 탈부착이 가능한 메모리에 저장될 수 있다. 한편, 스마트 워치 디바이스(100)에 임베디드된 메모리의 경우 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나로 구현될 수 있다. 또한, 스마트 워치 디바이스(100)에 탈부착이 가능한 메모리의 경우 메모리 카드(예를 들어, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), MMC(multi-media card) 등), USB 포트에 연결가능한 외부 메모리(예를 들어, USB 메모리) 등과 같은 형태로 구현될 수 있다.
일 예에 따라 메모리(120)는 스마트 워치 디바이스(100)를 제어하기 위한 적어도 하나의 인스트럭션(instruction) 또는 인스트럭션들을 포함하는 컴퓨터 프로그램을 저장할 수 있다.
한편, 상술한 다양한 예시에서는 인공 지능 모델(1000)이 메모리(120)에 저장된 것으로 상정하여 설명하였으나, 인공 지능 모델(1000)은 외부 서버(미도시)에 저장되고, 스마트 워치 디바이스(100)는 외부 서버와 통신을 수행하여 시간 정보의 출력 레이아웃(10) 및 부가 정보의 출력 레이아웃 정보(20)를 수신할 수도 있음은 물론이다. 이어서, 프로세서(130)는 외부 서버로부터 수신된 시간 정보의 출력 레이아웃(10) 및 부가 정보의 출력 레이아웃 정보(20)에 기초하여 시간 정보 및 부가 정보를 디스플레이할 수 있다.
본 개시에 따른 인공지능과 관련된 기능은 프로세서(130)와 메모리(120)를 통해 동작된다. 프로세서(130)는 하나 또는 복수의 프로세서로 구성될 수 있다. 이때, 하나 또는 복수의 프로세서는 CPU, AP, DSP(Digital Signal Processor) 등과 같은 범용 프로세서, GPU, VPU(Vision Processing Unit)와 같은 그래픽 전용 프로세서 또는 NPU와 같은 인공지능 전용 프로세서일 수 있다. 하나 또는 복수의 프로세서는, 메모리(120)에 저장된 기 정의된 동작 규칙 또는 인공지능 모델에 따라, 입력 데이터를 처리하도록 제어한다. 또는, 하나 또는 복수의 프로세서가 인공지능 전용 프로세서인 경우, 인공지능 전용 프로세서는, 특정 인공지능 모델의 처리에 특화된 하드웨어 구조로 설계될 수 있다.
기 정의된 동작 규칙 또는 인공지능 모델은 학습을 통해 만들어진 것을 특징으로 한다. 여기서, 학습을 통해 만들어진다는 것은, 기본 인공지능 모델이 학습 알고리즘에 의하여 다수의 학습 데이터들을 이용하여 학습됨으로써, 원하는 특성(또는, 목적)을 수행하도록 설정된 기 정의된 동작 규칙 또는 인공지능 모델이 만들어짐을 의미한다. 이러한 학습은 본 개시에 따른 인공지능이 수행되는 기기 자체에서 이루어질 수도 있고, 별도의 서버 및/또는 시스템을 통해 이루어 질 수도 있다. 학습 알고리즘의 예로는, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)이 있으나, 전술한 예에 한정되지 않는다.
인공지능 모델은, 복수의 신경망 레이어들로 구성될 수 있다. 복수의 신경망 레이어들 각각은 복수의 가중치들(weight values)을 갖고 있으며, 이전(previous) 레이어의 연산 결과와 복수의 가중치들 간의 연산을 통해 신경망 연산을 수행한다. 복수의 신경망 레이어들이 갖고 있는 복수의 가중치들은 인공지능 모델의 학습 결과에 의해 최적화될 수 있다. 예를 들어, 학습 과정 동안 인공지능 모델에서 획득한 로스(loss) 값 또는 코스트(cost) 값이 감소 또는 최소화되도록 복수의 가중치들이 갱신될 수 있다. 인공 신경망은 심층 신경망(DNN:Deep Neural Network)를 포함할 수 있으며, 예를 들어, CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN(Bidirectional Recurrent Deep Neural Network) 또는 심층 Q-네트워크 (Deep Q-Networks) 등이 있으나, 전술한 예에 한정되지 않는다.
통신 인터페이스(140)는 다양한 데이터를 입력받는다. 또한, 스마트 워치 디바이스(100)는 외부 사용자 단말과 통신을 수행하도록 통신 인터페이스(140)를 제어할 수 있다. 예를 들어 통신 인터페이스(140)는 AP 기반의 Wi-Fi(와이파이, Wireless LAN 네트워크), 블루투스(Bluetooth), 지그비(Zigbee), 유/무선 LAN(Local Area Network), WAN(Wide Area Network), 이더넷(Ethernet), IEEE 1394, HDMI(High-Definition Multimedia Interface), USB(Universal Serial Bus), MHL(Mobile High-Definition Link), AES/EBU(Audio Engineering Society/ European Broadcasting Union), 옵티컬(Optical), 코액셜(Coaxial) 등과 같은 통신 방식을 통해 외부 장치(예를 들어, 소스 장치, 외부 사용자 단말), 외부 저장 매체(예를 들어, USB 메모리), 외부 서버(예를 들어 웹 하드) 등으로부터 어플리케이션에 대한 사용 이력, 시간 정보의 출력 레이아웃(10) 및 부가 정보의 출력 레이아웃 정보(20)을 수신할 수 있다.
센서(150)는 예를 들면, 물리량을 계측하거나 스마트 워치 디바이스(100)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 센서(150)는, 예를 들면, 제스쳐 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러(color) 센서 (예: RGB(red, green, blue) 센서), 생체 센서, 온/습도 센서, 조도 센서, 또는 UV(ultra violet) 센서 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로, 센서(150)는, 예를 들면, 후각(e-nose) 센서, 일렉트로마이오그라피(EMG) 센서, 일렉트로엔씨팔로그램(EEG) 센서, 일렉트로카디오그램(ECG) 센서, IR(infrared) 센서, 홍채 센서 및/또는 지문 센서를 포함할 수 있다. 센서(150)는 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다. 어떤 실시 예에서는, 스마트 워치 디바이스(100)는 프로세서(130)의 일부로서 또는 별도로, 센서(150)를 제어하도록 구성된 프로세서를 더 포함하여, 프로세서(130)가 슬립(sleep)상태에 있는 동안, 센서(150)를 제어할 수 있다.
특히, 일 실시 예에 따른 센서(150)는 신체 정보를 측정할 수 있는 센서로 구현될 수 있다. 예를 들어, 센서(150)는 사용자의 심박, 혈당, 혈압 또는 체온 중 적어도 하나를 측정 가능한 센서로 구현될 수도 있다. 일 실시 예에 따라 프로세서(130)는 센서(150)를 통해 감지된 사용자 신체 정보에 기초하여 사용자 신체 정보와 관련된 부가 정보를 제공하기 위한 서브 UI를 포함하는 UI화면(30)을 제공할 수 있다. 예를 들어, 센서(150)는 심박 센서를 포함할 수 있다. 여기서, 심박 센서는 스마트 워치 디바이스(100)가 사용자의 신체부위 접촉 시 신체부위 피부 내측의 심박 수를 센싱 가능한 센서로서, 가시광선 파장 영역의 광신호를 이용하여 광학식으로 심박수를 센싱하는 광학식 심박 센서, 심전도 방식으로 심박수를 센싱하는 심전도식 심박 센서 중 적어도 하나 또는 둘의 조합을 포함할 수 있다. 프로세서(130)는 심박 센서로부터 수신된 감지 데이터에 기초하여 사용자의 심박수와 관련된 정보를 제공하기 위한 부가 정보(예를 들어, 컴플리케이션)을 디스플레이할 수 있다.
또한, 센서(150)는 스마트 워치 디바이스(100)의 움직임을 감지하는 감지 센서로 구현될 수도 있다. 예를 들어, 센서(150)는 가속도 센서(미도시) 지자기 센서(미도시), 중력 센서(미도시) 및 자이로 센서(미도시) 중 적어도 하나를 포함할 수 있다. 이어서, 센서(140)는 감지된 스마트 워치 디바이스(100)의 움직임에 대한 정보를 프로세서(130)로 전송할 수 있다. 프로세서(130)는 수신된 정보에 기초하여 사용자의 신체 정보, 스마트 워치 디바이스(100) 상태 정보 등을 제공하기 위한 부가 정보 디스플레이할 수 있다.
여기서, 가속도 센서(Accelerometer Sensor)는 이동하는 스마트 워치 디바이스(100)의 가속도나 충격의 세기를 측정하는 센서로써, 스마트 폰, 테블릿 PC와 같은 전자 장치 뿐만 아니라, 자동차, 기차, 비행기 등과 같은 각종 운송 수단 및 로봇 등의 제어 시스템에 이용되는 필수적인 센서이다.
지자기 센서(Magnetic Sensor)는 지구 자기장을 이용하여 방위각을 탐지할 수 있는 전자 나침판으로써, 위치 추적, 3D 영상 게임 등에 사용되거나, 스마트 폰, 무전기, GPS, PDA, 네비게이션 항법 장치 등에 사용되는 센서이다.
중력 센서(Gravity Sensor)는 중력이 어느 방향으로 작용하는지 탐지하는 센서로써, 사용자가 스마트 워치 디바이스(100)을 들고 있는 방향에 따라 자동으로 회전하여 방향을 감지하는 등의 역할에 이용되는 센서이다.
자이로 센서(Gyroscope Sensor)(114)는 기존의 가속도 센서에 각각 회전을 넣어 6축 방향을 인식하여 하여 좀더 세밀하고 정밀한 동작을 인식할 수 있도록 도와주는 센서이다.
본 개시의 일 실시 예에 따른 센서(150)는 스마트 워치 디바이스(100)의 움직임을 감지하고, 감지 데이터를 프로세서(130)로 전송할 수 있다. 프로세서(130)는 수신된 감지 데이터에 기초하여 사용자의 움직임에 대응되는 정보를 제공하기 위한 컴플리케이션을 디스플레이할 수 있다. 예를 들어, 프로세서(130)는 사용자의 움직임에 대응되는 정보로서 걸음 수, 이동 거리, 칼로리 소모량 등을 제공하기 위한 컴플리케이션을 디스플레이할 수 있다.
다른 예로, 프로세서(130)는 감지 데이터에 기초하여 사용자가 수행 중인 스포츠를 식별할 수도 있다. 예를 들어, 프로세서(130)는 감지 데이터에 기초하여 사용자가 마라톤을 하는 중인 것으로 식별되면, 걸음 수, 이동 거리, 칼로리 소모량, 고도 변화량, 사용자의 심박 또는 사용자의 체온 중 적어도 하나를 제공하기 위한 컴플리케이션을 디스플레이할 수 있다. 다른 예로, 프로세서(140)는 감지 데이터에 기초하여 사용자가 사이클을 하는 중인 것으로 식별되면, 이동 거리, 지도 상 이동 경로, 칼로리 소모량, 고도 변화량, 사용자의 심박 또는 사용자의 체온 중 적어도 하나를 제공하기 위한 컴플리케이션을 디스플레이할 수도 있음은 물론이다.
사용자 인터페이스(160)는 용두 형상의 버튼, 버튼, 터치 패드, 마우스 및 키보드와 같은 장치로 구현되거나, 상술한 디스플레이 기능 및 조작 입력 기능도 함께 수행 가능한 터치 스크린, 리모콘 송수신부 등으로 구현될 수 있다. 리모콘 송수신부는 적외선 통신, 블루투스 통신 또는 와이파이 통신 중 적어도 하나의 통신 방식을 통해 외부 원격 제어 장치로부터 리모콘 신호를 수신하거나, 리모콘 신호를 송신할 수 있다.
전자 장치 (100)는 구현 예에 따라 음향 신호를 출력하는 출력부를 구비할 수도 있다. 예를 들어, 출력부는 프로세서(110)에서 처리된 디지털 음향 신호를 아날로그 음향 신호로 변환하고 증폭하여 출력할 수 있다. 예를 들어, 출력부는 적어도 하나의 채널을 출력할 수 있는, 적어도 하나의 스피커 유닛, D/A 컨버터, 오디오 앰프(audio amplifier) 등을 포함할 수 있다. 일 예에 따라 출력부는 다양한 멀티 채널 음향 신호를 출력하도록 구현될 수 있다. 이 경우, 프로세서(110)는 입력 영상의 인핸스 처리에 대응되도록 입력된 음향 신호를 인핸스 처리하여 출력하도록 출력부를 제어할 수 있다. 예를 들어, 프로세서(110)는 입력된 2채널 음향 신호를 가상의 멀티 채널(예를 들어, 5.1 채널) 음향 신호로 변환하거나, 수신 장치(100’)가 놓인 위치를 인식해 공간에 최적화된 입체 음향 신호로 처리하거나, 입력 영상의 타입(예를 들어 컨텐츠 장르)에 따라 최적화된 음향 신호를 제공할 수 있다.
도 11은 본 개시의 일 실시 예에 따른 스마트 워치 디바이스의 제어 방법을 설명하기 위한 흐름도이다.
도 11에 도시된 스마트 워치 디바이스에서 제공되는 부가 정보의 출력 레이아웃 정보를 획득하도록 학습된 인공 지능 모델(Artificial Intelligence Model)을 포함하는 스마트 워치 디바이스의 제어 방법에 따르면, 우선, 스마트 워치 디바이스에서 제공되는 시간 정보의 출력 레이아웃이 선택되면, 시간 정보의 출력 레이아웃과 관련된 정보를 인공 지능 모델에 입력하여 부가 정보의 출력 레이아웃 정보를 획득한다(S1110).
이어서, 시간 정보의 출력 레이아웃 및 부가 정보의 출력 레이아웃 정보에 기초하여 시간 정보 및 부가 정보를 포함하는 UI 화면을 제공한다(S1120).
여기서, 시간 정보의 출력 레이아웃은, 시간 정보를 제공하기 위한 시침, 분침 및 초침 각각의 형태, 크기 또는 색상 중 적어도 하나에 대한 정보를 포함하고, 부가 정보의 출력 레이아웃 정보는, 부가 정보의 타입, 부가 정보를 제공하기 위한 서브 UI의 개수, 크기, 색상 또는 위치 중 적어도 하나를 포함할 수 있다.
일 실시 예에 따라 부가 정보의 출력 레이아웃 정보를 획득하는 S1110 단계는, 스마트 워치 디바이스에서 제공되는 시간 정보의 출력 레이아웃이 선택되면, 출력 레이아웃과 관련된 정보 및 사용자 컨텍스트를 인공 지능 모델에 입력하여 부가 정보의 출력 레이아웃 정보를 획득하는 단계를 포함할 수 있다. 여기서, 사용자 컨텍스트는, 사용자의 터치 이력 또는 외부 사용자 단말에서의 어플리케이션 사용 이력 중 적어도 하나를 포함할 수 있다.
일 실시 예에 따른 사용자의 터치 이력은, 터치 면적 또는 터치 위치 중 적어도 하나를 포함하며, 부가 정보의 출력 레이아웃 정보를 획득하는 S1110 단계는, 터치 면적 또는 터치 위치 중 적어도 하나를 인공 지능 모델에 입력하여 부가 정보를 제공하기 위한 서브 UI의 크기 또는 위치 중 적어도 하나를 획득하는 단계를 포함할 수 있다.
일 실시 예에 따른 제어 방법은, 외부 사용자 단말에서의 어플리케이션 사용 이력을 인공 지능 모델에 입력하여 어플리케이션의 기능과 관련된 알림을 제공하는 부가 정보를 획득하는 단계를 더 포함할 수 있다.
또한, 일 실시 예에 따른 제어 방법은, 현재 시간 정보에 기초한 시침, 분침 및 초침 중 적어도 하나의 위치에 기초하여 부가 정보를 제공하기 위한 서브 UI의 위치를 변경하는 단계를 더 포함할 수 있다.
또한, 스마트 워치 디바이스에서 제공되는 시간 정보의 출력 레이아웃은 아날로그(Analog) 형태의 출력 레이아웃 또는 디지털(Digital) 형태의 출력 레이아웃을 포함할 수 있다.
일 실시 예에 따른 부가 정보의 출력 레이아웃 정보를 획득하는 S1110 단계는, 시간 정보의 출력 레이아웃이 아날로그 형태이면, 아날로그 형태의 출력 레이아웃과 관련된 정보를 인공 지능 모델에 입력하여 부가 정보에 대응되는 아날로그 형태의 출력 레이아웃 정보를 획득하는 단계 및 시간 정보의 출력 레이아웃이 디지털 형태이면, 디지털 형태의 출력 레이아웃과 관련된 정보를 인공 지능 모델에 입력하여 부가 정보에 대응되는 디지털 형태의 출력 레이아웃 정보를 획득하는 단계를 포함할 수 있다.
또한, 스마트 워치 디바이스는 센서를 포함하고, 제어 방법은, 센서를 통해 감지된 사용자 신체 정보에 기초하여 감지된 사용자 신체 정보와 관련된 부가 정보를 포함하는 UI 화면을 제공하도록 디스플레이를 제어하는 단계를 더 포함할 수 있다.
일 실시 예에 따른 부가 정보의 출력 레이아웃 정보를 획득하는 S1110 단계는, 시간 정보의 출력 레이아웃과 관련된 정보 및 스마트 워치 디바이스의 배터리 잔량 정보를 인공 지능 모델에 입력하여 부가 정보의 출력 레이아웃 정보를 획득하는 단계를 포함할 수 있다. 여기서, 인공 지능 모델은, 상이한 배터리 소모량을 가지는 복수의 출력 레이아웃 중 입력된 배터리 잔량 정보에 대응되는 출력 레이아웃 정보를 출력하도록 학습될 모델일 수 있다.
일 실시 예에 따른 부가 정보의 출력 레이아웃 정보를 획득하는 S1110 단계는, 스마트 워치 디바이스가 대기 모드에 진입하면, 시간 정보의 출력 레이아웃과 관련된 정보 및 대기 모드에서 배터리 예상 소모량에 대한 정보를 인공 지능 모델에 입력하여 부가 정보의 출력 레이아웃 정보를 획득하는 단계를 포함하고, 인공 지능 모델은, 상이한 배터리 소모량을 가지는 복수의 출력 레이아웃 중 입력된 배터리 예상 소모량에 대응되는 출력 레이아웃 정보를 출력하도록 학습될 수 있다.
다만, 본 개시의 다양한 실시 예들은 스마트 워치 디바이스 뿐 아니라, 디스플레이 장치 등 영상 처리가 가능한 모든 전자 장치에 적용될 수 있음은 물론이다.
한편, 이상에서 설명된 다양한 실시 예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합을 이용하여 컴퓨터(computer) 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다. 일부 경우에 있어 본 명세서에서 설명되는 실시 예들이 프로세서(120) 자체로 구현될 수 있다. 소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 동작을 수행할 수 있다.
한편, 상술한 본 개시의 다양한 실시 예들에 따른 음향 출력 장치(100)의 프로세싱 동작을 수행하기 위한 컴퓨터 명령어(computer instructions)는 비일시적 컴퓨터 판독 가능 매체(non-transitory computer-readable medium) 에 저장될 수 있다. 이러한 비일시적 컴퓨터 판독 가능 매체에 저장된 컴퓨터 명령어는 특정 기기의 프로세서에 의해 실행되었을 때 상술한 다양한 실시 예에 따른 음향 출력 장치(100)에서의 처리 동작을 특정 기기가 수행하도록 한다.
비일시적 컴퓨터 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 비일시적 컴퓨터 판독 가능 매체의 구체적인 예로는, CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등이 있을 수 있다.
이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
100: 스마트 워치 디바이스 110: 디스플레이 패널
120: 메모리 130: 프로세서

Claims (20)

  1. 디바이스에 있어서,
    디스플레이;
    상기 디바이스에서 제공되는 부가 정보의 출력 레이아웃 정보를 획득하도록 학습된 인공 지능 모델(Artificial Intelligence Model)을 저장하는 메모리; 및
    상기 디스플레이 및 상기 메모리와 연결되어 상기 디바이스를 제어하는 프로세서;를 포함하고,
    상기 프로세서는,
    상기 디바이스에서 제공되는 메인 정보의 출력 레이아웃이 선택되면, 상기 메인 정보의 출력 레이아웃과 관련된 정보를 상기 인공 지능 모델에 입력하여 상기 부가 정보의 출력 레이아웃 정보를 획득하고,
    상기 메인 정보의 출력 레이아웃 및 상기 부가 정보의 출력 레이아웃 정보에 기초하여 상기 메인 정보 및 상기 부가 정보를 포함하는 UI 화면을 제공하도록 상기 디스플레이를 제어하는, 디바이스.
  2. 제1항에 있어서,
    상기 메인 정보는 시간 정보이고,
    상기 시간 정보의 출력 레이아웃은,
    상기 시간 정보를 제공하기 위한 시침, 분침 및 초침 각각의 형태, 크기 또는 색상 중 적어도 하나에 대한 정보를 포함하고,
    상기 부가 정보의 출력 레이아웃 정보는,
    상기 부가 정보의 타입, 상기 부가 정보를 제공하기 위한 서브 UI의 개수, 크기, 색상 또는 위치 중 적어도 하나를 포함하는, 디바이스.
  3. 제1항에 있어서,
    상기 프로세서는,
    상기 디바이스에서 제공되는 메인 정보의 출력 레이아웃이 선택되면, 상기 출력 레이아웃과 관련된 정보 및 사용자 컨텍스트를 상기 인공 지능 모델에 입력하여 상기 부가 정보의 출력 레이아웃 정보를 획득하며,
    상기 사용자 컨텍스트는,
    사용자의 터치 이력 또는 외부 사용자 단말에서의 어플리케이션 사용 이력 중 적어도 하나를 포함하는, 디바이스.
  4. 제3항에 있어서,
    상기 사용자의 터치 이력은, 터치 면적 또는 터치 위치 중 적어도 하나를 포함하며,
    상기 프로세서는,
    상기 터치 면적 또는 터치 위치 중 적어도 하나를 상기 인공 지능 모델에 입력하여 상기 부가 정보를 제공하기 위한 서브 UI의 크기 또는 위치 중 적어도 하나를 획득하는, 디바이스.
  5. 제3항에 있어서,
    상기 프로세서는,
    상기 외부 사용자 단말에서의 어플리케이션 사용 이력을 상기 인공 지능 모델에 입력하여 상기 어플리케이션의 기능과 관련된 알림을 제공하는 상기 부가 정보를 획득하는, 디바이스.
  6. 제1항에 있어서,
    상기 메인 정보는 시간 정보이고,
    상기 프로세서는,
    현재 시간 정보에 기초한 시침, 분침 및 초침 중 적어도 하나의 위치에 기초하여 상기 부가 정보를 제공하기 위한 서브 UI의 위치를 변경하는, 디바이스.
  7. 제1항에 있어서,
    상기 메인 정보는 시간 정보이고,
    상기 디바이스에서 제공되는 시간 정보의 출력 레이아웃은 아날로그(Analog) 형태의 출력 레이아웃 또는 디지털(Digital) 형태의 출력 레이아웃을 포함하고,
    상기 프로세서는,
    상기 시간 정보의 출력 레이아웃이 아날로그 형태이면, 상기 아날로그 형태의 출력 레이아웃과 관련된 정보를 상기 인공 지능 모델에 입력하여 상기 부가 정보에 대응되는 아날로그 형태의 출력 레이아웃 정보를 획득하고,
    상기 시간 정보의 출력 레이아웃이 디지털 형태이면, 상기 디지털 형태의 출력 레이아웃과 관련된 정보를 상기 인공 지능 모델에 입력하여 상기 부가 정보에 대응되는 디지털 형태의 출력 레이아웃 정보를 획득하는, 디바이스.
  8. 제1항에 있어서,
    센서;를 더 포함하고,
    상기 프로세서는,
    상기 센서를 통해 감지된 사용자 신체 정보에 기초하여 상기 감지된 사용자 신체 정보와 관련된 부가 정보를 포함하는 상기 UI 화면을 제공하도록 상기 디스플레이를 제어하는, 디바이스.
  9. 제1항에 있어서,
    상기 프로세서는,
    상기 메인 정보의 출력 레이아웃과 관련된 정보 및 상기 디바이스의 배터리 잔량 정보를 상기 인공 지능 모델에 입력하여 상기 부가 정보의 출력 레이아웃 정보를 획득하며,
    상기 인공 지능 모델은,
    상이한 배터리 소모량을 가지는 복수의 출력 레이아웃 중 입력된 배터리 잔량 정보에 대응되는 출력 레이아웃 정보를 출력하도록 학습된, 디바이스.
  10. 제1항에 있어서,
    상기 프로세서는,
    상기 디바이스가 대기 모드에 진입하면, 상기 메인 정보의 출력 레이아웃과 관련된 정보 및 상기 대기 모드에서 배터리 예상 소모량에 대한 정보를 상기 인공 지능 모델에 입력하여 상기 부가 정보의 출력 레이아웃 정보를 획득하며,
    상기 인공 지능 모델은,
    상이한 배터리 소모량을 가지는 복수의 출력 레이아웃 중 입력된 배터리 예상 소모량에 대응되는 출력 레이아웃 정보를 출력하도록 학습된, 디바이스.
  11. 디바이스에서 제공되는 부가 정보의 출력 레이아웃 정보를 획득하도록 학습된 인공 지능 모델(Artificial Intelligence Model)을 포함하는 상기 디바이스의 제어 방법에 있어서,
    상기 디바이스에서 제공되는 메인 정보의 출력 레이아웃이 선택되면, 상기 메인 정보의 출력 레이아웃과 관련된 정보를 상기 인공 지능 모델에 입력하여 상기 부가 정보의 출력 레이아웃 정보를 획득하는 단계; 및
    상기 메인 정보의 출력 레이아웃 및 상기 부가 정보의 출력 레이아웃 정보에 기초하여 상기 메인 정보 및 상기 부가 정보를 포함하는 UI 화면을 제공하는 단계;를 포함하는 제어 방법.
  12. 제11항에 있어서,
    상기 메인 정보는 시간 정보이고,
    상기 시간 정보의 출력 레이아웃은,
    상기 시간 정보를 제공하기 위한 시침, 분침 및 초침 각각의 형태, 크기 또는 색상 중 적어도 하나에 대한 정보를 포함하고,
    상기 부가 정보의 출력 레이아웃 정보는,
    상기 부가 정보의 타입, 상기 부가 정보를 제공하기 위한 서브 UI의 개수, 크기, 색상 또는 위치 중 적어도 하나를 포함하는, 제어 방법.
  13. 제11항에 있어서,
    상기 부가 정보의 출력 레이아웃 정보를 획득하는 단계는,
    상기 디바이스에서 제공되는 메인 정보의 출력 레이아웃이 선택되면, 상기 출력 레이아웃과 관련된 정보 및 사용자 컨텍스트를 상기 인공 지능 모델에 입력하여 상기 부가 정보의 출력 레이아웃 정보를 획득하는 단계;를 포함하고,
    상기 사용자 컨텍스트는,
    사용자의 터치 이력 또는 외부 사용자 단말에서의 어플리케이션 사용 이력 중 적어도 하나를 포함하는, 제어 방법.
  14. 제13항에 있어서,
    상기 사용자의 터치 이력은, 터치 면적 또는 터치 위치 중 적어도 하나를 포함하며,
    상기 부가 정보의 출력 레이아웃 정보를 획득하는 단계는,
    상기 터치 면적 또는 터치 위치 중 적어도 하나를 상기 인공 지능 모델에 입력하여 상기 부가 정보를 제공하기 위한 서브 UI의 크기 또는 위치 중 적어도 하나를 획득하는 단계;를 포함하는, 제어 방법.
  15. 제13항에 있어서,
    상기 외부 사용자 단말에서의 어플리케이션 사용 이력을 상기 인공 지능 모델에 입력하여 상기 어플리케이션의 기능과 관련된 알림을 제공하는 상기 부가 정보를 획득하는 단계;를 더 포함하는, 제어 방법.
  16. 제11항에 있어서,
    상기 메인 정보는 시간 정보이고,
    현재 시간 정보에 기초한 시침, 분침 및 초침 중 적어도 하나의 위치에 기초하여 상기 부가 정보를 제공하기 위한 서브 UI의 위치를 변경하는 단계;를 더 포함하는, 제어 방법.
  17. 제11항에 있어서,
    상기 메인 정보는 시간 정보이고,
    상기 디바이스에서 제공되는 시간 정보의 출력 레이아웃은 아날로그(Analog) 형태의 출력 레이아웃 또는 디지털(Digital) 형태의 출력 레이아웃을 포함하고,
    상기 부가 정보의 출력 레이아웃 정보를 획득하는 단계는,
    상기 시간 정보의 출력 레이아웃이 아날로그 형태이면, 상기 아날로그 형태의 출력 레이아웃과 관련된 정보를 상기 인공 지능 모델에 입력하여 상기 부가 정보에 대응되는 아날로그 형태의 출력 레이아웃 정보를 획득하는 단계; 및
    상기 시간 정보의 출력 레이아웃이 디지털 형태이면, 상기 디지털 형태의 출력 레이아웃과 관련된 정보를 상기 인공 지능 모델에 입력하여 상기 부가 정보에 대응되는 디지털 형태의 출력 레이아웃 정보를 획득하는 단계;를 포함하는, 제어 방법.
  18. 제11항에 있어서,
    상기 디바이스는 센서를 포함하고,
    상기 센서를 통해 감지된 사용자 신체 정보에 기초하여 상기 감지된 사용자 신체 정보와 관련된 부가 정보를 포함하는 상기 UI 화면을 제공하도록 상기 디스플레이를 제어하는 단계;를 더 포함하는, 제어 방법.
  19. 제11항에 있어서,
    상기 부가 정보의 출력 레이아웃 정보를 획득하는 단계는,
    상기 메인 정보의 출력 레이아웃과 관련된 정보 및 상기 디바이스의 배터리 잔량 정보를 상기 인공 지능 모델에 입력하여 상기 부가 정보의 출력 레이아웃 정보를 획득하는 단계;를 포함하고,
    상기 인공 지능 모델은,
    상이한 배터리 소모량을 가지는 복수의 출력 레이아웃 중 입력된 배터리 잔량 정보에 대응되는 출력 레이아웃 정보를 출력하도록 학습된, 제어 방법.
  20. 제11항에 있어서,
    상기 부가 정보의 출력 레이아웃 정보를 획득하는 단계는,
    상기 디바이스가 대기 모드에 진입하면, 상기 메인 정보의 출력 레이아웃과 관련된 정보 및 상기 대기 모드에서 배터리 예상 소모량에 대한 정보를 상기 인공 지능 모델에 입력하여 상기 부가 정보의 출력 레이아웃 정보를 획득하는 단계;를 포함하고,
    상기 인공 지능 모델은,
    상이한 배터리 소모량을 가지는 복수의 출력 레이아웃 중 입력된 배터리 예상 소모량에 대응되는 출력 레이아웃 정보를 출력하도록 학습된, 제어 방법.
KR1020200019761A 2020-02-18 2020-02-18 디바이스 및 그 제어 방법 KR20210105153A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020200019761A KR20210105153A (ko) 2020-02-18 2020-02-18 디바이스 및 그 제어 방법
PCT/KR2021/001806 WO2021167289A1 (en) 2020-02-18 2021-02-10 Device and control method thereof
US17/249,038 US11768598B2 (en) 2020-02-18 2021-02-18 Device having a display and control method for obtaining output layout of information on the display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200019761A KR20210105153A (ko) 2020-02-18 2020-02-18 디바이스 및 그 제어 방법

Publications (1)

Publication Number Publication Date
KR20210105153A true KR20210105153A (ko) 2021-08-26

Family

ID=77273457

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200019761A KR20210105153A (ko) 2020-02-18 2020-02-18 디바이스 및 그 제어 방법

Country Status (3)

Country Link
US (1) US11768598B2 (ko)
KR (1) KR20210105153A (ko)
WO (1) WO2021167289A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113963086B (zh) * 2021-09-18 2024-04-12 荣耀终端有限公司 一种熄屏显示方法及电子设备

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6760048B1 (en) * 1999-06-15 2004-07-06 International Business Machines Corporation Display of occluded display elements on a computer display
US20090210820A1 (en) * 2006-05-11 2009-08-20 Takao Adachi Display object layout changing device
US9041653B2 (en) * 2008-07-18 2015-05-26 Htc Corporation Electronic device, controlling method thereof and computer program product
KR20100043991A (ko) * 2008-10-21 2010-04-29 엘지전자 주식회사 휴대용 전자기기 및 그 디스플레이방법
US8564619B2 (en) * 2009-12-17 2013-10-22 Motorola Mobility Llc Electronic device and method for displaying a background setting together with icons and/or application windows on a display screen thereof
KR101761612B1 (ko) * 2010-07-16 2017-07-27 엘지전자 주식회사 이동 단말기 및 이것의 메뉴 화면 구성 방법
US20120036468A1 (en) * 2010-08-03 2012-02-09 Nokia Corporation User input remapping
US9448724B2 (en) * 2011-07-11 2016-09-20 International Business Machines Corporation Dynamically customizable touch screen keyboard for adapting to user physiology
US10304347B2 (en) 2012-05-09 2019-05-28 Apple Inc. Exercised-based watch face and complications
US9164623B2 (en) * 2012-10-05 2015-10-20 Htc Corporation Portable device and key hit area adjustment method thereof
US9411510B2 (en) * 2012-12-07 2016-08-09 Apple Inc. Techniques for preventing typographical errors on soft keyboards
KR101561827B1 (ko) * 2013-02-21 2015-10-20 주식회사 팬택 단말 화면 상의 객체 처리 장치 및 방법
US20140372921A1 (en) * 2013-06-17 2014-12-18 Vonage Network Llc Systems and methods for display of a video call in picture in picture mode
US9794397B2 (en) * 2013-10-16 2017-10-17 Lg Electronics Inc. Watch type mobile terminal and method for controlling the same
KR102418119B1 (ko) 2014-08-25 2022-07-07 삼성전자 주식회사 시계 화면 구성 방법 및 이를 구현한 웨어러블 전자장치
US10282069B2 (en) * 2014-09-30 2019-05-07 Microsoft Technology Licensing, Llc Dynamic presentation of suggested content
US9720882B2 (en) 2014-11-20 2017-08-01 Yahoo! Inc. Automatically creating at-a-glance content
KR102269598B1 (ko) * 2014-12-08 2021-06-25 삼성전자주식회사 배경화면의 내용에 대응하여 객체를 배열하는 방법 및 장치
US10965622B2 (en) * 2015-04-16 2021-03-30 Samsung Electronics Co., Ltd. Method and apparatus for recommending reply message
US10175866B2 (en) 2015-06-05 2019-01-08 Apple Inc. Providing complications on an electronic watch
US20160372083A1 (en) * 2015-06-18 2016-12-22 Intel Corporation Facilitating increased user experience and efficient power performance using intelligent segmentation on flexible display screens
US9300554B1 (en) * 2015-06-25 2016-03-29 Extrahop Networks, Inc. Heuristics for determining the layout of a procedurally generated user interface
US20170003710A1 (en) * 2015-07-01 2017-01-05 Siemens Aktiengesellschaft Portable display device
US10365811B2 (en) 2015-09-15 2019-07-30 Verizon Patent And Licensing Inc. Home screen for wearable devices
US10353549B2 (en) 2016-05-13 2019-07-16 Servicenow, Inc. Predictive watch face interface
KR101902864B1 (ko) 2016-10-19 2018-10-01 주식회사 앱포스터 스마트 워치의 시계 화면 디자인 생성 방법 및 그 장치
GB2558870A (en) * 2016-10-25 2018-07-25 Parrotplay As Internet browsing
CN108228122B (zh) 2016-12-22 2020-12-25 华为技术有限公司 一种表盘呈现的方法、装置和智能手表
US20190042071A1 (en) * 2017-08-07 2019-02-07 Microsoft Technology Licensing, Llc Contextual experience based on location
US10845767B2 (en) 2017-10-25 2020-11-24 Lenovo (Singapore) Pte. Ltd. Watch face selection
KR102508151B1 (ko) * 2018-01-02 2023-03-09 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US10928982B2 (en) * 2018-10-31 2021-02-23 Salesforce.Com, Inc. Automatic grouping of user interface elements into components
US10817063B2 (en) * 2019-02-11 2020-10-27 Volvo Car Corporation Facilitating interaction with a vehicle touchscreen using haptic feedback
US11301780B2 (en) * 2019-02-15 2022-04-12 Samsung Electronics Co., Ltd. Method and electronic device for machine learning based prediction of subsequent user interface layouts
US10922101B2 (en) * 2019-06-26 2021-02-16 International Business Machines Corporation User interface widget recommendation
KR102192147B1 (ko) * 2019-08-30 2020-12-16 엘지전자 주식회사 지능적 기기 제어 방법, 이동 단말기 및 지능형 컴퓨팅 디바이스
US20210232273A1 (en) * 2020-01-28 2021-07-29 The Western Union Company Personalized graphical user interface displays
US11100552B1 (en) * 2020-08-04 2021-08-24 Stylitics, Inc. Automated stylist for curation of style-conforming outfits
US20220334686A1 (en) * 2021-04-19 2022-10-20 Microsoft Technology Licensing, Llc Intuitive display of intelligent snap assist recommendations

Also Published As

Publication number Publication date
US20210255766A1 (en) 2021-08-19
WO2021167289A1 (en) 2021-08-26
US11768598B2 (en) 2023-09-26

Similar Documents

Publication Publication Date Title
KR102549463B1 (ko) 이미지 처리 방법 및 이를 지원하는 전자 장치
CN110558941B (zh) 响应于用户手势而更新屏幕内容的方法、系统及设备
CN104024987B (zh) 用于可佩戴导航设备的装置、方法和技术
US9804679B2 (en) Touchless user interface navigation using gestures
US8781791B2 (en) Touchscreen with dynamically-defined areas having different scanning modes
US20160142407A1 (en) Method and apparatus for displaying user interface in electronic device
CN107997767A (zh) 用于识别用户活动的方法及其电子设备
KR20170019081A (ko) 휴대 장치 및 휴대 장치의 화면 표시방법
CN105748057A (zh) 信息显示方法和支持该信息显示方法的电子设备
CN113520340A (zh) 一种睡眠报告的生成方法、装置、终端以及存储介质
CN108272436A (zh) 装置状态相依的用户接口管理
CN106537283A (zh) 智能装置唤醒
CN107025050A (zh) 用户接口方法和用于执行该方法的电子装置
CN108024763B (zh) 活动信息提供方法及支持其的电子设备
US20210394369A1 (en) Healthcare robot and control method therefor
US20200073481A1 (en) Information processing apparatus, information processing method, and program
JP7329559B2 (ja) 低電力状態からウェイク状態デバイス機能への直接アクセス
US20230294000A1 (en) Program, method, and information processing device
CN111798978A (zh) 用户健康评估方法、装置、存储介质及电子设备
KR20190109654A (ko) 심장 박동을 측정하기 위한 전자 장치 및 방법
US11768598B2 (en) Device having a display and control method for obtaining output layout of information on the display
KR20230022774A (ko) 이미지를 표시하는 전자 장치 및 그 동작 방법
CN108427529A (zh) 电子设备及其操作方法
US20190121803A1 (en) Scoring of micromodules in a health program feed
US20230205325A1 (en) Wearable apparatus and control method thereof