KR102158432B1 - 사용자의 UI(User Interface)에 대한 상호 작용에 기반하여 UI 구성요소들을 재배치하는 시스템 및 방법 - Google Patents

사용자의 UI(User Interface)에 대한 상호 작용에 기반하여 UI 구성요소들을 재배치하는 시스템 및 방법 Download PDF

Info

Publication number
KR102158432B1
KR102158432B1 KR1020190161413A KR20190161413A KR102158432B1 KR 102158432 B1 KR102158432 B1 KR 102158432B1 KR 1020190161413 A KR1020190161413 A KR 1020190161413A KR 20190161413 A KR20190161413 A KR 20190161413A KR 102158432 B1 KR102158432 B1 KR 102158432B1
Authority
KR
South Korea
Prior art keywords
user terminal
behavior
information
user
pattern
Prior art date
Application number
KR1020190161413A
Other languages
English (en)
Inventor
안정모
장운석
Original Assignee
(주)미디어스퀘어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)미디어스퀘어 filed Critical (주)미디어스퀘어
Priority to KR1020190161413A priority Critical patent/KR102158432B1/ko
Application granted granted Critical
Publication of KR102158432B1 publication Critical patent/KR102158432B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0269Targeted advertisements based on user profile or attribute

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Human Computer Interaction (AREA)
  • Development Economics (AREA)
  • Software Systems (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Game Theory and Decision Science (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 개시는 UI(User Interface)에 대한 사용 행위 분석에 기반하여 UI를 재배치하는 시스템에 관한 것이다. 이 시스템은, 제1 사용자 단말의 제1 UI 행위를 감지하도록 구성된 감지부, 감지부를 통해서 감지된 제1 사용자 단말의 제1 UI 행위를 분석하여 UI 패턴 정보를 생성하도록 구성된 패턴 분석부, 패턴 분석부에서 생성된 UI 패턴 정보를 이용하여 제1 사용자 단말의 UI 패턴을 학습하고, UI 패턴 학습 정보를 생성하도록 구성된 UI 학습부, UI 패턴 학습 정보에 기초하여 제1 사용자 단말의 맞춤형 UI를 자동으로 구성하여 제1 사용자 단말로 제공하는 UI 제공부를 포함할 수 있다.

Description

사용자의 UI(User Interface)에 대한 상호 작용에 기반하여 UI 구성요소들을 재배치하는 시스템 및 방법 {SYSTEM AND METHOD FOR REDEPLOYING UI COMPONENTS BASED ON USER'S INTERACTION ON USER INTERFACE}
본 개시는, 사용자가 사용자 인터페이스(UI)를 사용하는 행위를 분석하여 UI 구성요소들을 재배열하고, 사용자 행위의 특성에 따라 컨텐츠를 배치하는 시스템에 관한 것이다.
일반적으로 사용자는 특정 기능이나 콘텐츠를 제공하는 소프트웨어 또는 웹페이지를 이용할 때, 그 소프트웨어 등에 구현된 사용자 인터페이스(UI)를 그대로 사용한다. 즉, 소프트웨어 또는 웹페이지를 제작하여 제공하는 업체는, 일반적인 사용자의 UI 사용 특성이나 제공되는 기능을 고려하고 소프트웨어가 제공하는 콘텐츠의 사용 효율과 사용자의 만족도를 높이기 위해 최적의 UI 구성요소들의 배치를 설계하고, 그 설계안에 따라 UI 구성요소들을 배치한다.
그러나, 이와 같이 사전 설계된 UI 구성과 디자인을 사용하는 경우, 사용자들은 개인별로 UI 사용 패턴이 다르더라도 이미 결정된 UI 구성에 익숙해져 사용할 수밖에 없는 환경에 놓이게 된다. 따라서, 사용자는 자신의 신체조건이나 개인적 성향 등을 고려하지 않는 UI에 적응할 수밖에 없는 문제점이 있다. 일 예로 사용자 별로 오른손 또는 왼손의 사용이 익숙한지 여부에 따라 모바일 디바이스에 표시된 UI에 대해서 사용하는 패턴이 달라질 수 있지만, 사전 설계된 UI로는 모든 사용자의 사용 패턴을 만족시키기 어렵다. 또한, 사용자가 위치한 국가의 언어에 따라 웹페이지 상에 문자나 콘텐츠나 배열되는 방향도 달라질 수 있다(예를 들어, 국가별로 문자의 배열이 우측에서 좌측 또는 좌측에서 우측 방향으로 배열됨).
본 개시는 콘텐츠 또는 광고를 표시하는 전자장치의 사용자 인터페이스 상에서 해당 콘텐츠 또는 광고를 보는 사용자가 선호하는 위치에 콘텐츠 또는 광고를 배치할 수 있도록 UI 구성요소들을 재배치하는 시스템 및 방법을 제공하고자 한다.
본 개시의 일 실시예에 따른 사용자의 UI에 대한 상호 작용에 기반하여 UI 구성요소들을 재배치하는 시스템은, 제1 사용자 단말의 제1 UI 행위를 감지하도록 구성된 감지부, 감지부를 통해서 감지된 제1 사용자 단말의 제1 UI 행위를 분석하여 UI 패턴 정보를 생성하도록 구성된 패턴 분석부, 패턴 분석부에서 생성된 UI 패턴 정보를 이용하여 제1 사용자 단말의 UI 패턴을 학습하고, UI 패턴 학습 정보를 생성하도록 구성된 UI 학습부, UI 패턴 학습 정보에 기초하여 제1 사용자 단말의 맞춤형 UI를 자동으로 구성하여 제1 사용자 단말로 제공하는 UI 제공부를 포함할 수 있다.
또한, 본 개시의 일 실시예에 따른 사용자의 UI에 대한 상호 작용에 기반하여 UI 구성요소들을 재배치하는 방법은, 감지부에 의해, 제1 사용자 단말의 제1 UI 행위를 감지하는 단계, 패턴 분석부에 의해, 감지된 제1 사용자 단말의 제1 UI 행위 패턴을 분석하여 UI 패턴 정보를 생성하는 단계, UI 학습부에 의해, UI 패턴 정보를 이용하여 제1 사용자 단말의 UI 패턴을 학습하여 UI 패턴 학습 정보를 생성하는 단계, UI 제공부에 의해, UI 패턴 학습 정보에 기초하여 제1 사용자 단말의 맞춤형 UI를 자동으로 구성하여 제1 사용자 단말로 제공하는 단계를 포함할 수 있다.
본 개시의 다양한 실시예들에 따르면, 전자장치의 사용자 인터페이스(UI)에 대한 사용자의 상호작용과 사용 패턴 또는 행위에 기초하여 UI 구성요소들의 배열을 변경함으로써, 사용자 인터페이스의 변경이 소프트웨어 개발 환경, 웹 UI 표준 설계, 모바일 UI 표준 설계에 미치는 영향을 최소화할 수 있다. 또한, 모바일 디바이스 상에서 표시되는 광고 등과 같은 콘텐츠에 대한 사용자의 사용 행위를 인공지능(AI)에 의해 감지하여 해당 콘텐츠 레이어의 위치 변화를 결정하게 되므로, 해당 콘텐츠의 UI 상의 배열을 효율적이고 정확하게 실행할 수 있다.
또한, 본 개시의 다양한 실시예들에 따르면, 사용자에게 제공이 되는 UI 환경을 사용자의 사용 패턴이나 행위에 기초하여 가변할 수 있도록 하며, 해당 UI 환경의 변화에 따른 피드백을 AI가 학습을 하고 학습된 데이터에 기초하여 이와 유사한 패턴을 보이는 사용자에게 해당 UI를 커스터마이징하여 제공할 수 있다.
본 개시의 다양한 실시예들에 따르면, 사용자는 UI 사용의 초기단계에서 학습된 데이터를 통해 해당 사용자의 UI에 대한 사용 행위나 패턴에 맞춰진 UI 환경을 사용할 수 있으며, 해당 UI에 따라 사용자에게 주로 노출되는 콘텐츠 영역에 광고를 게시하므로, 사용자에 대한 자연스러운 광고 노출을 통해 광고 효과를 높일 수 있다. 또한, AI 학습을 통하여 사용자에게 익숙하도록 재배치된 UI와 콘텐츠를 사용하게 되므로, 사용자의 해당 콘텐츠에 대한 접근성을 높일 수 있으며, 해당 콘텐츠와 연관된 광고 정보 또한 효율적으로 노출될 수 있다.
도 1은 본 개시의 일 실시예에 따라 사용자 단말 상에 표시된 UI 구성요소들을 재배치하는 예를 보여주는 도면이다.
도 2는 본 개시의 일 실시예에 따라 복수의 사용자 단말 상의 UI에 대한 사용자 사용 패턴을 분석하여 UI를 재구성하는 서버 장치가 포함된 시스템 구성을 도시한 도면이다.
도 3은 본 개시의 일 실시예에 따라 UI에 대한 사용자 사용 패턴을 분석하여 UI를 재구성하는 서버 장치의 상세 구성을 나타내는 블록도이다.
도 4는 본 개시의 일 실시예에 따라 사용자 단말 상의 UI에 대한 사용자 사용 패턴을 분석하여 UI를 재구성하는 서버의 감지부와 UI 학습부의 동작을 나타내는 도면이다.
도 5는 본 개시의 일 실시예에 따라 복수의 사용자 단말 상의 UI에 대한 사용자의 사용 패턴을 분석하여 그 사용 패턴의 유사도에 따라 재배열한 UI를 제공하기 위한 절차를 설명하는 도면이다.
도 6은 본 개시의 일 실시예에 따라 사용자 단말 상의 UI에 대한 사용자의 사용 패턴 또는 UI 행위 유사도를 분석하는데 사용되는 인공신경망의 구성 예를 도시하는 도면이다.
도 7은 본 개시의 일 실시예에 따라 사용자 단말 상의 UI에 대한 사용자의 사용 패턴을 분석하여 UI를 재배치하는 방법을 나타내는 흐름도이다.
도 8은 본 개시의 일 실시예에 따라 AI 학습부가 인공신경망을 이용하여 사용자 단말 상의 UI에 대한 사용자의 사용 패턴 또는 UI 행위 유사도를 분석하는 방법을 나타내는 흐름도이다.
도 9는 본 개시의 일 실시예에 따라 사용자 단말 상의 UI에 대한 사용자의 사용 패턴을 분석하여 UI를 재배열하는 방법을 나타내는 흐름도이다.
도 10은 본 개시의 일 실시예에 따라 사용자 단말 상의 UI에 대한 사용자의 사용 시간을 분석하고 그 결과에 따라 광고를 삽입하는 절차를 나타내는 도면이다.
이하, 본 개시의 실시를 위한 구체적인 내용을 첨부된 도면을 참조하여 상세히 설명한다. 다만, 이하의 설명에서는 본 개시의 요지를 불필요하게 흐릴 우려가 있는 경우, 널리 알려진 기능이나 구성에 관한 구체적 설명은 생략하기로 한다.
첨부된 도면에서, 동일하거나 대응하는 구성요소에는 동일한 참조부호가 부여되어 있다. 또한, 이하의 실시예들의 설명에 있어서, 동일하거나 대응하는 구성요소를 중복하여 기술하는 것이 생략될 수 있다. 그러나 구성요소에 관한 기술이 생략되어도, 그러한 구성요소가 어떤 실시예에 포함되지 않는 것으로 의도되지는 않는다.
개시된 실시예의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 개시는 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 개시가 완전하도록 하고, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이다.
본 개시에서 사용되는 용어에 대해 간략히 설명하고, 개시된 실시예에 대해 구체적으로 설명하기로 한다.
본 개시에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 관련 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 개시에서의 단수의 표현은 문맥상 명백하게 단수인 것으로 특정하지 않는 한, 복수의 표현을 포함한다. 또한 복수의 표현은 문맥상 명백하게 복수인 것으로 특정하지 않는 한, 단수의 표현을 포함한다.
본 개시의 전체에서 어떤 부분이 어떤 구성요소를 '포함'한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다.
본 개시에서, 용어 '부'는 소프트웨어 또는 하드웨어 구성요소를 의미하며, '부'는 어떤 역할들을 수행한다. 그렇지만 '부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '부'들은 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '부'들로 결합되거나 추가적인 구성요소들과 '부'들로 더 분리될 수 있다.
본 개시에서, '시스템'은 하나 이상의 장치를 지칭할 수 있으며, 예를 들어, 하나 이상의 서버 장치, 또는 클라우드 서비스를 이용한 장치를 지칭할 수 있으나, 이에 한정되는 것은 아니다.
본 개시에서, '컨텐츠'는 디지털 방식으로 제작되어 컨텐츠 제공 시스템에 의하여 제공될 수 있는 각종 정보 또는 그 내용물을 포함할 수 있으며, 예를 들어, 광고, 기사, 사진, 이미지, 동영상, 음악, 문서, 웹툰 등을 포함할 수 있다.
도 1은 본 개시의 일 실시예에 따라 사용자 단말 상에 표시된 UI 구성요소들을 재배치하는 예를 보여주는 도면이다.
도시된 바와 같이, 사용자 단말(110)의 디스플레이 상에는 복수의 사용자 인터페이스(user interface: UI) 구성요소들(112, 114, 116)이 배치되어 표시될 수 있다. 본 개시에 있어서 사용자 단말(110)은, 스마트폰, 태블릿 PC, 데스크탑 PC 등과 같은 컴퓨팅 장치일 수 있으나, 이에 한정되지 않으며, 웨어러블 장치, 디지털 TV, 자동차 내부에 설치된 디스플레이를 장착한 OBU(on-board unit), 네비게이션 장치, 블랙박스 장치 등과 같이 UI 구성요소들을 표시할 수 있는 디스플레이를 포함하는 임의의 전자 장치일 수도 있다.
일 예에서, UI 구성요소들(112, 114, 116)은, 전자 장치의 디스플레이 상에 표시될 수 있는 문자, 클릭 또는 터치와 같은 사용자 입력을 수신할 수 있는 입력 창, 슬라이드 바, 버튼 또는 아이콘 등과 같은 그래픽 사용자 인터페이스(graphical user interface: GUI)일 수 있으나, 이에 한정되지 않는다. 다른 예에서, UI 구성요소들(112, 116, 116)은, SNS 메시지, 이미지, 동영상, 뉴스, 광고와 같은 콘텐츠를 표시하는 GUI일 수 있다.
사용자는 사용자 단말(110) 상에 표시된 UI 구성요소들(112, 114, 116) 중 어느 하나에 다른 UI 구성요소들 보다 더 많은 입력과 상호작용(예를 들어, 클릭, 터치, 드래그 또는 포인터를 위치)을 할 수 있다. 이와 같이 UI 구성요소들(112, 114, 116) 중 하나 이상에 대한 사용자의 상호작용 또는 사용 행위에 대한 감지 또는 모니터링이 사용자 단말(110)에 의해 실행될 수 있다.
일 실시예에서, 사용자 단말(110)은 모니터링한 UI 구성요소들(112, 114, 116)에 대한 사용자의 상호작용 또는 사용행위에 대한 정보를 분석할 수 있다. 다른 실시예에서, 사용자 단말(110)은, 수집한 UI 구성요소들(112, 114, 116)에 대한 사용자의 상호작용 또는 사용행위에 대한 정보를 네트워크로 연결된 외부 장치(예를 들어, 서버 장치)에 전송하여 해당 정보에 대한 분석이 실행될 수 있도록 구성될 수 있다.
UI 구성요소들(112, 114, 116)에 대한 사용자의 상호작용 또는 사용행위에 대한 정보는, 사용자 단말(110) 또는 서버 장치에 설치된 인공지능(AI) 학습부에 의해 분석될 수 있다. 일 예에서, AI 학습부는, 딥러닝 인공신경망과 같은 지도 학습 또는 비지도 학습 인공신경망을 포함할 수 있다.
UI 구성요소들(112, 114, 116)에 대한 사용자의 상호작용 또는 사용행위에 대한 정보에 기초하여, AI 학습부는 UI 구성요소들(112, 114, 116)에 대한 사용자의 선호도 및 상호작용의 빈도 등을 학습 또는 인식할 수 있다. 이에 따라, AI 학습부는 사용자 단말(110)의 디스플레이가 UI 구성요소들(112, 114, 116)의 위치를 재배열하여 표시할 수 있도록 제어할 수 있다(도 1의 우측에 도시된 사용자 단말의 UI 구성요소들(112, 114, 116)의 배열 참조).
도 2는 본 개시의 일 실시예에 따라 복수의 사용자 단말 상의 UI에 대한 사용자의 사용 행위 또는 사용 패턴을 분석하여 UI를 재구성하는 서버 장치가 포함된 시스템 구성을 도시한 도면이다. 서버장치(210)는 사용자 단말(110_1 내지 110_n)과 네트워크(220)를 통해 통신할 수 있다. 사용자 단말(110_1 내지 110_n)은 통신부를 구비하여 네트워크 연결이 가능하고, 컨텐츠를 제공하는 매체 서버를 접속하여 필요한 컨텐츠를 제공받아 출력이 가능한 임의의 전자기기일 수 있다. 예를 들어, 사용자 단말(110_1 내지 110_n)은, 이동 통신 단말기, 무선 통신 단말기, 스마트폰, 태블릿 PC, 데스크탑 PC, 랩톱 PC, 웨어러블 장치 등을 포함할 수 있다. 네트워크(220)는 사용자 단말(110_1 내지 110_n) 및 서버 장치(210) 사이의 통신이 가능하도록 구성될 수 있다. 네트워크는 설치 환경에 따라, 예를 들어, 이더넷(Ethernet), 유선 홈 네트워크(Power Line Communication), 전화선 통신 장치 및 RS-serial 통신 등의 유선 네트워크, 이동통신망, WLAN(Wireless LAN), Wi-Fi, Bluetooth 및 ZigBee 등과 같은 무선 네트워크 또는 그 조합으로 구성될 수 있다.
도시된 바와 같이, 복수의 단말기(110_1 내지 110_n) 각각은 UI 구성요소들에 대한 사용자의 상호작용 또는 사용행위에 대한 정보를 수집하고, 수집된 정보를 서버장치(210)로 전송할 수 있다. 서버장치(210)는 수신된 UI 구성요소들에 대한 사용자의 상호작용 또는 사용행위에 대한 정보를 분석하여 UI 구성요소들의 재배열에 대해 결정할 수 있다. 서버장치(210)에 의해 결정된 UI 구성요소들의 재배열에 대한 결정 정보는, 다시 사용자 단말(110_1 내지 110_n)로 전송되어, 각각의 사용자 단말이 표시 중인 UI 구성요소들을 재배열할 수 있도록 구성될 수 있다.
일 실시예에서, 사용자는 사용자 단말(110_1 내지 110_n)을 이용하여 상호작용 또는 사용행위를 수행할 수 있다. 예를 들어, 사용자는 사용자 단말(110_1 내지 110_n)을 이용하여 스크롤 이동, 터치, 클릭, 포인터의 위치 등과 같은 행동을 수행할 수 있다. 사용자 단말을 통한 사용자의 상호작용 또는 사용행위에 관한 정보는 네트워크(220)를 통해 서버장치(210)로 전송되어 저장될 수 있다.
도 2에서는 복수의 사용자 단말(110_1 내지 110_n)가 하나의 서버장치(210)와 UI 구성요소들의 재배열에 관한 정보를 송수신하는 것으로 도시되었지만, 이에 한정되는 것은 아니다. 일 예에서, 서버장치(210)는 중앙집중제어형 컴퓨팅 장치에 한정되지 않고, 분산 컴퓨팅 환경에 분산되어 설치된 복수의 컴퓨팅 장치를 포함할 수 있다. 다른 예에서, 서버장치(210)의 기능은 별도의 서버장치에 구현되는 대신에 서버레스(serverless computing) 또는 에지(edge) 컴퓨팅 환경에서 각 사용자 단말에 분산 설치되어 실행될 수도 있다.
도 3은 본 개시의 일 실시예에 따라 UI에 대한 사용자 사용 패턴을 분석하여 UI를 재구성하는 서버 장치의 상세 구성을 나타내는 블록도이다.
도시된 바와 같이, 서버장치(210)는, 사용자 단말과 데이터를 송수신하는 통신부(310), UI 구성요소들에 대한 사용자의 상호작용의 분석과 UI 구성요소들의 재배열 결정을 실행하는 프로세서(320), 및 UI 구성요소들에 대한 사용자의 상호작용의 분석과 UI 구성요소들의 재배열 결정에 관한 정보를 저장하는 데이터베이스(340)를 포함할 수 있다.
일 실시예에서, 프로세서(320)는, 서버장치(210)에 연결된 사용자 단말 상의 UI 구성요소들에 대한 사용자 상호작용(즉, "제 1 UI 행위")을 감지하는 감지부(322), 감지된 UI 행위를 분석하여 UI 패턴 정보를 생성하는 패턴 분석부(324), UI 패턴 정보를 이용하여 UI 패턴을 학습하고 UI 패턴 학습 정보를 생성하는 UI 학습부(326), 및 UI 패턴 학습 정보에 기초하여 사용자 단말을 위한 맞춤형 UI 구성요소들의 자동 구성 정보(이하 "맞춤형 UI" 또는 "맞춤형 UI 정보"로 지칭함)를 사용자 단말로 제공하는 UI 제공부(330)를 포함할 수 있다.
또한, 프로세서(320)는, 감지부(322)가 감지한 사용자 단말기에 배열된 맞춤형 UI에서의 제2 UI 행위를 입력하여 UI 행위 유사도를 산출하도록 구성된 인공신경망을 생성하도록 구성된 AI 학습부(328)를 더 포함할 수 있다.
이상 설명한 실시예에서, 제1 UI 행위 및 제2 UI 행위는, UI 변경 정보, 스크롤 정보, 드래그 정보, 터치 정보, 클릭 정보, 마우스 포인터의 움직임 정보, 터치 방향 정보 중의 적어도 하나를 포함할 수 있다.
감지부(322)는 통신부(310)를 통해 수신한 UI 행위에 관한 정보에 기초하여 사용자 단말(110_1 내지 110_n)의 UI 행위를 감지할 수 있다. 일 실시예에서, 감지부(322)는 사용자가 사용자 단말을 통해 수행하는 UI에 대한 상호작용 또는 사용행위(예를 들어, UI 변경 정보, 스크롤 정보, 드래그 정보, 터치 정보, 클릭 정보, 마우스 포인터의 움직임 정보, 터치 방향 정보 등)를 감지할 수 있다.
감지부(322)를 통해 사용자 단말의 UI 행위를 감지하면, 패턴 분석부(324)가 UI 행위를 분석하여 UI 패턴 정보를 생성할 수 있다. 패턴 분석부(324)는 사용자가 사용자 단말을 통해 수행하는 상호작용 또는 사용행위를 분석하여 사용자의 UI 행위를 분석하고, UI 패턴 정보를 생성할 수 있다. 예를 들어, UI 패턴 정보는, 일정 시간 내의 UI 구성요소들 사이의 변경 횟수, 일정 시간 내 스크롤의 횟수, 스크롤의 방향, 일정 시간 내 드래그의 방향과 거리, 일정 시간 내의 터치 횟수, 디스플레이의 특정 영역에 대한 터치 횟수, 마우스 포인터 또는 터치의 방향 중 어나 하나에 대한 정보를 포함할 수 있다.
UI 학습부(326)는 패턴 분석부(324)에서 생성된 UI 패턴 정보를 이용하여 사용자 단말의 UI 패턴을 학습하고, UI 패턴 학습 정보를 생성할 수 있다. UI 학습부(326)는 인공신경망 또는 통계적 패턴 분석 알고리즘을 실행하여 UI 패턴 학습 정보를 생성할 수 있으나, 이에 한정되는 것은 아니다. UI 패턴 학습 정보에 기초하여, UI 제공부(330)는 사용자 단말의 맞춤형 UI를 자동으로 구성하여 해당 맞춤형 UI 정보를 사용자 단말로 제공할 수 있다.
AI 학습부(328)는, 통신부(310)를 통해 맞춤형 UI를 표시하는 사용자 단말(제1 사용자 단말)의 제2 UI 행위를 수신하고 난 후, 사용자 단말의 제2 UI 행위에 관한 정보를 데이터베이스(340)에 저장할 수 있다. 또한, AI 학습부(328)는, 통신부(310)를 통해 다른 사용자 단말(제2 사용자 단말)의 제2 UI 행위를 수신하고 난 후, 제2 사용자 단말의 제 2 UI 행위에 관한 정보를 데이터베이스(340)에 저장할 수 있다. AI 학습부(328)는, 제1 사용자 단말의 제2 UI 행위와 제2 사용자 단말의 제2 UI 행위를 비교하여 UI 행위 유사도를 산출할 수 있다. 예를 들어, 제2 UI 행위가 특정 영역 내의 터치 횟수를 나타내는 경우, UI 행위 유사도는 특정 영역 내의 터치 횟수의 차이에 반비례하도록 산출될 수 있다. AI 학습부(328)는, UI 행위 유사도가 일정 유사도 이상인 경우, 제1 사용자 단말이 표시하고 있는 맞춤형 UI 정보를 제2 사용자 단말로 제공하도록 UI 제공부(330)를 제어할 수 있다.
AI 학습부(328)는, 제1 사용자 단말의 제2 UI 행위를 분석하여 제1 사용자 단말의 UI 구성요소들 또는 영역들 각각의 가중치를 추출하고, 추출된 가중치에 따라 각 UI 구성요소 또는 영역에 컨텐츠를 제공하도록 하도록 컨텐츠 제공부(332)를 제어할 수 있다. 예를 들어, 제1 사용자 단말의 제2 UI 행위가 제1 사용자 단말의 디스플레이 상의 복수의 UI 영역들에 대한 터치 횟수를 나타내는 경우, 각 UI 영역에 대한 가중치는 해당 UI 영역에 대한 터치 횟수에 비례하도록 산출될 수 있다.
컨텐츠 제공부(332)는 사용자 단말의 UI 영역 각각의 가중치에 따라 컨텐츠를 제공할 수 있다. 일 예에서, 컨텐츠 제공부(332)는 사용자 단말의 UI 영역 중 가중치가 가장 높은 UI 영역에 컨텐츠(예를 들어, 광고)를 제공하여 표시할 수 잇다.
일 실시예에서, 사용자 A는 제1 사용자 단말을 이용하여 상호작용 또는 사용행위(예를 들어, UI 변경 정보, 스크롤 정보, 드래그 정보, 클릭 정보, 터치 정보, 마우스 포인터의 움직임 정보, 터치 방향 정보)를 수행할 수 있다. 감지부(322)는, 이와 같은 사용자 A의 제1 UI 행위를 감지할 수 있다. 감지부(322)를 통해 사용자 A의 제1 UI 행위가 감지되면, 패턴 분석부(324)는 제1 사용자 단말에 대한 사용자 A의 제1 UI 행위를 분석할 수 있다. 예를 들어, 사용자 A가 사용자 단말에서 수행하는 스크롤 패턴, 터치 패턴, 마우스 포인터의 이동 패턴과 같은 제1 UI 행위를 분석하여 UI 패턴 정보를 생성할 수 있다. UI 학습부(326)는 패턴 분석부(324)에서 생성된 사용자 A의 UI 패턴 정보를 학습하여 UI 패턴 학습 정보를 생성할 수 있다. 사용자 A의 UI 패턴 학습 정보가 생성되면, UI 제공부(330)를 통해, UI 패턴 학습 정보에 기초하여 사용자 A의 제1 사용자 단말에 적합한 UI구성요소들 또는 영역들의 배열을 자동으로 구성하여 해당 맞춤형 UI 정보를 제1 사용자 단말로 제공할 수 있다. 제1 사용자 단말로 맞춤형 UI를 제공한 뒤, 감지부(322)는 제1 사용자 단말의 맞춤형 UI에 대한 사용자 A의 제2 UI 행위를 수신하고 데이터베이스(340)에 저장할 수 있다. 데이터베이스(340)에 저장된 사용자 A의 제2 UI 행위는, 감지부(322)에 의해 수신된 다른 사용자들의 제2 UI 행위와 비교되어 유사도가 산출될 수 있다. 예를 들어, 사용자 A의 제2 UI 행위와 가장 높은 유사도가 산출된 사용자 B에 대해, 사용자 A의 맞춤형 UI가 사용자 B의 사용자 단말로 제공되어 표시될 수 있다.
또한, 맞춤형 UI가 사용자 A의 제1 사용자 단말로 제공된 후, 제1 사용자 단말에 대한 사용자 A의 제2 UI 행위를 분석하여 UI 구성요소 또는 영역 각각의 가중치를 추출할 수 있다. UI 구성요소 또는 영역별로 추출된 가중치에 따라 컨텐츠 제공부(332)를 통해 컨텐츠를 제공할 수 있다. 예를 들어, 가장 큰 가중치를 가지는 UI 영역에 컨텐츠(예를 들어, 광고)를 배치할 수 있다.
도 4는 본 개시의 일 실시예에 따라 사용자 단말 상의 UI에 대한 사용자 사용 패턴을 분석하여 UI를 재구성하는 서버의 감지부와 UI 학습부의 동작을 나타내는 도면이다.
도시된 바와 같이, 사용자 단말 상에는 초기 배열된 UI 구성요소들(410)이 표시될 수 있다. UI 구성요소들(410)에 대한 사용자(440)의 사용행위(예를 들어, 특정 UI 구성요소들(420, 430)를 더 많이 사용하는 행위)가 감지부(332)에 의해 감지될 수 있다. 감지부(332)에 의해 감지된 사용행위 정보는 UI 학습부(336)에 입력되어 사용행위의 패턴이 학습되고, 그 학습결과에 따라 UI 구성요소들(410)이 재배열될 수 있다.
제1 사용자는 제1 사용자 단말 상에서 UI 구성요소들에 대한 제1 UI 행위(예를 들어, UI 변경, 스크롤, 클릭, 드래그, 터치, 마우스 포인터의 위치 등)를 실행할 수 있다. 제1 UI 행위는 감지부에 의해 감지되어 패턴 분석부에 분석됨으로써 UI 패턴 정보가 생성될 수 있다. UI 학습부는, UI 패턴 정보에 기초하여 제1 사용자 단말의 UI 패턴을 학습하여 UI 패턴 학습 정보를 생성할 수 있다. UI 제공부는 UI 패턴 학습 정보에 기초하여 제1 사용자 단말의 맞춤형 UI를 자동 구성하여 제1 사용자 단말로 제공할 수 있다.
또한, 제1 사용자 단말로 제공된 맞춤형 UI에서의 사용자의 제2 UI 행위(예를 들어, 마우스 포인터의 움직임 정보, 터치 방향 정보 등)를 감지부가 감지할 수 있다. 감지된 제2 UI 행위는 AI 학습부에 의해 생성된 인공신경망에 의해 입력되어 다른 사용자들의 UI 행위와의 유사도(즉, UI 행위 유사도)가 산출될 수 있다. 예를 들어, 제1 사용자와 제2 사용자 사이의 UI 행위 유사도는 98%이고, 제1 사용자와 제3 사용자 사이의 UI 행위 유사도는 93%라고 가정한다. 이 경우, AI 학습부는 제1 사용자와 UI 행위 유사도가 가장 높은 제2 사용자에게 맞춤형 UI를 제공하도록 UI 제공부를 제어할 수 있다.
도 5는 본 개시의 일 실시예에 따라 데이터베이스(340)의 사용자별 정보 DB에 저장되어 있는 사용자 정보의 예를 나타낸 것이다.
도시된 바와 같이, 사용자별 정보는, 사용자 단말을 통해 입력된 사용자의 제1 UI 행위, 제2 UI 행위정보, 타사용자와의 UI 행위 유사도, 가장 높은 UI 행위 유사도가 산출된 타사용자 정보일 수 있다. 사용자별 UI 행위 유사도는, 데이터베이스(340)에 저장된 사용자별 제2 UI 행위가 다른 사용자들의 제2 UI 행위와 비교되어 산출된 유사도일 수 있다.
도 6은 본 개시의 일 실시예에 따라 사용자 단말 상의 UI에 대한 사용자의 사용 패턴 또는 UI 행위 유사도를 분석하는데 사용되는 인공신경망의 구성 예를 도시하는 도면이다.
인공신경망(600)은, 머신러닝(Machine Learning) 기술과 인지과학에서, 생물학적 신경망의 구조에 기초하여 구현된 통계학적 학습 알고리즘 또는 그 알고리즘을 실행하는 구조이다. 즉, 인공신경망(600)은, 생물학적 신경망에서 와 같이 시냅스의 결합으로 네트워크를 형성한 인공 뉴런인 노드(Node)들이 시냅스의 가중치를 반복적으로 조정하여, 특정 입력에 대응한 올바른 출력과 추론된 출력 사이의 오차가 감소되도록 학습함으로써, 문제 해결 능력을 가지는 머신러닝 모델을 나타낸다.
일반적으로 인공신경망은 다층의 노드들과 이들 사이의 연결로 구성된 다층 퍼셉트론(MLP: multilayer perceptron)으로 구현된다. 본 실시예에 따른 인공신경망(600)은 MLP를 포함하는 다양한 인공신경망 구조들 중의 하나를 이용하여 구현될 수 있다. 도 6에 도시된 바와 같이, 인공신경망(600)은, 외부로부터 입력 신호 또는 데이터(610, 612)를 수신하는 입력층(620), 입력 데이터에 대응한 출력 신호 또는 데이터를 출력하는 출력층(640), 입력층(620)과 출력층(640) 사이에 위치하며 입력층(620)으로부터 신호를 받아 특성을 추출하여 출력층(640)으로 전달하는 n개의 은닉층(630_1 내지 630_n)으로 구성된다. 여기서, 출력층(640)은, 은닉층(630_1 내지 630_n)으로부터 신호를 받아 외부로 출력한다.
일반적으로, 인공신경망(600)의 학습 방법에는, 교사 신호(정답)의 입력에 의해서 문제의 해결에 최적화되도록 학습하는 지도 학습(Supervised Learning) 방법과, 교사 신호를 필요로 하지 않는 비지도 학습(Unsupervised Learning) 방법이 있다. 본 개시에 따른 머신러닝을 이용한 사용자 맞춤형 문제 제공 시스템은, 사용자(또는 학습자)에게 개별화된 학습서비스를 제공하기 위하여 지도 학습(Supervised Learning)을 이용하여, 복수의 UI 행위 대한 분석을 수행하고, UI 행위 유사도를 추론할 수 있는 인공신경망(600)을 학습시킨다. 이렇게 학습된 인공신경망(600)은, UI 행위 유사도를 추론하여 생성함으로써, 유사한 UI 행위를 실행하는 사용자들의 사용자 단말들 사이에 맞춤형 UI를 공유할 수 있도록 한다.
일 실시예에 따르면, 도 6에 도시된 바와 같이, 인공신경망(600)의 입력변수는, 복수의 사용자 단말의 UI 행위가 될 수 있다. 앞서 설명한 바와 같이, 인공신경망(600)의 입력층(620)에 입력되는 입력변수는, UI 행위들 각각을 데이터요소로 구성한, 제1 UI 행위 벡터(610) 및 제2 UI 행위 벡터(612)가 될 수 있다.
예를 들어, 제1 UI 행위 벡터(610)의 데이터요소들 중에서 마우스 움직임, 터치 등의 요소들에는 1의 값을 할당하고, 나머지 요소들에는 0의 값을 할당할 수 있다. 또한, 제2 UI 행위 벡터(612)의 데이터요소들 중에서, UI 변경, 스크롤 정보에 해당하는 요소들에 1의 값을 할당하고, 나머지 요소들에는 0의 값을 할당할 수 있다.
한편, 인공신경망(600)의 출력층(640)에서 출력되는 출력변수는, 제1 UI 행위 및 제2 UI 행위 사이의 유사도를 나타내는 벡터가 될 수 있다. 일 실시예에 따르면, 출력변수의 벡터의 요소들은, UI 변경의 유사도, 스크롤 정보의 유사도, 터치 방향의 유사도를 나타낼 수 있다.
이와 같이 인공신경망(600)의 입력층(620)과 출력층(640)에 복수의 입력변수와 대응되는 출력변수를 각각 매칭시켜, 입력층(620), 은닉층(630_1 내지 630_n) 및 출력층(640)에 포함된 노드들 사이의 시냅스 값을 조정함으로써, 특정 입력에 대응한 올바른 출력을 추론할 수 있도록 학습할 수 있다. 이러한 학습과정을 통해, 인공신경망(600)의 입력변수에 숨겨져 있는 특성을 파악할 수 있고, 입력변수에 기초하여 계산된 출력변수와 목표 출력 간의 오차가 줄어들도록 인공신경망(600)의 노드들 사이의 시냅스 값(또는 가중치)를 조정할 수 있다. 이렇게 학습된 인공신경망(600)을 이용하여, 제1 UI 행위 및 제2 UI 행위의 입력에 응답하여, UI 행위 유사도를 추출할 수 있다.
도 7은 본 개시의 일 실시예에 따라 사용자 단말 상의 UI에 대한 사용자의 사용 패턴을 분석하여 UI를 재배치하는 방법을 나타내는 흐름도이다.
도시된 바와 같이, 방법(700)은, 감지부에 의해, 제1 사용자 단말의 제1 UI 행위를 감지하는 단계(S710), 패턴 분석부에 의해, 감지된 상기 제1 사용자 단말의 제1 UI 행위 패턴을 분석하여 UI 패턴 정보를 생성하는 단계(S720), UI 학습부에 의해, 상기 UI 패턴 정보를 이용하여 상기 제1 사용자 단말의 UI 상기 UI 패턴 학습 정보에 기초하여 상기 제1 사용자 단말의 맞춤형 UI를 자동으로 구성하여 상기 제1 사용자 단말로 제공하는 단계(S740)를 포함할 수 있다.
도 8은 본 개시의 일 실시예에 따라 AI 학습부가 인공신경망을 이용하여 사용자 단말 상의 UI에 대한 사용자의 사용 패턴 또는 UI 행위 유사도를 분석하는 방법을 나타내는 흐름도이다.
도시된 바와 같이 방법(800)은, 상기 제1 사용자 단말의 제2 UI 행위를 수신하고 난 후, 상기 제1 사용자 단말의 제2 UI 행위를 데이터화 하여 데이터베이스에 저장하는 단계(S810), 제2 사용자 단말의 제2 UI 행위를 수신하고 난 후, 상기 제2 사용자 단말의 제2 UI 행위를 데이터화 하여 상기 데이터베이스에 저장하는 단계(S820), 상기 제1 사용자 단말의 제2 UI 행위와 상기 제2 사용자 단말의 제2 UI 행위를 비교하여 UI 행위 유사도를 산출하는 단계(S830)를 포함할 수 있다.
도 9는 본 개시의 일 실시예에 따라 사용자 단말기 상의 UI에 대한 사용자의 사용 패턴을 분석하여 UI를 재배열하는 방법을 나타내는 흐름도이다.
도시된 바와 같이 사용자는 단말기에 접속할 수 있다(S910).
다음으로, 사용자 단말기는 사용자를 인지하여 사용자가 이전에 설정하거나 사전에 학습된 UI 구성요소들의 배열, 학습된 맞춤형 UI 구성요소들의 배열 및 접속한 플랫폼에서 제공한 UI 구성요소들 배열 중 적어도 하나에 대한 선택 여부를 사용자에게 확인 및 요청할 수 있다(S920).
일 실시예에서, 사용자 단말기가 사용자를 인지하는 방법은, 지문, 얼굴 등의 사용자의 생체정보를 인식하는 방법, 사용자 ID 및 비밀번호를 입력하는 방법 등을 포함하지만, 이에 한정되는 것은 아니다. 또한, 단계(920)에서, 사용자가 사전에 학습된 UI를 선택했는지 여부, AI 학습부로부터 추천받는 맞춤 UI를 선택했는지 여부, 사용자가 UI를 직접 재배치하여 사용할지의 여부, 접속하고자 하는 플랫폼에서 제공하는 UI를 사용할지 여부 등에 대하여 AI 학습부에 피드백을 전송할 수 있다. 이 때, 사용자가 AI 학습부가 추천하는 맞춤 UI를 선택하는 경우, 별도의 피드백을 AI 학습부에 제공하지 않을 수 있다.
단계(S930)에서 사용자가 AI 학습부에 의해 학습된 맞춤 UI를 선택한 경우, UI 제공부는 AI 학습부로부터 해당 맞춤 UI를 추천받아 재배치된 UI를 사용자 단말기에 제공할 수 있다(S960). 이 경우, UI 학습부가 해당 맞춤 UI에 대한 사용자의 사용패턴을 기록 및 학습할 수 있다(S970). UI 학습부에 의해 학습된 사용자의 사용패턴 정보는 다시 UI 제공부에 의해 사용자 단말기로 제공될 수 있다.
이에 반해 단계(S930)에서 사용자가 직접 UI 재배열을 선택하는 경우, UI 구성요소들은 사용자에 의해 재배치되고, UI 제공부는 재배치된 UI를 사용자 단말기에게 제공될 수 있다(S960). 사용자에 의해 재배치된 UI 구성요소들에 대한 정보와 이에 대한 사용자의 사용패턴도 또한 UI 학습부에 의해 기록 및 저장될 수 있다.
도 10은 본 개시의 일 실시예에 따라 사용자 단말 상의 UI에 대한 사용자의 사용 시간을 분석하고 그 결과에 따라 광고를 삽입하는 절차를 나타내는 도면이다.
도시된 바와 같이, 초기에 사용자 단말 상의 UI 구성요소(1012)에 대해 사용자의 사용행위 시간(예를 들어, 마우스 포인트가 잔류하는 시간, 연속적인 마우스 클릭들 사이의 시간 등)이 집중되고 있었는데, 시간 경과에 따라 다른 UI 구성요소(1022)에 대해 사용 행위 시간이 증가한 경우, 해당 UI 구성요소(1032)에 대한 가중치를 증가시킴으로써 사용자가 관심을 가질 수 있는 광고 콘텐츠를 삽입할 수 있다.
일 실시예에서, UI 영역에 대한 사용자의 사용행위 시간(예를 들어, 마우스 포인트 잔류 시간, 클릭 시간 등)에 따라 광고 컨텐츠를 삽입할 UI 영역을 선택할 수 있다. 예를 들어, 사용자의 사용행위 시간이 가장 많은 UI 영역에 광고 컨텐츠를 삽입할 수 있다.
본 명세서에 기술된 기법들은 다양한 수단에 의해 구현될 수도 있다. 예를 들어, 이러한 기법들은 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 조합으로 구현될 수도 있다. 본 명세서의 개시와 연계하여 설명된 다양한 예시적인 논리적 블록들, 모듈들, 회로들, 및 알고리즘 단계들은 전자 하드웨어, 컴퓨터 소프트웨어, 또는 양자의 조합들로 구현될 수도 있음을 당업자들은 더 이해할 것이다. 하드웨어 및 소프트웨어의 이러한 상호교환성을 명확하게 설명하기 위해, 다양한 예시적인 컴포넌트들, 블록들, 모듈들, 회로들, 및 단계들이 그들의 기능성의 관점에서 일반적으로 위에서 설명되었다. 그러한 기능이 하드웨어로서 구현되는지 또는 소프트웨어로서 구현되는지의 여부는, 특정 애플리케이션 및 전체 시스템에 부과되는 설계 제약들에 따라 달라진다. 당업자들은 각각의 특정 애플리케이션을 위해 다양한 방식들로 설명된 기능을 구현할 수도 있으나, 그러한 구현 결정들은 본 개시의 범위로부터 벗어나게 하는 것으로 해석되어서는 안된다.
하드웨어 구현에서, 기법들을 수행하는 데 이용되는 프로세싱 유닛들은, 하나 이상의 ASIC들, DSP들, 디지털 신호 프로세싱 디바이스들(digital signal processing devices; DSPD들), 프로그램가능 논리 디바이스들(programmable logic devices; PLD들), 필드 프로그램가능 게이트 어레이들(field programmable gate arrays; FPGA들), 프로세서들, 제어기들, 마이크로제어기들, 마이크로프로세서들, 전자 디바이스들, 본 명세서에 설명된 기능들을 수행하도록 설계된 다른 전자 유닛들, 컴퓨터, 또는 이들의 조합 내에서 구현될 수도 있다.
따라서, 본 명세서의 개시와 연계하여 설명된 다양한 예시적인 논리 블록들, 모듈들, 및 회로들은 범용 프로세서, DSP, ASIC, FPGA나 다른 프로그램 가능 논리 디바이스, 이산 게이트나 트랜지스터 로직, 이산 하드웨어 컴포넌트들, 또는 본 명세서에 설명된 기능들을 수행하도록 설계된 것들의 임의의 조합으로 구현되거나 수행될 수도 있다. 범용 프로세서는 마이크로프로세서일 수도 있지만, 대안에서, 프로세서는 임의의 종래의 프로세서, 제어기, 마이크로제어기, 또는 상태 머신일 수도 있다. 프로세서는 또한 컴퓨팅 디바이스들의 조합, 예를 들면, DSP와 마이크로프로세서, 복수의 마이크로프로세서들, DSP 코어와 연계한 하나 이상의 마이크로프로세서들, 또는 임의의 다른 그러한 구성의 조합으로써 구현될 수도 있다.
펌웨어 및/또는 소프트웨어 구현에 있어서, 기법들은 랜덤 액세스 메모리(random access memory; RAM), 판독 전용 메모리(read-only memory; ROM), 불휘발성 RAM(non-volatile random access memory; NVRAM), PROM(programmable read-only memory), EPROM(erasable programmable read-only memory), EEPROM(electrically erasable PROM), 플래시 메모리, 컴팩트 디스크(compact disc; CD), 자기 또는 광학 데이터 스토리지 디바이스 등과 같은 컴퓨터 판독가능 매체 상에 저장된 명령들로써 구현될 수도 있다. 명령들은 하나 이상의 프로세서들에 의해 실행 가능할 수도 있고, 프로세서(들)로 하여금 본 명세서에 설명된 기능의 특정 양태들을 수행하게 할 수도 있다.
소프트웨어로 구현되면, 상기 기능들은 하나 이상의 명령들 또는 코드로서 컴퓨터 판독 가능한 매체 상에 저장되거나 또는 컴퓨터 판독 가능한 매체를 통해 전송될 수도 있다. 컴퓨터 판독가능 매체들은 한 장소에서 다른 장소로 컴퓨터 프로그램의 전송을 용이하게 하는 임의의 매체를 포함하여 컴퓨터 저장 매체들 및 통신 매체들 양자를 포함한다. 저장 매체들은 컴퓨터에 의해 액세스될 수 있는 임의의 이용 가능한 매체들일 수도 있다. 비제한적인 예로서, 이러한 컴퓨터 판독가능 매체는 RAM, ROM, EEPROM, CD-ROM 또는 다른 광학 디스크 스토리지, 자기 디스크 스토리지 또는 다른 자기 스토리지 디바이스들, 또는 소망의 프로그램 코드를 명령들 또는 데이터 구조들의 형태로 이송 또는 저장하기 위해 사용될 수 있으며 컴퓨터에 의해 액세스될 수 있는 임의의 다른 매체를 포함할 수 있다. 또한, 임의의 접속이 컴퓨터 판독가능 매체로 적절히 칭해진다.
예를 들어, 소프트웨어가 동축 케이블, 광섬유 케이블, 연선, 디지털 가입자 회선 (DSL), 또는 적외선, 무선, 및 마이크로파와 같은 무선 기술들을 사용하여 웹사이트, 서버, 또는 다른 원격 소스로부터 전송되면, 동축 케이블, 광섬유 케이블, 연선, 디지털 가입자 회선, 또는 적외선, 무선, 및 마이크로파와 같은 무선 기술들은 매체의 정의 내에 포함된다. 본 명세서에서 사용된 디스크 (disk) 와 디스크 (disc)는, CD, 레이저 디스크, 광 디스크, DVD (digital versatile disc), 플로피디스크, 및 블루레이 디스크를 포함하며, 여기서 디스크들 (disks) 은 보통 자기적으로 데이터를 재생하고, 반면 디스크들 (discs) 은 레이저를 이용하여 광학적으로 데이터를 재생한다. 위의 조합들도 컴퓨터 판독가능 매체들의 범위 내에 포함되어야 한다.
소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터들, 하드 디스크, 이동식 디스크, CD-ROM, 또는 공지된 임의의 다른 형태의 저장 매체 내에 상주할 수도 있다. 예시적인 저장 매체는, 프로세가 저장 매체로부터 정보를 판독하거나 저장 매체에 정보를 기록할 수 있도록, 프로세서에 커플링 될 수 있다. 대안으로, 저장 매체는 프로세서에 통합될 수도 있다. 프로세서와 저장 매체는 ASIC 내에 존재할 수도 있다. ASIC은 유저 단말 내에 존재할 수도 있다. 대안으로, 프로세서와 저장 매체는 유저 단말에서 개별 컴포넌트들로써 존재할 수도 있다.
본 개시의 앞선 설명은 당업자들이 본 개시를 행하거나 이용하는 것을 가능하게 하기 위해 제공된다. 본 개시의 다양한 수정예들이 당업자들에게 쉽게 자명할 것이고, 본 명세서에 정의된 일반적인 원리들은 본 개시의 취지 또는 범위를 벗어나지 않으면서 다양한 변형예들에 적용될 수도 있다. 따라서, 본 개시는 본 명세서에 설명된 예들에 제한되도록 의도된 것이 아니고, 본 명세서에 개시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위가 부여되도록 의도된다.
비록 예시적인 구현예들이 하나 이상의 독립형 컴퓨터 시스템의 맥락에서 현재 개시된 주제의 양태들을 활용하는 것을 언급할 수도 있으나, 본 주제는 그렇게 제한되지 않고, 오히려 네트워크나 분산 컴퓨팅 환경과 같은 임의의 컴퓨팅 환경과 연계하여 구현될 수도 있다. 또 나아가, 현재 개시된 주제의 양상들은 복수의 프로세싱 칩들이나 디바이스들에서 또는 그들에 걸쳐 구현될 수도 있고, 스토리지는 복수의 디바이스들에 걸쳐 유사하게 영향을 받게 될 수도 있다. 이러한 디바이스들은 PC들, 네트워크 서버들, 및 핸드헬드 디바이스들을 포함할 수도 있다.
비록 본 주제가 구조적 특징들 및/또는 방법론적 작용들에 특정한 언어로 설명되었으나, 첨부된 청구항들에서 정의된 주제가 위에서 설명된 특정 특징들 또는 작용들로 반드시 제한되는 것은 아님이 이해될 것이다. 오히려, 위에서 설명된 특정 특징들 및 작용들은 청구항들을 구현하는 예시적인 형태로서 설명된다.
이 명세서에서 언급된 방법은 특정 실시예들을 통하여 설명되었지만, 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽힐 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 실시예들을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.
본 명세서에서는 본 개시가 일부 실시예들과 관련하여 설명되었지만, 본 발명이 속하는 기술분야의 통상의 기술자가 이해할 수 있는 본 개시의 범위를 벗어나지 않는 범위에서 다양한 변형 및 변경이 이루어질 수 있다는 점을 알아야 할 것이다. 또한, 그러한 변형 및 변경은 본 명세서에 첨부된 특허청구의 범위 내에 속하는 것으로 생각되어야 한다.
110: 사용자 단말
210: 서버 장치
220: 네트워크
310: 통신부
320: 프로세서
340: 데이터베이스

Claims (10)

  1. UI(User Interface)에 대한 사용행위 분석에 기반하여 UI를 재배치하는 시스템에 있어서,
    제1 사용자 단말의 제1 UI 행위를 감지하는 감지부;
    상기 감지부를 통해서 감지된 상기 제1 사용자 단말의 제1 UI 행위를 분석하여 UI 패턴 정보를 생성하는 패턴 분석부;
    상기 패턴 분석부에서 생성된 상기 UI 패턴 정보를 이용하여 상기 제1 사용자 단말의 UI 패턴을 학습하고, UI 패턴 학습 정보를 생성하는 UI 학습부; 및
    상기 UI 패턴 학습 정보에 기초하여 상기 제1 사용자 단말을 위한 맞춤형 UI를 자동으로 구성하여 상기 제1 사용자 단말로 제공하는 UI 제공부;
    상기 감지부로부터 수신한 상기 제1 UI 행위 및 상기 맞춤형 UI에 대한 제2 UI 행위를 입력하여 UI 행위 유사도를 산출하도록 구성된 인공신경망을 생성하며, 상기 제1 사용자 단말의 제2 UI 행위를 분석하여 상기 제1 사용자 단말의 UI 영역 각각의 가중치를 추출하는 AI 학습부; 및
    상기 추출된 가중치에 따라 상기 UI 영역에 광고 컨텐츠를 제공하는 컨텐츠 제공부를 포함하고,
    상기 UI 제공부는, 상기 제1 사용자 단말이 사전에 학습된 UI를 선택했는지 여부, 상기 AI 학습부로부터 추천받은 맞춤 UI를 선택했는지 여부, 사용자가 상기 제1 사용자 단말의 UI를 직접 재배치하여 사용할지의 여부, 및 상기 제1 사용자 단말이 접속하고자 하는 플랫폼에서 제공하는 UI를 사용할지 여부에 대한 피드백을 상기 AI 학습부에 전송하고,
    상기 사용자가 상기 제1 사용자 단말의 UI를 직접 재배치하는 경우 또는 상기 AI 학습부로부터 추천받은 맞춤 UI를 선택하는 경우, 상기 UI 학습부는, 상기 제1 사용자 단말에서 재배치된 UI 구성요소들에 대한 정보 또는 상기 UI 구성요소들에 대한 상기 사용자의 사용패턴을 기록 및 저장하고,
    상기 AI 학습부는, UI 변경 정보, 스크롤 정보, 드래그 정보, 터치 정보, 마우스 포인터의 움직임 정보, 및 터치 방향 정보가 데이터요소로 포함되는 상기 제1 사용자 단말의 상기 제2 UI 행위의 벡터와 제2 사용자 단말의 제2 UI 행위의 벡터를 상기 인공신경망의 입력 변수로 사용하고, 상기 UI 변경의 유사도, 상기 스크롤의 유사도, 상기 드래그의 유사도, 상기 터치의 유사도, 상기 마우스 포인터의 움직임의 유사도, 및 상기 터치 방향의 유사도가 데이터요소로 포함되는 상기 UI 행위 유사도의 벡터를 상기 인공신경망의 출력 변수로 사용하여 상기 UI 행위 유사도를 산출하고,
    상기 UI 제공부는, 상기 산출된 UI 행위 유사도가 일정 유사도 이상인 경우, 상기 제1 사용자 단말의 맞춤형 UI를 상기 제2 사용자 단말로 제공하는,
    시스템.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. UI에 대한 사용 행위 분석에 기반하여 UI를 재배치하는 시스템에 의해 UI를 재배치하는 방법에 있어서,
    감지부에 의해, 제1 사용자 단말의 제1 UI 행위를 감지하는 단계;
    패턴 분석부에 의해, 감지된 상기 제1 사용자 단말의 제1 UI 행위 패턴을 분석하여 UI 패턴 정보를 생성하는 단계;
    UI 학습부에 의해, 상기 UI 패턴 정보를 이용하여 상기 제1 사용자 단말의 UI 패턴을 학습하여 UI 패턴 학습 정보를 생성하는 단계;
    UI 제공부에 의해, 상기 UI 패턴 학습 정보에 기초하여 상기 제1 사용자 단말을 위한 맞춤형 UI를 자동으로 구성하여 상기 제1 사용자 단말로 제공하는 단계;
    AI 학습부에 의해, 상기 감지부로부터 수신한 상기 제1 UI 행위 및 상기 맞춤형 UI에 대한 제2 UI 행위를 입력하여 UI 행위 유사도를 산출하도록 구성된 인공신경망을 생성하는 단계;
    상기 AI 학습부에 의해, 상기 제1 사용자 단말의 제2 UI 행위를 분석하여 상기 제1 사용자 단말의 UI 영역 각각의 가중치를 추출하는 단계;
    컨텐츠 제공부에 의해, 상기 추출된 가중치에 따라 상기 UI 영역에 광고 컨텐츠를 제공하는 단계;
    상기 맞춤형 UI를 자동으로 구성하여 상기 제1 사용자 단말로 제공하는 단계는, 상기 제1 사용자 단말이 사전에 학습된 UI를 선택했는지 여부, 상기 AI 학습부로부터 추천받은 맞춤 UI를 선택했는지 여부, 사용자가 상기 제1 사용자 단말이 UI를 직접 재배치하여 사용할지의 여부, 및 상기 제1 사용자 단말이 접속하고자 하는 플랫폼에서 제공하는 UI를 사용할지 여부에 대한 피드백을 상기 AI 학습부에 전송하는 단계;
    상기 사용자가 상기 제1 사용자 단말의 UI를 직접 재배치하는 경우 또는 상기 AI 학습부로부터 추천받은 맞춤 UI를 선택하는 경우, 상기 UI 학습부에 의해, 상기 제1 사용자 단말에서 재배치된 UI 구성요소들에 대한 정보 또는 상기 UI 구성요소들에 대한 상기 사용자의 사용패턴을 기록 및 저장하는 단계;
    상기 AI 학습부에 의해, UI 변경 정보, 스크롤 정보, 드래그 정보, 터치 정보, 마우스 포인터의 움직임 정보, 및 터치 방향 정보가 데이터요소로 포함되는 상기 제1 사용자 단말의 상기 제2 UI 행위의 벡터와 제2 사용자 단말의 제2 UI 행위의 벡터를 상기 인공신경망의 입력 변수로 사용하고, 상기 UI 변경의 유사도, 상기 스크롤의 유사도, 상기 드래그의 유사도, 상기 터치의 유사도, 상기 마우스 포인터의 움직임의 유사도, 및 상기 터치 방향의 유사도가 데이터요소로 포함되는 상기 UI 행위 유사도의 벡터를 상기 인공신경망의 출력 변수로 사용하여 상기 UI 행위 유사도를 산출하는 단계;
    상기 UI 제공부에 의해, 상기 산출된 UI 행위 유사도가 일정 유사도 이상인 경우, 상기 제1 사용자 단말의 맞춤형 UI를 상기 제2 사용자 단말로 제공하는 단계를 포함하는, 방법.
  8. 삭제
  9. 삭제
  10. 제7항의 UI에 대한 사용 행위 분석에 기반하여 UI를 재배치하는 시스템에 의해 UI를 재배치하는 방법을 수행하는 하나 이상의 명령어를 포함하는 프로그램이 기록된, 컴퓨터 판독가능 저장매체.
KR1020190161413A 2019-12-06 2019-12-06 사용자의 UI(User Interface)에 대한 상호 작용에 기반하여 UI 구성요소들을 재배치하는 시스템 및 방법 KR102158432B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190161413A KR102158432B1 (ko) 2019-12-06 2019-12-06 사용자의 UI(User Interface)에 대한 상호 작용에 기반하여 UI 구성요소들을 재배치하는 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190161413A KR102158432B1 (ko) 2019-12-06 2019-12-06 사용자의 UI(User Interface)에 대한 상호 작용에 기반하여 UI 구성요소들을 재배치하는 시스템 및 방법

Publications (1)

Publication Number Publication Date
KR102158432B1 true KR102158432B1 (ko) 2020-09-24

Family

ID=72706426

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190161413A KR102158432B1 (ko) 2019-12-06 2019-12-06 사용자의 UI(User Interface)에 대한 상호 작용에 기반하여 UI 구성요소들을 재배치하는 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR102158432B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022093690A1 (en) * 2020-10-27 2022-05-05 Xgenesis Inc. Methods and systems for automated personalization
WO2022119103A1 (ko) * 2020-12-02 2022-06-09 삼성전자주식회사 전자 장치 및 그 제어 방법
KR20230103326A (ko) 2021-12-31 2023-07-07 주식회사 휴마트컴퍼니 사용자 심리상태 분석 및 선호 상담방법 도출을 이용한 맞춤형 정신건강 치료 제공 시스템

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011128941A (ja) * 2009-12-18 2011-06-30 Hitachi Ltd Guiカスタマイズ方法、システム及びプログラム
KR20150098634A (ko) * 2012-11-29 2015-08-28 에드센스, 엘.엘.씨. 여러 애플리케이션들을 디스플레이하기 위한 시스템 및 방법
KR20160042086A (ko) * 2013-08-09 2016-04-18 페이스북, 인크. 상호작용 히스토리에 기반한 사용자 경험/사용자 인터페이스
KR20190030140A (ko) * 2017-09-13 2019-03-21 주식회사 비주얼캠프 시선 추적 방법 및 이를 수행하기 위한 사용자 단말

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011128941A (ja) * 2009-12-18 2011-06-30 Hitachi Ltd Guiカスタマイズ方法、システム及びプログラム
KR20150098634A (ko) * 2012-11-29 2015-08-28 에드센스, 엘.엘.씨. 여러 애플리케이션들을 디스플레이하기 위한 시스템 및 방법
KR20160042086A (ko) * 2013-08-09 2016-04-18 페이스북, 인크. 상호작용 히스토리에 기반한 사용자 경험/사용자 인터페이스
KR20190030140A (ko) * 2017-09-13 2019-03-21 주식회사 비주얼캠프 시선 추적 방법 및 이를 수행하기 위한 사용자 단말

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022093690A1 (en) * 2020-10-27 2022-05-05 Xgenesis Inc. Methods and systems for automated personalization
WO2022119103A1 (ko) * 2020-12-02 2022-06-09 삼성전자주식회사 전자 장치 및 그 제어 방법
KR20230103326A (ko) 2021-12-31 2023-07-07 주식회사 휴마트컴퍼니 사용자 심리상태 분석 및 선호 상담방법 도출을 이용한 맞춤형 정신건강 치료 제공 시스템

Similar Documents

Publication Publication Date Title
Mühlhoff Human-aided artificial intelligence: Or, how to run large computations in human brains? Toward a media sociology of machine learning
US11822859B2 (en) Self-learning digital assistant
KR102158432B1 (ko) 사용자의 UI(User Interface)에 대한 상호 작용에 기반하여 UI 구성요소들을 재배치하는 시스템 및 방법
US10176073B2 (en) Controlling a system under test using a cognitive control based test runner
Van Rijmenam Think bigger: Developing a successful big data strategy for your business
US11501161B2 (en) Method to explain factors influencing AI predictions with deep neural networks
CN111090756B (zh) 基于人工智能的多目标推荐模型的训练方法及装置
US11086754B2 (en) Automated feedback-based application optimization
US10019336B2 (en) Natural language based capturing of user interface interactions
US10620695B2 (en) Adaptive digital environments
US11199952B2 (en) Adjusting user interface for touchscreen and mouse/keyboard environments
KR20200039365A (ko) 전자 장치 및 이의 제어 방법
Küster et al. Predicting personality traits from touchscreen based interactions
Pan et al. A survival analysis based volatility and sparsity modeling network for student dropout prediction
KR102506640B1 (ko) 고객 및 기업 간 계약을 위한 고객 맞춤형 계약 중개인 매칭 방법, 장치 및 시스템
WO2019234736A1 (en) Systems and methods for dynamic adaptation of a graphical user interface
EP3480825A1 (en) Classifying a disease or disability of a subject
Wang et al. Missing standard features compared with similar apps? A feature recommendation method based on the knowledge from user interface
Jadala et al. Implementation of Machine Learning Methods on Data to Analyze Emotional Health
Molano-Pulido et al. Seabird: Sensor activity identification from streams of data
KR102614066B1 (ko) 심리검사 기반 인테리어 추천 방법
KR20200071477A (ko) 전자 장치 및 그의 제어 방법
CN110162714A (zh) 内容推送方法、装置、计算设备和计算机可读存储介质
KR102674099B1 (ko) 영상 콘텐츠의 분류 및 시청 관련 데이터의 분석 결과를 기반으로 한 콘텐츠 기획 및 a/b 테스트 자동화 방법, 장치 및 시스템
US11922143B1 (en) Systems and methods for providing a user interface that facilitates application development

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
GRNT Written decision to grant
X701 Decision to grant (after re-examination)