KR101459552B1 - 디바이스의 레이아웃 영역에 객체를 표시하는 방법 및 디바이스 - Google Patents

디바이스의 레이아웃 영역에 객체를 표시하는 방법 및 디바이스 Download PDF

Info

Publication number
KR101459552B1
KR101459552B1 KR1020130070594A KR20130070594A KR101459552B1 KR 101459552 B1 KR101459552 B1 KR 101459552B1 KR 1020130070594 A KR1020130070594 A KR 1020130070594A KR 20130070594 A KR20130070594 A KR 20130070594A KR 101459552 B1 KR101459552 B1 KR 101459552B1
Authority
KR
South Korea
Prior art keywords
layout area
attribute
touch input
area
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020130070594A
Other languages
English (en)
Inventor
김준원
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020130070594A priority Critical patent/KR101459552B1/ko
Priority to US14/308,930 priority patent/US9645644B2/en
Application granted granted Critical
Publication of KR101459552B1 publication Critical patent/KR101459552B1/ko
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

디바이스의 레이아웃 영역에 객체를 표시하는 방법은 제 1 레이아웃 영역 및 제 2 레이아웃 영역을 디바이스의 디스플레이에 표시하는 단계, 사용자 인터페이스를 통해 제 1 레이아웃 영역에 표시된 객체에 대한 터치 입력을 수신하되, 터치 입력은 디스플레이의 제 1 위치의 입력과 제 2 위치의 입력을 포함하는 것인 단계, 제 1 위치와 제 2 위치에 기초하여 터치 입력의 제 1 속성을 결정하는 단계, 결정된 제 1 속성에 기초하여 제 2 레이아웃 영역 내에서 서브 영역을 선택하는 단계, 서브 영역에 객체를 표시하는 단계를 포함한다.

Description

디바이스의 레이아웃 영역에 객체를 표시하는 방법 및 디바이스{METHOD FOR DISPLAYING OBJECT IN LAYOUT REGION OF DEVICE AND THE DEVICE}
디바이스의 레이아웃 영역에 객체를 표시하는 방법 및 디바이스에 관한 것이다.
최근 모바일 디바이스는 터치한 상태에서 드래그(Drag)하는 방식으로 특정 파일이나, 아이콘 등을 이동할 수 있는 인터페이스를 제공하고 있다. 사용자는 이메일, 사진, 음악, 인터넷 아이콘 등을 손가락으로 드래그하여 원하는 위치에 복사하거나 옮기는 방식으로 모바일 디바이스를 제어한다.
한편, 드래그앤드롭(Drag and Drop)은 그래픽 사용자 인터페이스를 제공하는 시스템에서, 마우스와 같은 사용자 인터페이스 장치를 사용하여 하나의 프로그램에 존재하는 아이템을 선택한 후, 드래그 작업(예를 들어, 마우스 끌기 작업)에 따라 프로그램의 다른 위치 또는 다른 프로그램으로 이동한 다음에 사용자 인터페이스 장치로의 입력을 중지시킴으로써, 아이템을 이동시키는 방법을 말한다.
드래그앤드롭(Drag and Drop) 인터페이스를 이용하는 방법과 관련하여, 미국공개특허 2013/0047109 A1호는 수술 콘솔의 터치 스크린을 사용하여 수술 목록을 드래그앤드롭(Drag and Drop)하여 수술 절차를 수정하는 방법이 개시되어 있다.
프레임 레이아웃 간에 Single 또는 Multiple Swipe 기능을 적용해 하나 이상의 아이콘을 동시에 이동시킬 수 있는 편리함을 제공하고자 한다. 또한, 어느 하나의 레이아웃 내에 있는 아이콘을 이동시킬 때, 이동의 목적이 되는 다른 하나의 레이아웃을 동적으로 자동 생성되게 함으로써 사용자에게 즉각적인 피드백을 제공하고자 한다. 또한, 아이콘의 우선순위에 따라 아이콘의 이동에 차등적인 효과를 적용시켜, 사용자가 아이콘을 터치앤드래그(Touch and Drag)할 때 사용자로 하여금 아이콘 별로 다른 저항감을 느끼게 함으로써, 아이콘의 우선순위가 직관적으로 느껴지는 사용자 인터페이스(UI)를 제공하고자 한다.
다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상술한 기술적 과제 중 적어도 하나 이상을 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예는 제 1 레이아웃 영역 및 제 2 레이아웃 영역을 디바이스의 디스플레이에 표시하는 단계, 사용자 인터페이스를 통해 제 1 레이아웃 영역에 표시된 객체에 대한 터치 입력을 수신하되, 터치 입력은 디스플레이의 제 1 위치의 입력과 제 2 위치의 입력을 포함하는 것인 단계, 제 1 위치와 제 2 위치에 기초하여 터치 입력의 제 1 속성을 결정하는 단계, 결정된 제 1 속성에 기초하여 제 2 레이아웃 영역 내에서 서브 영역을 선택하는 단계, 서브 영역에 객체를 표시하는 단계를 포함하는 방법을 제공할 수 있다.
본 발명의 다른 실시예에 있어서, 제 1 레이아웃 영역 및 제 2 레이아웃 영역을 디바이스의 디스플레이에 표시하는 표시부, 사용자 인터페이스를 통해 제 1 레이아웃 영역에 표시된 객체에 대한 터치 입력을 수신하되, 터치 입력은 디스플레이의 제 1 위치의 입력과 제 2 위치의 입력을 포함하는 것인 터치 입력 수신부, 제 1 위치와 제 2 위치에 기초하여 터치 입력의 제 1 속성을 결정하는 제 1 속성 결정부, 결정된 제 1 속성에 기초하여 제 2 레이아웃 영역 내에서 서브 영역을 선택하는 서브 영역 선택부를 포함하되, 표시부는 서브 영역에 객체를 표시하는 디바이스를 제공할 수 있다.
프레임 레이아웃 간에 Single 또는 Multiple Swipe 기능을 적용해 하나 이상의 아이콘을 동시에 이동시킬 수 있는 편리함을 제공할 수 있다. 또한, 어느 하나의 레이아웃 내에 있는 아이콘을 이동시킬 때, 이동의 목적이 되는 다른 하나의 레이아웃을 동적으로 자동 생성되게 함으로써 사용자에게 즉각적인 피드백을 제공할 수 있다. 또한, 아이콘의 우선순위에 따라 아이콘의 이동에 차등적인 효과를 적용시켜, 사용자가 아이콘을 터치앤드래그(Touch and Drag)할 때 사용자로 하여금 아이콘 별로 다른 저항감을 느끼게 함으로써, 아이콘의 우선순위가 직관적으로 느껴지는 사용자 인터페이스(UI)를 제공할 수 있다.
도 1은 본 발명의 일 실시예에 따른 유저 인터페이스 시스템의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 디바이스의 구성도이다.
도 3은 터치 입력의 속성값을 결정하기 과정의 일 예를 설명하기 위한 흐름도이다.
도 4는 객체의 속성 및 우선순위에 따라 객체에 대한 효과를 결정하는 과정의 일 예를 설명하기 위한 흐름도이다.
도 5는 터치 입력에 대응하여 제 1 레이아웃에 표시된 객체를 제 2 레이아웃에 표시하는 과정의 일 예를 설명하기 위한 흐름도이다.
도 6a 내지 6f는 레이아웃 영역간 객체가 이동되는 일 예를 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 객체 표시 방법을 나타낸 흐름도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
도 1은 본 발명의 일 실시예에 따른 유저 인터페이스 시스템의 구성도이다. 도 1을 참조하면, 유저 인터페이스 시스템(1)은 디바이스(10), 우선순위 관리 서버(20)를 포함한다. 다만, 유저 인터페이스 시스템은 도 1에 도시된 것들로 한정 해석되는 것은 아니며, 도 1의 구성 이외의 구성들이 유저 인터페이스 시스템 내에 더 포함될 수도 있다.
유저 인터페이스 시스템을 구성하는 도 1의 각 구성들은 무선 네트워크를 통해 연결된다. 예를 들어, 도 1에 도시된 바와 같이, 디바이스(10)는 무선 네트워크를 통하여 우선순위 관리 서버(20)에 연결된다. 일반적으로, 무선 네트워크는 단말 및 서버와 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 무선 네트워크의 일 예에는 WLAN(Wireless LAN), 와이파이(Wi-Fi), Wibro(Wireless broadband), 블루투스(Bluetooth) 네트워크, LTE(Long Term Evolution) 네트워크, Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 포함되나 이에 한정되지는 않는다.
도 1을 참조하면, 디바이스(10)는 제 1 레이아웃 영역 내에 있는 객체가 제 1 레이아웃에서 제 2 레이아웃으로 이동되는 과정을 그래픽적으로 표시할 수 있다. 여기서, 객체의 이동 과정은 객체의 이동 경로일 수 있으며 이는 그래픽 이미지로 형상화될 수 있다. 제 1 레이아웃과 제 2 레이아웃은 디바이스(10)의 디스플레이 상에 표시되는 영역을 의미한다.
디바이스(10)는 사용자 인터페이스에 의해 터치 입력된 객체로부터 객체의 속성값을 측정할 수 있다. 여기서, 터치 입력 방식의 일 예는 팬(Pan)방식, 스와이프(Swipe)방식, 플릭(Flick)방식 등일 수 있다. 또한, 객체의 속성값은 객체의 터치 방향, 객체의 터치 속도, 객체의 터치 압력 등일 수 있다.
디바이스(10)는 레이아웃 영역 내에 있는 객체에 대하여 우선순위를 부여할 수 있다. 여기서, 우선순위는 우선순위 관리 서버(20)로부터 수신된 객체의 우선순위 정보이거나 디바이스(10)의 사용자에 의해 설정된 우선순위일 수 있다. 또한 디바이스(10)는 우선순위에 따라 각 객체에 차등적으로 무게감을 적용할 수 있다. 예를 들어, 우선순위가 높은 객체를 제 1 레이아웃에서 제 2 레이아웃으로 이동시킬 경우, 객체를 제 2 레이아웃으로 밀어 넣을 때 받는 저항의 정도가 상대적으로 약할 수 있다.
디바이스(10)는 제 1 레이아웃 영역 내에 있는 객체가 제 1 레이아웃에서 제 2 레이아웃으로 이동될 때, 객체의 이동 위치를 결정할 수 있다. 이 때, 객체의 이동 위치는 객체의 중요도에 따라 달리 설정될 수 있다.
우선순위 관리 서버(20)는 디바이스(10)의 레이아웃 영역 내에 표시된 객체의 영상 회의 관련 정보 및 객체의 상세 정보를 데이터베이스화할 수 있다. 여기서, 객체의 영상 회의 관련 정보는 디바이스(10)의 사용자로부터 입력된 정보이거나 우선순위 관리 서버(20)에 의해 자동 설정된 정보일 수 있다. 또한, 우선순위 관리 서버(20)는 객체에 대한 상세 정보를 디바이스(10)로 전송할 수 있다. 여기서, 객체에 대한 상세 정보는 객체에 대응하는 직급, 주요 업무, 사진, 연락처, 조직도 등이 포함될 수 있다.
우선순위 관리 서버(20)는 제 1 레이아웃 영역 내에 있는 객체가 제 1 레이아웃에서 제 2 레이아웃으로 이동될 때, 객체의 이동 위치를 결정할 수 있다. 또한, 우선순위 관리 서버(20)는 객체의 이동 위치 정보를 디바이스(10)로 전송할 수 있다.
디바이스(10)는 무선 네트워크를 통해 우선순위 관리 서버(20)에 접속할 수 있는 휴대용 단말기 또는 모바일 디바이스로 구현될 수 있다. 여기서 휴대용 단말기 또는 모바일 디바이스는 휴대성과 이동성이 보장되는 이동 통신 장치로서, 예를 들면, PCS(Personal Communication System), GSM(Global System for Mobile communication), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트패드(SmartPad), 태블릿 PC등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다. 다만 도1에 개시된 디바이스(10)와 우선순위 관리 서버(20)의 형태는 설명의 편의를 위해 예시된 것에 불과하므로, 본원에서 이야기하는 디바이스(10)와 우선순위 관리 서버(20)의 종류 및 형태가 도 1에 도시된 것으로 한정 해석되는 것은 아니다.
도 2는 발명의 일 실시예에 따른 디바이스의 구성도이다.
도 2를 참조하면 디바이스(10)는 표시부(11), 터치 입력 수신부(12), 제 1 속성 결정부(13), 우선순위 정보 수신부(14), 제 2 속성 결정부(15), 서브 영역 선택부(16), 영상회의 수행부(17)를 포함한다. 다만, 도 2에 도시된 구성 요소들을 기초로 하여 여러 가지 변형이 가능함은 본원의 일 실시예가 속하는 기술분야에 속하는 통상의 지식을 가진 자라면 이해할 수 있다.
표시부(11)는 제 1 레이아웃 영역 및 제 2 레이아웃 영역을 디바이스(10)의 디스플레이에 표시할 수 있다. 여기서, 제 1 레이아웃 영역은 객체 리스트가 포함되어 있는 정적인 영역일 수 있다. 제 2 레이아웃 영역은 제 1 레이아웃 영역 내에 있는 객체에 대한 터치 입력에 따라 자동으로 생성된 동적 레이아웃 영역 이거나 디바이스(10)의 디스플레이 상에 이미 생성되어 있는 정적 레이아웃 영역일 수 있다.
터치 입력은 플릭킹(Flicking), 스와이핑(Swiping) 또는 스와이프(Swipe), 팬(Pan) 중 어느 하나의 터치 입력일 수 있다. 플릭킹(Flicking)은 손가락을 댄 후, 한쪽 방향으로 빠르게 긋는 방식일 수 있다. 스와이핑(Swiping) 또는 스와이프(Swipe)는 손가락을 댄 후, 일직선으로 드래그하는 방식일 수 있다. 이 때, 일반적으로 직선 움직임의 제한이 있으나 시간의 제한이 없으며, 손가락을 댄 후 손가락을 뗄 때까지의 동작이 스와이핑 또는 스와이프 동작으로 인식될 수 있다. 팬(Pan)은 손가락을 댄 후, 손을 떼지 않고 계속적으로 드래그하는 방식으로, 움직이는 방향이나 시간의 제한없이 손을 뗄 때까지 패닝으로 인식하는 방식일 수 있다.
플릭킹(Flicking), 스와이핑(Swiping) 또는 스와이프(Swipe), 팬(Pan)은 디바이스에서 자주 사용되는 인터페이스 방식이다. 예를 들어, 디바이스(10)의 디스플레이 상에서 옵션창을 꺼내거나, 아이템을 지우거나, 아이템을 던지기 위해, 플릭킹(Flicking) 방식이 이용될 수 있다. 다른 예를 들어, 디바이스(10)의 디스플레이 상에서 화면을 전환하거나, 화면을 스크롤 하기 위해, 스와이핑(Swiping) 방식이 이용될 수 있다.
이하에서는 설명의 편의를 위하여 터치 입력을 스와이프 동작이라고 가정하고 설명한다. 다만, 이에 한정되지는 않는다.
터치 입력 수신부(12)는 사용자 인터페이스를 통해 제 1 레이아웃 영역에 표시된 객체에 대한 터치 입력을 수신할 수 있다. 여기서, 터치 입력은 디스플레이의 제 1 위치의 입력과 제 2 위치의 입력을 포함할 수 있다. 또한, 터치 입력 수신부(12)는 사용자 인터페이스를 통해 제 1 레이아웃 영역에 표시된 객체에 대하여 한 손가락으로 터치했는지 또는 두 손가락 이상으로 멀티 터치했는지 여부를 판단할 수 있다.
제 1 속성 결정부(13)는 제 1 레이아웃 영역의 제 1 위치와 제 2 위치에 기초하여 터치 입력의 제 1 속성을 결정할 수 있다. 여기서, 제 1 위치와 제 2 위치는 제 1 레이아웃 영역의 객체리스트 중 터치된 객체의 위치를 의미한다. 제 1 속성은 터치 입력의 방향 및 속도 중 하나 이상을 포함할 수 있다. 이 때, 터치 입력의 방향은 예를 들어, 상, 하, 좌, 우, 대각선 방향과 같이 2차원 좌표 내에서 원점으로부터 출발하는 360도 내의 특정 방향일 수 있다. 또한, 터치 입력의 방향은 3차원 좌표 내에서 원점으로부터 출발하는 특정 방향일 수도 있다. 또한, 터치 입력의 속도는 제 1 위치와 제 2 위치간의 거리와 사용자의 터치 입력이 제 1 위치에서 제 2 위치로 이동된 시간에 기초하여 결정될 수 있다. 이와 같은 터치 입력의 속성은 제 2 레이아웃 영역 내에서 객체를 정렬하기 위한 기준으로서 이용될 수 있다.
도 3은 터치 입력의 속성값을 결정하기 과정의 일 예를 설명하기 위한 흐름도이다.
도 3을 참조하면, 디바이스(10)의 레이아웃 영역내에 있는 객체가 제 1 레이아웃 영역에서 제 2 레이아웃 영역으로 사용자 인터페이스(40)에 의해 Swipe(S301)되면, 터치 입력 수신부(12)는 Swipe된 객체를 수신하고 이 객체를 제 1 속성 결정부(13)로 전송(S302)한다. 제 1 속성 결정부(13)는 터치 입력 수신부(12)로부터 전달받은 객체에 대한 Swipe의 입력 방향을 판단(S303)하고 객체에 대한 Swipe의 입력 속도를 계산(S304)한다. 제 1 속성 결정부(13)는 측정된 객체에 대한 Swipe의 입력 방향 및 입력 속도를 저장(S305)한다.
우선순위 정보 수신부(14)는 우선순위 관리 서버(20)로부터 객체에 대한 우선순위 정보를 수신할 수 있다. 여기서, 우선순위 정보는 객체에 대응하는 영상회의 참여 빈도수, 객체와 영상회의와의 연관성 및 객체의 온라인 정보 중 하나 이상에 기초하여 결정된 것일 수 있다.
제 2 속성 결정부(15)는 제 1 속성에 기초하여 터치 입력의 제 2 속성을 결정할 수 있다. 또는 제 2 속성 결정부(15)는 제 1 속성 및 우선순위 정보에 기초하여 제 2 속성을 결정할 수 있다. 여기서, 제 2 속성은 객체가 제 1 레이아웃 영역으로부터 제 2 레이아웃 영역으로 이동하는 동안 디스플레이에 나타나는 효과에 대한 속성일 수 있다. 제 2 속성은 터치 입력의 속도와 객체의 속도 사이의 관계를 나타내는 것이되, 객체의 속도는 객체가 제 1 레이아웃 영역으로부터 제 2 레이아웃 영역으로 이동하는 동안 객체의 속도일 수 있다. 제 2 속성은 터치 입력의 저항값일 수 있다. 여기서, 제 2 속성은 디바이스(10)의 디스플레이 상에 그래픽 아이콘으로 표시될 수 있다. 제 2 속성은 제 1 레이아웃 영역 내 객체에 대응하는 터치 패널에 적용된 진동 센서일 수 있다. 제 2 속성은 객체의 우선순위에 따라 색상과 크기가 다르게 표시될 수 있다.
도 4는 객체의 속성 및 우선순위에 따라 객체에 대한 효과를 결정하는 과정의 일 예를 설명하기 위한 흐름도이다.
도 4를 참조하면, 디바이스(10)의 레이아웃 영역내에 있는 객체가 제 1 레이아웃 영역에서 제 2 레이아웃 영역으로 사용자 인터페이스(40)에 의해 Swipe(S401)되면, 터치 입력 수신부(12)는 Swipe된 객체를 수신하고 이 객체를 제 1 속성 결정부(13)로 전송(S402)한다. 제 1 속성 결정부(13)는 터치 입력 수신부(12)로부터 전달받은 객체의 Swipe 속도를 측정(S403)한 후, 객체의 Swipe 속도값 및 객체를 제 2 속성 결정부(15)로 전송(S404)한다. 제 2 속성 결정부(15)는 수신한 객체의 우선순위를 우선순위 정보 수신부(14)에게 요청(S405)한다. 우선순위 정보 수신부(14)가 우선순위 관리 서버(20)로 객체의 우선순위 조회 요청 메시지를 전송(S406)하면, 우선순위 관리 서버(20)는 객체의 우선순위 조회 요청 메시지에 대응하는 객체의 우선순위 속성값을 우선순위 정보 수신부(14)로 전송(S407)한다. 우선순위 정보 수신부(14)는 수신한 객체의 우선순위 속성값을 제 2 속성 결정부(15)로 전달(S408)한다. 제 2 속성 결정부(15)는 객체의 속도와 우선순위값을 조합하여 객체의 저항값을 계산(S409)한다. 제 2 속성 결정부(15)는 계산된 객체의 저항값을 저장(S410)한 후, 제 1 속성 결정부(13)로 전달(S411)한다. 제 1 속성 결정부(13)는 수신한 저항값에 기초하여 객체의 Swipe 속도값을 변경하고 그 값을 저장(S412)한다. 제 1 속성 결정부(13)가 수신한 저항값을 사용자 인터페이스(40)로 전달(S413)하면, 사용자 인터페이스(40)는 객체의 터치감에 저항값을 적용(S414)한다.
제 2 속성 결정부(15)는 객체의 우선순위에 따라 이동 무게감을 차등적으로 설정할 수 있다. 예를 들어, 객체를 스와이프할 때, 객체의 이동 무게감이 가벼울수록 회의에 반드시 참여해야 하는 높은 우선순위 객체일 수 있다. 객체의 이동 무게감이 무거울수록 회의와의 연관성이 낮고 우선순위가 낮은 객체일 수 있다.
서브 영역 선택부(16)는 결정된 제 1 속성에 기초하여 제 2 레이아웃 영역 내에서 서브 영역을 선택할 수 있다. 또는 서브 영역 선택부(16)는 제 1 속성 및 우선순위 정보에 기초하여 서브 영역을 선택할 수 있다.
예를 들어, 서브 영역 선택부(16)는 복수 객체의 스와이프 속도값을 내림차순으로 정렬하여 제 2 레이아웃 영역에서 객체의 서브 영역 위치 순위를 결정할 수 있다. 여기서, 스와이프 속도값이 높은 객체일수록, 객체의 우선순위가 높아질 수 있다. 또한, 서브 영역에서의 객체 위치는 서브 영역 상단에 위치할 수 있다.
다른 예로, 서브 영역 선택부(16)는 객체에 대응하는 영상회의 참여 빈도수 및 영상회의 관련 정도가 높은 객체일수록, 제 2 레이아웃 영역내의 서브 영역 상단에 객체의 위치를 선정할 수 있다.
또 다른 예로, 서브 영역 선택부(16)는 제 1 레이아웃 영역 내에 있는 각 객체에 대한 제 2 레이아웃 영역의 위치 선정 횟수를 관리하는 횟수 관리 모듈이 포함될 수 있다. 또한, 서브 영역 선택부(16)는 제 2 레이아웃 영역 내의 위치 선정이 반복되는 객체에 대하여 우선순위를 높일 수 있다. 여기서, 위치 선정이 반복되는 객체는 영상 회의와 관련성이 높은 객체일 수 있다.
표시부(11)는 제 1 속성에 기초하여 제 2 레이아웃 영역 내의 서브 영역에 객체를 표시할 수 있다. 또는 표시부(11)는 제 2 속성에 기초하여 제 2 레이아웃 영역 내의 서브 영역에 객체를 표시할 수 있다.
예를 들어, 제 1 레이아웃 또는 제 2 레이아웃 영역 내에 있는 객체를 더블 터치할 경우, 표시부(11)는 터치된 객체에 대한 상세 정보가 표시되어 있는 동적인 레이아웃을 생성할 수 있다. 여기서, 객체에 대한 상세 정보는 객체에 대응하는 직급, 주요 업무, 사진, 연락처, 조직도 등이 포함될 수 있다.
도 5는 터치 입력에 대응하여 제 1 레이아웃에 표시된 객체를 제 2 레이아웃에 표시하는 과정의 일 예를 설명하기 위한 흐름도이다.
도 5를 참조하면, 디바이스(10)의 레이아웃 영역내에 있는 객체가 제 1 레이아웃 영역에서 제 2 레이아웃 영역으로 사용자 인터페이스(40)에 의해 Swipe(S501)되면, 터치 입력 수신부(12)는 Swipe된 객체를 수신하고 이 객체를 제 1 속성 결정부(13)로 전송(S502)한다. 제 1 속성 결정부(13)는 터치 입력 수신부(12)로부터 전달받은 객체에 대하여 Swipe 방향 변화 유무를 판단(S503)한다. Swipe 방향 변화가 있을 경우, 제 1 속성 결정부(13)는 객체의 Swipe 방향 속성값을 재저장한다. 제 1 속성 결정부(13)는 터치 입력 수신부(12)로부터 전달받은 객체에 대한 Swipe 속도의 변화 유무를 판단(S504)한다. Swipe 속도 변화가 있을 경우, 제 1 속성 결정부(13)는 객체의 Swipe 속도 속성값을 재저장한다. 제 1 속성 결정부(13)는 객체와 객체의 Swipe 방향 및 속도 속성값을 서브 영역 선택부(16)로 전송(S505)한다. 서브 영역 선택부(16)는 제 1 속성 결정부(13)로부터 전달받은 객체의 Swipe 방향 및 속도 속성값을 바탕으로 제 2 레이아웃 영역 내 객체의 위치를 결정(S506)한다. 서브 영역 선택부(16)는 결정된 객체의 위치값을 표시부(11)로 전송(S507)한다. 제 1 속성 결정부(13)는 객체의 Swipe 애니메이션을 적용(S508)한 후, 표시부(11)로 객체를 전송(S509)한다. 표시부(11)는 서브 영역 선택부(16)로부터 수신된 객체를 제 2 레이아웃 영역내에 표시(S510)한다.
영상회의 수행부(17)는 제 2 레이아웃 영역에 표시한 객체에 대응하는 영상 회의를 수행할 수 있다.
도 6a 내지 6f는 레이아웃 영역간 객체가 이동되는 일 예를 설명하기 위한 도면이다.
도 6a를 참조하면, 사용자 인터페이스를 통해 제 1 레이아웃 영역내에 있는 객체를 하나씩 선택하여 제 2 레이아웃 영역으로 스와이프(Swipe)하면, 제 1 속성 결정부(13)는 객체가 스와이프 될 때마다 객체에 대한 스와이프의 입력 방향과 입력 속도를 측정할 수 있다. 스와이프된 객체는 객체의 우선순위에 따라 제 2 레이아웃 영역에서 재배치될 수 있다. 예를 들어, 제 1 레이아웃 영역내에 있는 객체5008을 제 2 레이아웃 영역으로 스와이프할 때, 객체5008의 스와이프 입력 방향과 입력 속도가 측정되고 측정된 값에 기초하여 객체의 제 2 레아아웃 내에 위치가 결정될 수 있다.
도 6b를 참조하면, 객체5008을 스와이프할 때, 객체 이동에 대한 스마트폰의 스와이프 동작은 도 6a에서 설명된 방식으로 구현될 수 있다. 따라서, 도6b에 설명되지 아니한 내용은 도 6a에서 설명된 내용을 준용한다.
도 6b를 참조하면, 제 1 레이아웃 영역 내에 있는 객체가 사용자 인터페이스로부터 둘 이상 선택되어 제 2 레이아웃 영역으로 스와이프되면, 제 1 속성 결정부(13)는 멀티 객체에 대한 스와이프의 입력 방향과 입력 속도를 동시에 측정할 수 있는 측정 모듈 프로그램을 이용해 객체의 속성값을 측정할 수 있다. 스와이프된 멀티 객체는 객체의 우선순위에 따라 제 2 레이아웃 영역에서 재배치될 수 있다. 예를 들어, 객체5008, 객체5006, 객체5010이 동시에 선택되어 스와이프될 때, 선택된 객체에 대한 스와이프의 입력 방향과 입력 속도가 동시에 측정될 수 있다. 측정된 값에 기초하여 우선순위가 높은 객체는 객체5008이며 우선순위가 낮은 객체는 객체5010이다. 스와이프된 객체들은 높은 우선순위에 따라 제 2 레아아웃 내에 내림차순으로 자동 정렬될 수 있다.
도 6d를 참조하면, 객체5008, 객체5006, 객체5009를 스와이프할 때, 객체 이동에 대한 스마트폰의 스와이프 동작은 도 6c에서 설명된 방식으로 구현될 수 있다. 따라서, 도6d에 설명되지 아니한 내용은 도 6c에서 설명된 내용을 준용한다. 도 6e를 참조하면, 객체 우선순위에 따른 객체의 스와이프 속도 표시와 객체의 정렬 상태를 포함한다. 높은 우선순위를 가진 객체일수록 짧은 이동 거리의 스와이프가 가능할 수 있다. 낮은 우선순위를 가진 객체일수록 스와이프의 터치 이동 거리가 상대적으로 길어질 수 있다. 객체 5008은 객체 5006과 객체5010와 비교해서 높은 우선순위를 가진다. 객체5010는 객체 5008과 객체 5006에 비해 상대적으로 낮은 우선순위를 가진다. 객체 5008, 객체 5006, 객체5010이 제 1 레이아웃 영역에서 제 2 레이아웃 영역으로 스와이프될 때, 스와이프된 객체들은 객체의 우선순위에 따라 제 2 레이아웃 영역에서 내림차순으로 정렬될 수 있다.
도 6f를 참조하면, 객체5008, 객체5006, 객체5009를 스와이프할 때, 스마트폰의 스와이프 속도를 통한 정렬 처리 방식은 도 6e에서 설명된 방식으로 구현될 수 있다. 따라서, 도6f에 설명되지 아니한 내용은 도 6e에서 설명된 내용을 준용한다.
도 7은 본 발명의 일 실시예에 따른 객체 표시 방법을 나타낸 흐름도이다.
도 7에서 설명되는 디바이스(10)의 레이아웃 영역에 객체를 표시하는 방법은 본 발명의 실시예에 불과하므로 이에 한정되는 것은 아니며, 다양한 실시예들이 더 존재할 수 있다.
도 7를 참조하면, 단계(S701)에서 제 1 레이아웃 영역 및 제 2 레이아웃 영역을 디바이스의 디스플레이에 표시할 수 있다.
단계(S702)에서 사용자 인터페이스를 통해 제 1 레이아웃 영역에 표시된 객체에 대한 터치 입력을 수신하되, 터치 입력은 디스플레이의 제 1 위치의 입력과 제 2 위치의 입력을 포함할 수 있다.
단계(S703)에서 제 1 위치와 제 2 위치에 기초하여 터치 입력의 제 1 속성을 결정할 수 있다.
단계(S704)에서 결정된 제 1 속성에 기초하여 제 2 레이아웃 영역 내에서 서브 영역을 선택할 수 있다.
단계(S705)에서 서브 영역에 객체를 표시하는 단계를 포함할 수 있다.
도 7을 통해 설명된 일 실시예에 따른 객체 표시 방법은 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변경된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
10: 디바이스
20: 우선순위 관리 서버

Claims (14)

  1. 디바이스의 레이아웃 영역에 객체를 표시하는 방법에 있어서,
    제 1 레이아웃 영역 및 제 2 레이아웃 영역을 상기 디바이스의 디스플레이에 표시하는 단계;
    사용자 인터페이스를 통해 상기 제 1 레이아웃 영역에 표시된 객체에 대한 터치 입력을 수신하되, 상기 터치 입력은 상기 디스플레이의 제 1 위치의 입력과 제 2 위치의 입력을 포함하는 것인 단계;
    상기 제 1 위치와 상기 제 2 위치에 기초하여 상기 터치 입력의 제 1 속성을 결정하는 단계;
    상기 결정된 제 1 속성에 기초하여 상기 제 2 레이아웃 영역 내에서 서브 영역을 선택하는 단계; 및
    상기 서브 영역에 상기 객체를 표시하는 단계를 포함하고,
    상기 제 1 속성에 기초하여 상기 터치 입력의 제 2 속성을 결정하는 단계; 및
    우선순위 관리 서버로부터 상기 객체에 대한 우선순위 정보를 수신하는 단계를 더 포함하되,
    상기 객체를 표시하는 단계는, 상기 제 2 속성에 기초하여 상기 객체를 표시하는 것이고,
    상기 제 1 속성은 상기 터치 입력의 방향 및 속도 중 하나 이상을 포함하는 것인, 객체 표시 방법.
  2. 삭제
  3. 제 1 항에 있어서,
    상기 제 2 속성은 상기 객체가 상기 제 1 레이아웃 영역으로부터 상기 제 2 레이아웃 영역으로 이동하는 동안 상기 디스플레이에 나타나는 효과에 대한 속성인 것인, 객체 표시 방법.
  4. 제 1 항에 있어서,
    상기 제 2 속성은 상기 터치 입력의 속도와 상기 객체의 속도 사이의 관계를 나타내는 것이되, 상기 객체의 속도는 상기 객체가 상기 제 1 레이아웃 영역으로부터 상기 제 2 레이아웃 영역으로 이동하는 동안 상기 객체의 속도인 것인, 객체 표시 방법.
  5. 제 1 항에 있어서,
    상기 제 2 속성은 상기 터치 입력의 저항값인 것인, 객체 표시 방법.
  6. 삭제
  7. 제 1 항에 있어서,
    상기 서브 영역을 선택하는 단계는,
    상기 제 1 속성 및 상기 우선순위 정보에 기초하여 상기 서브 영역을 선택하는 것인, 객체 표시 방법.
  8. 제 1 항에 있어서,
    상기 제 2 속성을 결정하는 단계는,
    상기 제 1 속성 및 상기 우선순위 정보에 기초하여 상기 제 2 속성을 결정하는 것인, 객체 표시 방법.
  9. 디바이스의 레이아웃 영역에 객체를 표시하는 방법에 있어서,
    제 1 레이아웃 영역 및 제 2 레이아웃 영역을 상기 디바이스의 디스플레이에 표시하는 단계;
    사용자 인터페이스를 통해 상기 제 1 레이아웃 영역에 표시된 객체에 대한 터치 입력을 수신하되, 상기 터치 입력은 상기 디스플레이의 제 1 위치의 입력과 제 2 위치의 입력을 포함하는 것인 단계;
    상기 제 1 위치와 상기 제 2 위치에 기초하여 상기 터치 입력의 제 1 속성을 결정하는 단계;
    상기 결정된 제 1 속성에 기초하여 상기 제 2 레이아웃 영역 내에서 서브 영역을 선택하는 단계; 및
    상기 서브 영역에 상기 객체를 표시하는 단계를 포함하되,
    상기 터치 입력은 플릭킹(Flicking), 스와이핑(Swiping) 또는 스와이프(Swipe) 중 어느 하나의 터치 입력인 것인, 객체 표시 방법.
  10. 제 1 항에 있어서,
    상기 표시한 객체에 대응하는 영상 회의를 수행하는 단계를 더 포함하되,
    상기 우선순위 정보는 상기 객체에 대응하는 영상회의 참여 빈도수, 상기 객체와 상기 영상회의와의 연관성 및 상기 객체의 온라인 정보 중 하나 이상에 기초하여 결정되는 것인, 객체 표시 방법.
  11. 디바이스에 있어서,
    제 1 레이아웃 영역 및 제 2 레이아웃 영역을 상기 디바이스의 디스플레이에 표시하는 표시부;
    사용자 인터페이스를 통해 상기 제 1 레이아웃 영역에 표시된 객체에 대한 터치 입력을 수신하되, 상기 터치 입력은 상기 디스플레이의 제 1 위치의 입력과 제 2 위치의 입력을 포함하는 것인 터치 입력 수신부;
    상기 제 1 위치와 상기 제 2 위치에 기초하여 상기 터치 입력의 제 1 속성을 결정하는 제 1 속성 결정부; 및
    상기 결정된 제 1 속성에 기초하여 상기 제 2 레이아웃 영역 내에서 서브 영역을 선택하는 서브 영역 선택부를 포함하되,
    상기 표시부는 상기 서브 영역에 상기 객체를 표시하는 것이고,
    상기 표시한 객체에 대응하는 영상 회의를 수행하는 영상 회의 수행부를 더 포함하는 것인, 디바이스.
  12. 제 11 항에 있어서,
    상기 제 1 속성에 기초하여 상기 터치 입력의 제 2 속성을 결정하는 제 2 속성 결정부; 및
    우선순위 관리 서버로부터 상기 객체에 대한 우선순위 정보를 수신하는 우선순위 정보 수신부를 더 포함하는 것인, 디바이스.
  13. 삭제
  14. 디바이스의 레이아웃 영역에 객체를 표시하는 방법에 있어서,
    제 1 레이아웃 영역 및 제 2 레이아웃 영역을 상기 디바이스의 디스플레이에 표시하는 단계;
    사용자 인터페이스를 통해 상기 제 1 레이아웃 영역에 표시된 객체에 대한 터치 입력을 수신하되, 상기 터치 입력은 상기 디스플레이의 제 1 위치의 입력과 제 2 위치의 입력을 포함하는 것인 단계;
    상기 제 1 위치와 상기 제 2 위치에 기초하여 상기 터치 입력의 제 1 속성을 결정하는 단계;
    상기 결정된 제 1 속성에 기초하여 상기 제 2 레이아웃 영역 내에서 서브 영역을 선택하는 단계;
    상기 서브 영역에 상기 객체를 표시하는 단계; 및
    상기 표시한 객체에 대응하는 영상 회의를 수행하는 단계를 포함하는 객체 표시 방법.
KR1020130070594A 2013-06-19 2013-06-19 디바이스의 레이아웃 영역에 객체를 표시하는 방법 및 디바이스 Active KR101459552B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130070594A KR101459552B1 (ko) 2013-06-19 2013-06-19 디바이스의 레이아웃 영역에 객체를 표시하는 방법 및 디바이스
US14/308,930 US9645644B2 (en) 2013-06-19 2014-06-19 Controlling visual and tactile feedback of touch input

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130070594A KR101459552B1 (ko) 2013-06-19 2013-06-19 디바이스의 레이아웃 영역에 객체를 표시하는 방법 및 디바이스

Publications (1)

Publication Number Publication Date
KR101459552B1 true KR101459552B1 (ko) 2014-11-07

Family

ID=52112024

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130070594A Active KR101459552B1 (ko) 2013-06-19 2013-06-19 디바이스의 레이아웃 영역에 객체를 표시하는 방법 및 디바이스

Country Status (2)

Country Link
US (1) US9645644B2 (ko)
KR (1) KR101459552B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11061544B2 (en) 2015-10-19 2021-07-13 Samsung Electronics Co., Ltd Method and electronic device for processing input

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101459552B1 (ko) * 2013-06-19 2014-11-07 주식회사 케이티 디바이스의 레이아웃 영역에 객체를 표시하는 방법 및 디바이스
CN105607782B (zh) * 2016-03-23 2019-02-22 京东方科技集团股份有限公司 一种显示方法及显示设备
CN107422936A (zh) * 2017-04-18 2017-12-01 湖南福米信息科技有限责任公司 用于股票界面生成的方法、装置及电子设备
US10509473B2 (en) * 2017-09-21 2019-12-17 Paypal, Inc. Providing haptic feedback on a screen
US20190324621A1 (en) * 2018-04-23 2019-10-24 Qualcomm Incorporated System and Methods for Utilizing Multi-Finger Touch Capability to Efficiently Perform Content Editing on a Computing Device
US10976820B2 (en) 2018-07-12 2021-04-13 Microsoft Technology Licensing, Llc Natural interactions with virtual objects and data through touch
CN111061402B (zh) * 2018-10-15 2021-09-03 陈旭 应用程序图标管理方法及系统
US11620292B1 (en) * 2021-10-12 2023-04-04 Johnson Controls Tyco IP Holdings LLP Systems and methods for preserving selections from multiple search queries
CN114510172B (zh) * 2022-02-17 2025-01-21 京东方科技集团股份有限公司 一种电子标牌显示的方法及电子设备
US12360630B2 (en) * 2022-06-03 2025-07-15 Sigmasense, Llc. Touch sensor device with differentiated priority sensing region

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100127382A (ko) * 2009-05-26 2010-12-06 주식회사 팬택 터치 기기에서의 유저 인터페이스 장치 및 방법
JP2013117972A (ja) * 2012-12-26 2013-06-13 Canon Inc コンテンツ管理装置、コンテンツ管理装置の制御方法、プログラム及び記録媒体

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070165019A1 (en) * 2005-07-12 2007-07-19 Hale Kelly S Design Of systems For Improved Human Interaction
US8272387B2 (en) 2006-06-30 2012-09-25 Novartis Ag System and method for the modification of surgical procedures using a graphical drag and drop interface
KR20080071452A (ko) 2007-01-30 2008-08-04 삼성전자주식회사 리스트 생성용 gui 제공방법 및 이를 적용한 영상기기
KR101568351B1 (ko) 2008-08-08 2015-11-20 엘지전자 주식회사 터치 스크린을 구비한 이동 단말기 및 이를 이용한 데이터 처리 방법
US9262073B2 (en) * 2010-05-20 2016-02-16 John W. Howard Touch screen with virtual joystick and methods for use therewith
KR101749612B1 (ko) 2010-12-23 2017-06-21 엘지전자 주식회사 이동 단말기
CN109298789B (zh) * 2012-05-09 2021-12-31 苹果公司 用于针对激活状态提供反馈的设备、方法和图形用户界面
US20140258860A1 (en) * 2013-03-07 2014-09-11 Srinivasan Subramanian System and method for providing feedback to three-touch stroke motion
WO2014142468A1 (en) * 2013-03-13 2014-09-18 Samsung Electronics Co., Ltd. Method of providing copy image and ultrasound apparatus therefor
KR101459552B1 (ko) * 2013-06-19 2014-11-07 주식회사 케이티 디바이스의 레이아웃 영역에 객체를 표시하는 방법 및 디바이스
KR102064952B1 (ko) * 2013-07-12 2020-01-10 삼성전자주식회사 수신 데이터를 이용하여 어플리케이션을 운영하는 전자 장치
KR102165445B1 (ko) * 2013-09-30 2020-10-14 엘지전자 주식회사 디지털 디바이스 및 그 제어 방법
KR102094505B1 (ko) * 2013-10-04 2020-03-27 삼성전자주식회사 디바이스 및 디바이스에 의한 BLE(Bluetooth Low Energy) 패킷 브로드캐스트 방법, 디바이스에 의한 AP(application processor)의 동작 모드 조절 방법
US10528249B2 (en) * 2014-05-23 2020-01-07 Samsung Electronics Co., Ltd. Method and device for reproducing partial handwritten content
US20150370472A1 (en) * 2014-06-19 2015-12-24 Xerox Corporation 3-d motion control for document discovery and retrieval
KR20160011915A (ko) * 2014-07-23 2016-02-02 삼성전자주식회사 화면 제어 방법 및 이를 사용하는 전자 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100127382A (ko) * 2009-05-26 2010-12-06 주식회사 팬택 터치 기기에서의 유저 인터페이스 장치 및 방법
JP2013117972A (ja) * 2012-12-26 2013-06-13 Canon Inc コンテンツ管理装置、コンテンツ管理装置の制御方法、プログラム及び記録媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11061544B2 (en) 2015-10-19 2021-07-13 Samsung Electronics Co., Ltd Method and electronic device for processing input

Also Published As

Publication number Publication date
US9645644B2 (en) 2017-05-09
US20140380155A1 (en) 2014-12-25

Similar Documents

Publication Publication Date Title
KR101459552B1 (ko) 디바이스의 레이아웃 영역에 객체를 표시하는 방법 및 디바이스
KR101395426B1 (ko) 애니메이션들에서 사용할 용도의 원하는 물리적인 특징들을 지닌 그래픽 오브젝트들을 생성하기 위한 방법, 장치 및 컴퓨터 프로그램 제품
US9749395B2 (en) Work environment for information sharing and collaboration
US9055404B2 (en) Apparatus and method for detecting proximate devices
CN104903830B (zh) 显示设备及其控制方法
US20140123043A1 (en) Selecting Devices for Data Transactions
CN105593812A (zh) 平移和选择姿势检测
KR20120125296A (ko) 유연한 평행 및 직교 움직임을 가진 멀티-레이어 사용자 인터페이스
US20130311935A1 (en) Apparatus and method for creating user groups
TW201528107A (zh) 自動捲動區域
US20140145969A1 (en) System and method for graphic object management in a large-display area computing device
JP2015018345A (ja) 情報処理装置および制御プログラム
CN103729109B (zh) 一种界面显示方法和终端
JP6005551B2 (ja) データ処理装置、データ処理方法およびプログラム
CN108905203A (zh) 信息处理方法、装置、存储介质及电子装置
KR102122339B1 (ko) Hmd 제어 방법, 컴퓨팅 장치 및 컴퓨터 판독가능 매체
JP6034878B2 (ja) オブジェクト選択方法、プログラムを記憶する記憶媒体及び情報処理装置
JP5978708B2 (ja) 外部表示プログラム及び外部表示のための装置
JP2017059067A (ja) クライアント装置、および、データ表示プログラム
JP2015022524A (ja) 端末装置及びシステム
JP6411067B2 (ja) 情報処理装置及び入力方法
US10489723B2 (en) Apparatus and method for providing for communications using distribution lists
Baldauf et al. Snap target: Investigating an assistance technique for mobile magic lens interaction with large displays
CN104866201A (zh) 一种智能设备以及一种触发应用的编辑功能的方法
CN110751417B (zh) 仓储模型的建立方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

R18-X000 Changes to party contact information recorded

St.27 status event code: A-3-3-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-3-3-R10-R18-oth-X000

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

FPAY Annual fee payment

Payment date: 20171101

Year of fee payment: 4

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 4

FPAY Annual fee payment

Payment date: 20181031

Year of fee payment: 5

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 5

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 6

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 7

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 8

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 9

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 10

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 11

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 12

U11 Full renewal or maintenance fee paid

Free format text: ST27 STATUS EVENT CODE: A-4-4-U10-U11-OTH-PR1001 (AS PROVIDED BY THE NATIONAL OFFICE)

Year of fee payment: 12