KR101683320B1 - 휴대용 터치감지 컴퓨팅시스템과 사용자 인터페이스 방법 - Google Patents

휴대용 터치감지 컴퓨팅시스템과 사용자 인터페이스 방법 Download PDF

Info

Publication number
KR101683320B1
KR101683320B1 KR1020117022128A KR20117022128A KR101683320B1 KR 101683320 B1 KR101683320 B1 KR 101683320B1 KR 1020117022128 A KR1020117022128 A KR 1020117022128A KR 20117022128 A KR20117022128 A KR 20117022128A KR 101683320 B1 KR101683320 B1 KR 101683320B1
Authority
KR
South Korea
Prior art keywords
touch
sensitive display
touch sensitive
interface
computing system
Prior art date
Application number
KR1020117022128A
Other languages
English (en)
Other versions
KR20110139697A (ko
Inventor
줄리오 에스트라다
조지 페츠슈니그
Original Assignee
마이크로소프트 테크놀로지 라이센싱, 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 filed Critical 마이크로소프트 테크놀로지 라이센싱, 엘엘씨
Publication of KR20110139697A publication Critical patent/KR20110139697A/ko
Application granted granted Critical
Publication of KR101683320B1 publication Critical patent/KR101683320B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1647Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1407General aspects irrespective of display type, e.g. determination of decimal point position, display with fixed or driving decimal point, suppression of non-significant zeros
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

제1 터치 감지 디스플레이와 제2 터치 감지 디스플레이를 포함한 터치 감지 컴퓨팅 시스템이 제공된다. 디스플레이는 처리 서브시스템 및 다수의 콘텐츠 페이지를 저장하는 메모리 서브시스템과 동작하도록 연결된다. 사용자 인터페이스 명령어는 메모리 서브시스템에 저장되고, 제1 터치 감지 디스플레이와 제2 터치 감지 디스플레이를 통해 콘텐츠 페이지와의 사용자 상호작용을 제공하기 위해 처리 서브시스템에 의해 실행될 수 있다. 인터페이스 명령어는 콘텐츠 페이지를 위한 개별적으로 조직화된 인터페이스 유닛으로서 동작하기 위하여 디스플레이를 제어하도록 더 구성된다.

Description

휴대용 터치감지 컴퓨팅시스템과 사용자 인터페이스 방법{DUAL SCREEN PORTABLE TOUCH SENSITIVE COMPUTING SYSTEM}
현대 컴퓨팅 시스템은 사용자가 저장 데이터와 상호작용할 수 있도록 해주는 다양한 종류의 입력 및 출력(I/O) 메커니즘을 갖추고 있다. 동작 설정에 따라서, 소정 I/O 메커니즘은 사용자-장치 상호작용에 대한 다양한 이점 및/또는 제한을 가질 것이다. 휴대용이며, 그리고/또는 터치 감지 인터페이스(touch sensitive interfaces)를 사용하는 장치가 I/O 메커니즘의 설계 및 매치에 대한 특별한 난관이 될 수 있다.
보통, 휴대용 장치는 비교적 작은 것이 바람직한데, 이는 사용하기 쉬운 강력한 입력 메커니즘을 제공하는 능력을 제한할 수 있다. 예를 들면 랩탑/노트북 컴퓨터와 모바일폰의 설계에서, 휴대성을 개선하기 위해 흔히 스크린 크기를 희생시켜왔다. 보다 작은 스크린 크기는 터치 스크린 입력 능력을 제한할 수 있고, 보통 큰 스크린 크기에 적절한 작업을 수행시에 장치의 유용성을 감소시킨다. 이들 트레이드오프(tradeoffs)로 인해 문서 생성과 다수의 사용자/참여자들 간의 공유와 협업(collaboration) 기능이 사용하기 힘들어진다.
터치 감지 컴퓨팅 시스템을 제공한다. 컴퓨팅 시스템은 다양한 설정 상태에서 많은 이점을 제공하는 다양한 인터페이스 특징을 제공받는다. 특히 시스템은 제1 터치 감지 디스플레이와 제2 터치 감지 디스플레이를 포함하는데, 이들 모두는 처리 서브시스템, 그리고 다수의 콘텐츠 페이지(content pages)를 저장하는 메모리 서브시스템과 동작하도록 연결된다. 사용자 인터페이스 명령어는 메모리 서브시스템에 저장되고, 제1 터치 감지 디스플레이와 제2 터치 감지 디스플레이를 통해 콘텐츠 페이지와의 사용자 상호작용을 제공하기 위해 처리 서브시스템에 의해 실행될 수 있다. 인터페이스 명령어는 콘텐츠 페이지를 위해 개별적으로 조직화된 인터페이스 유닛으로서 동작하기 위하여 디스플레이를 제어하도록 더 구성된다. 전형적으로, 인터페이스 명령어는 디스플레이 중 한 디스플레이가 콘텐츠 페이지 중의 한 페이지를 편집하기 위한 터치 감지 자유형식 인터페이스(touch sensitive freeform interface)로서 동작하게 하는 반면에, 다른 디스플레이는 콘텐츠 페이지의 내비게이션가능 오버뷰(navigable overview) 또는 편집 및 보기 기능을 수행하기 위한 보다 구조화된 인터페이스를 제공하도록 제어된다.
이 요약은 상세한 설명에서 더 후술되는 개념 선택을 간단한 형태로 소개하기 위해 제공된다. 이 요약은 청구 주제의 주요 특징 또는 핵심적 특징을 확인하려는 것이 아니며, 또한 청구 주제의 범주를 제한하는데 사용하려는 것도 아니다. 더욱이 청구 주제는 본 개시물의 임의 부분에 기록된 임의 또는 모든 단점을 해결하는 구현으로 제한되지 않는다.
도 1은 본 개시물에 따르는 터치 감지 컴퓨팅 시스템의 실시예의 블록도.
도 2는 터치 감지 컴퓨팅 시스템을 위한 인터페이스의 실시예를 개략적으로 도시하는 도면.
도 3은 터치 감지 컴퓨팅 시스템을 위한 인터페이스의 다른 실시예를 개략적으로 도시하는 도면.
도 3a는 펜형 도구로부터 입력을 수신하도록 구성된 자유형식 비구조화 인터페이스의 실시예를 도시하는 도면.
도 3b는 핸드터치 제스처를 통해 입력을 수신하도록 구성된 자유형식 비구조화 인터페이스의 실시예를 도시하는 도면.
도 4는 터치 감지 컴퓨팅 시스템의 실시예의 대표적 내비게이션가능 오버뷰를 도시하는 도면.
도 5는 터치 감지 컴퓨팅 시스템의 실시예를 개략적으로 도시하는 도면.
도 6은 터치 감지 컴퓨팅 시스템의 다른 실시예를 개략적으로 도시하는 도면.
도 7은 휴대용 터치 감지 컴퓨팅 시스템을 위한 사용자 인터페이스 방법의 실시예를 도시하는 흐름도.
도 1을 참조하면, 도면은 본 설명에 따라서 터치 감지 컴퓨팅 시스템(20)을 도시한다. 도시된 바와 같이, 터치 감지 컴퓨팅 시스템(20)은 처리 서브시스템(22), 메모리 서브시스템(24) 및 I/O 서브시스템(26)을 포함한다. 이들 구성요소는 (도시되지 않은) 버스 또는 동등한 구조/메커니즘을 통해 동작하도록 연결된다. 다양한 유형의 메모리 및/또는 저장장치를 포함할 수 있는 메모리 서브시스템(24)은 전형적으로 데이터와 애플리케이션, 그리고/또는 처리 서브시스템(22)상에서 동작하거나 또는 이에 의해 실행되는 다른 명령어를 포함한다. I/O 서브시스템(26)은 사용자(30)에게 출력 Uout 오디오, 시각, 등과 사용자 입력 UIN을 수신하기 위한 메커니즘의 형태로 사용자 상호작용 U를 제공한다.
여기에 거론된 다수의 예에서, 사용자 상호작용은 전형적으로 터치 감지이며 다수의 디스플레이를 포함한 디스플레이 서브시스템(32)을 통해 제공된다. 예를 들어 도 1에서, 디스플레이 서브시스템(32)은 두 디스플레이(34, 36)를 포함한다. 보다 상세히 후술하는 바와 같이, 터치 감지 컴퓨팅 시스템(20)은 전형적으로 사용자 인터페이스 명령어(40)와 또는 두 디스플레이(34, 36)로 하여금 터치 감지 컴퓨팅 시스템(예를 들어 메모리 서브시스템 24)상에 저장된 콘텐츠 페이지(42)에 대하여 개별적으로 조직화된 인터페이스 유닛으로서 동작하도록 구성된 다른 애플리케이션을 포함한다. 콘텐츠 페이지(42)는 웹 페이지, 워드 프로세싱 문서로부터의 페이지, 사진, 프리젠테이션 슬라이드 등을 포함한 다양한 형태를 가질 수 있다.
통상, 아래의 예에서 더 도시되는 바와 같이, 디스플레이(34, 36) 중의 하나는 내비게이션(navigation)과 보다 구조화된 사용자 인테페이스 제어부를 제공하는 반면에, 다른 디스플레이는 개별 콘텐츠 페이지를 변경하기 위한 터치 감지 자유형식 인터페이스를 제공한다. 전형적으로, 디스플레이에 의해 제공되는 독립적이자 개별적으로 조직화된 인터페이스는, 디스플레이 중의 한 디스플레이는 비교적 보다 구조화되고 제한된 인터페이스이고, 다른 디스플레이는 비교적 덜 구조화된 인터페이스이도록 구현된다.
입력 메커니즘은 비구조화된 것과는 반대로 인터페이스 유닛이 구조화된 수준(degree)을 기술하는데 사용될 수 있는 일 인터페이스 특징 범주이다. 예를 들면 비교적 보다 구조화된 인터페이스에서, (예를 들어 풀-다운 메뉴로부터의) 버튼 및/또는 메뉴 선택을 사용하여 잘라내기, 복사, 붙여넣기, 회전, 크롭(crop) 등과 같은 선택 및 편집 동작을 디스플레이된 페이지상에서 수행할 수 있다. 텍스트 입력의 경우, 구조화된 인터페이스는 QWERTY 키보드, 또는 텍스트 입력을 위한 유사한 버튼/키 기반 방법을 포함할 수 있다. 드로잉(drawing) 동작의 경우, 사용자는 클립아트(clip art), 템플릿 형태(template shapes), 또는 디스플레이되는 사전정의된 오브젝트 콜렉션(objects collections)으로부터 선택할 수 있다.
반면에, 비구조화된 인터페이스는 핸드터치 입력, 해석된 제스처 커맨드, 그리고 스틸러스(stylus) 또는 다른 펜형 도구의 사용자 조작을 통해 구현되는 자유형식 터치 입력과 같은 자유형식 입력에만 오로지, 또는 적어도 보다 더 많이 의존할 것이다.
도 1을 다시 참조하면, 터치 감지 컴퓨팅 시스템(20)은 사용자가 장치상에서 콘텐츠 페이지(42)와 상호작용할 수 있도록 해준다. 콘텐츠 페이지(42)는 워드 프로세싱 문서, 드로잉, 사진, 프리젠테이션, 웹 페이지, 슬라이드 등의 페이지일 수 있거나, 또는 이를 포함할 수 있다. 여기에 거론된 다수의 예에서, 터치 감지 컴퓨팅 시스템(20)은 휴대용 장치로서 구현되지만, 전술한 바와 같이 흔히 문서 생성, 편집 및 공유/협업 작업에 맞지 않는 종래의 휴대용 장치의 제한은 극복하는 다양한 인터페이스 특징을 제공받는다.
도 2 및 도 3을 참조하면, 두 도면은 예시 콘텐츠 페이지(60)를 보고 변경을 하기 위한 인터페이스를 도시한다. 각 도면은 콘텐츠 페이지(60)에 작업하기 위한 상이한 인터페이스를 도시하는데, 도 2는 UI-책임 인터페이스(UI-burdened interface)로도 언급될 보다 구조화된 인터페이스(62)를 도시하는 반면에, 도 3은 편해진(unburdened) 또는 자유형식 인터페이스로도 언급되는 비구조화된 인터페이스(64)를 도시한다.
특히 콘텐츠 페이지(60)를 참조하면, 예시 페이지는 그래픽 이미지(70), (예를 들면 그래픽 이미지 70를 설명하는) 텍스트 블록(72), 그리고 흐름도(74)를 포함한다.
먼저, 구조화된 인터페이스(62)로 돌아가면, 인터페이스는 콘텐츠 페이지를 생성 및 변경하기 위한 다양한 구조화된 입력 메커니즘을 포함한다. 특히 인터페이스는 예를 들어 드래그 앤 드롭(drag and drop) 동작을 통해, 또는 선택 및 복사에 의해 콘텐츠 페이지(60)에 포함되도록 선택가능한 다양한 형태, 그래픽 등을 포함한 템플릿(template)(80)을 포함할 수 있다. 예를 들어 흐름도(74)는 템플릿(80)에서 볼 수 있는 표준 형태 및 구성요소를 사용하여 제작될 수 있다.
또한 구조화된 인터페이스(62)는 텍스트 블록(72)과 같은 영숫자 텍스트 데이터의 입력을 가능하게 하기 위한 키보드(82)를 포함할 수 있다. 구조화된 인터페이스는 또한 복사, 잘라내기, 붙여넣기, 이동, 회전, 크롭 등의 동작을 수행하기 위해 풀다운 메뉴 또는 툴바(84, 86)와 같은 다른 구조화된 입력 메커니즘을 포함할 수 있다. 또한 구조화된 인터페이스는 수직 스크롤링(scrolling) 또는 다른 제한된 스크롤링 동작을 수행하기 위해 스크롤링 액추에이터(88)를 포함할 수 있다.
다양한 다른 입력 메커니즘과 제어부가 구조화된 인터페이스와 관련하여 제공될 수 있다. 상기 예들은 단지 실례로서 도시된다. 통상, 인터페이스는 사용가능한 커맨드 및 동작이 개별적으로, 그리고/또는 구조화된 포맷으로 사용자에게 제시되며, 커맨드를 개시하기 위해 처리되는 특정 입력이 양자화되거나, 그렇지 않으면 개별적이라는 점에서 볼 때 구조화된다.
이제 도 3의 비구조화된, 또는 자유형식 인터페이스(64)를 참조하면, 구조화된 인터페이스 제어부가 없다는 것을 바로 알아차릴 것이다. 이 대신에, 인터페이스는 사용자 터치 제스처, 그리고 펜형 도구로부터 수신한 자유형식 입력과 같은 자유형식 커맨드를 수신 및 처리하도록 구성된다. 예를 들면 도 3a에 도시된 바와 같이, 자유형식 인터페이스(64)는 펜형 도구(92)로부터 자유형식 스케치 입력(90)을 수신하도록 구성될 수 있다. 도 3b는 비구조화된 인터페이스(64)가 핸드터치 제스처(94)를 수신하는 다른 예를 도시한다. 또한 디스플레이 스크린에 대한 터치는 사용자에 의해 터치된 지점 근처에 위치한 맥락관련 터치-동작가능 커맨드(96)를 호출할 수 있다.
또한 인터페이스(64)의 자유형식 특성은 사용자 입력의 해석과 원하는 커맨드 생성을 위해 소정의 처리 과정이 발생할 수 있다는 것을 의미한다. 대표적인 흐름도(74)를 참조하면, 자유형식 입력이 도시된 형태를 생성하는데 사용될 수 있다. 예를 들면 인터페이스는 타원형을 손으로만 그리기 위하여 펜형 도구(92)를 사용함으로써 타원형을 생성할 수 있도록 구현될 수 있다. 손으로만 그리게 되면, 드로잉 입력은 불완전하기 쉽다. 그렇더라도, 인터페이스는 입력을 처리하고 타원형을 생성하려는 사용자 의도를 인식한다. 템플릿(80)(구조화된 인터페이스 62)으로부터 타원형을 선택하는 구조화된 방법에 대조적으로, 타원형을 생성하기 위해 인터페이스(64)에서 크고 연속적으로 변할 수 있는 범위의 스케치된 드로잉 입력을 사용할 수 있다.
따라서 사용자 인터페이스 명령어(40)(도 1)는 터치 입력이 사전정의된 커맨드가 되게 하도록 (전술한 불완전한 타원형과 같은) 자유형식 터치 입력을 해석 및 처리하도록 구성될 수 있다. 예를 들어 (예를 들어 흐름도 생성을 위한) 형태-해석 모드에서, 타원형, 원형, 직사각형, 마름모 등의 다양한 형태를 생성하기 위한 몇몇 사전정의된 커맨드가 있을 수 있다. 펜형 도구로부터의 소정의 스케치된 입력은 다양한 형태를 가질 수 있다. 진실로, 예를 들면 풀다운 메뉴상의 다수의 항목으로부터 선택을 한 입력의 개별적인 특성과는 달리, 펜에 의한 사용자 입력의 잠재적 범위는 계속해서 변할 수 있다. 펜 입력의 경우, 인터페이스 명령어는 입력을 처리하고, 근본적으로 사용자의 의도를 파악한다. 명확히 말하면, 입력은 사전정의된 커맨드 중의 하나가 되도록 처리된다-예를 들면 사각형 대신에 원이 콘텐츠 페이지상에 그려지는 것이다.
개별 콘텐츠 페이지에 작업하기 위한 구조화 및 비구조화된 인터페이스를 제공하는 것 외에도, 터치 감지 컴퓨팅 시스템(20)의 디스플레이는 콘텐츠 페이지(42)를 위한 오버뷰 인터페이스를 제공하도록 구성될 수 있다. 도 4는 콘텐츠 페이지(42)의 썸네일 묘사(thumbnail depictions)(102)를 포함한 내비게이션가능 오버뷰(100)의 예를 도시한다. 도면에 도시된 바와 같이, 내비게이션가능 오버뷰(100)가 너무 커서 (디스플레이 34 또는 36일 수 있는) 디스플레이(104)상에 완전히 들어 맞지 않는 크기를 가질 수 있다. 이것은 보기 확대를 한 사용자 조정의 결과일 수 있다. 예를 들어 소정 경우에, 기저 페이지의 콘텐츠를 보다 잘 이해하기 위해 비교적 보다 큰 썸네일을 가지는 것이 바람직할 수 있다. 어쨌든, 내비게이션가능 오버뷰가 디스플레이(104)의 에지를 넘어서 확장될 시에, 내비게이션가능 오버뷰를 적절히 진행시키기 위하여 스크롤링을 위한 제어가 제공될 수 있다. 특히 도면에 도시된 바와 같이, 자유형식 "핸드-스와이프(hand-swipe)" 또는 "핑거 스와이프(finger-swipe)" 제스처를 통해 스크롤링을 허용하기 위해 장치의 터치 감지 능력을 사용하는 것이 주로 바람직할 것이다.
전술한 바와 같이, 디스플레이(34, 36)가 콘텐츠 페이지(42)에 대하여 개별적으로 조직화된 인터페이스 유닛으로서 동작하도록 터치 감지 컴퓨팅 시스템을 구성할 수 있다. 인터페이스에 있어서 독립적이며 개별적으로 동작하는 다수의 디스플레이의 제공(본 예에서는 두 디스플레이)은 많은 이점을 제공할 수 있다. 도 5를 참조하여 예를 들면, 도면은 디스플레이 모두가 개별 콘텐츠 페이지(110)를 위한 편집 인터페이스를 제공하지만, 전술한 바와 같이 한 인터페이스는 비구조화되고, 다른 인터페이스는 구조화되는 모드로 구성된 터치 감지 컴퓨팅 시스템(20)을 도시한다. 또한 도 5는 제1 및 제2 바디 부분(112, 114)이 힌지(hinge)(116)로 연결되는 장치를 위한 대표적인 노트북형 폼팩터(form factor)를 도시한다. 이 폼팩터는 단지 실례로서 도시되며, 다수의 다른 구성이 가능하다. 예를 들어 일 대안은 힌지의 물리적 분리 대신에 두 디스플레이 간에 가상 경계선(virtual seam)을 가지는 것이다. 폴더형 스크린은 노트북형 폼팩터(form factor)의 소정 특성을 유지하기 위한 추가 가능성을 보여준다.
페이지에 대한 구조화 및 비구조화된 액세스의 손쉬운 이용 가용성으로 인해, 사용자가 보다 더 자연스럽고 융통성있는 방식으로 장치와 관련되고 상호작용할 수 있게 하면서 장치가 디지털 기술의 이점을 향상시킬 수 있게 한다. 발명가는 휴대용 전자장치의 계속된 개선과 계속 증가하는 사용에도 불구하고, 스케치, 필기 및 다른 자유형식 작업을 위해 펜과 종이가 지속적으로 사용된다는 점에 주목해왔다. 기술된 인터페이스 시스템과 방법은 소정 설정에서 상당히 향상된 사용자 경험을 제공할 것이므로, 여기에 거론된 장치의 예는 종이와 펜의 사용이 여전히 선호되는 작업을 훌륭히 수행할 것으로 생각된다.
또한 다수의 개별적으로 조직화된 인터페이스 유닛의 제공은 다수의 사용자가 협동하고 있는 설정에서 이점을 제공할 수 있다. 일 이점의 예는 다수의 사용자가 독립된 인터페이스를 통해 콘텐츠 페이지를 변경하거나 주석을 달 수 있게 하고, 상이한 인터페이스를 통해 특정 변경 또는 기여를 책임지는 사용자를 식별할 수 있는 능력이다. 예를 들어 디스플레이(34)상의 편집 인터페이스는 사용자 A에게 배정될 수 있고, 반면에 디스플레이(36)상의 인터페이스는 사용자 B에게 배정될 수 있다.
다수의 개별적으로 조직화된 인터페이스 유닛의 다른 예는 도 6에 도시된다. 명확히 말하면, 일 디스플레이는 내비게이션가능 오버뷰를 제공하고, 다른 디스플레이는 비구조화된 단일-페이지 편집 인터페이스를 제공한다. 도 6은 다양한 설정에서 이득을 제공하기 위해 사용될 수 있는 다른 특징의 예를 도시한다. 명확히 말하면, 장치는 도 5에 도시된 묘사에 대해 직각으로 회전하고, 장치는 자동으로 회전을 감지하여, 각 디스플레이(34, 36)상에 제시된 자료(material)를 적절하게 회전시켰다. 보다 일반적으로는, 인터페이스 명령어는 장치의 위치 및/또는 장치의 회전 방향의 변화에 의존하여 디스플레이된 자료를 지능적으로 배치 및 구성하도록 구성될 수 있다. 도 6에 도시된 예에서와 같이, 장치의 위치는 세로방향(portrait)-가로방향(landscape) 전환을 하기 위해 감지될 수 있다. 또한 각 디스플레이상에 사용되는 인터페이스의 특성을 기반으로 포지셔닝(positioning) 및 회전이 선택될 수 있다. 예를 들면 비구조화된 단일 페이지 편집 인터페이스를 사용할 때마다(예를 들면 비구조화된 인터페이스 64), 특정한 면 - 예를 들면 장치(20)의 좌측 또는 우측 디스플레이 - 이 지면에 닿도록 배치될 수 있다. 예를 들어 왼손잡이 사용자는 자유형식 인터페이스가 항상 좌측 디스플레이상에 제공되는 것을 선호할 수 있다. 유사하게, 내비게이션가능 오버뷰(100)를 사용시에 항상 (장치 20의 수직 배치에서) 상부 스크린상에, 또는 좌측 스크린(수평 배치)상에 나타나는 것을 원할 수도 있다.
이제 도 7을 참조하면, 본 개시물이 터치 감지 디스플레이를 위한 사용자 인터페이스 방법(130)을 제공한다는 것을 또한 알 것이다. 참조번호(132)에 도시된 바와 같이, 본 방법은 제1 터치 감지 디스플레이와 제2 터치 감지 디스플레이를 통해 휴대용 터치 감지 컴퓨팅 시스템 상에 저장된 콘텐츠 페이지에 대한 사용자 액세스 및 이와의 상호작용을 제공하는 것을 포함할 수 있다. 참조번호(134)에서, 본 방법은 제1 터치 감지 디스플레이와 제2 터치 감지 디스플레이 상에 콘텐츠 페이지가 나타나는 것을 제어하는 것을 더 포함할 수 있다. 전형적으로, 이것은 콘텐츠 페이지에 대하여 개별적으로 조직화된 인터페이스 유닛을 제공하도록 디스플레이를 제어하는 것을 포함한다. 콘텐츠 페이지에 대한 이 개별적으로 조직화된 인터페이스 접근방안의 일부로서, 각 디스플레이는 전형적으로 상이한 인터페이스 제어부를 포함하는데, 일 디스플레이는 보다 구조화된 인터페이스를 가지고, 다른 디스플레이는 덜 구조화된 자유형식 인터페이스를 가진다. 소정 경우에, 일 인터페이스(디스플레이)는 콘텐츠 페이지의 내비게이션가능 오버뷰를 제공하는데 사용될 것이다. 다른 경우, 두 인터페이스/디스플레이 모두가 단일 페이지 편집 인터페이스로서 구현되는데, 하나는 구조화된 입력 메커니즘 및 다른 인터페이스 제어부를 가진 UI-책임 인터페이스인 반면에, 다른 인터페이스는 펜터치 입력, 핸드터치 제스처 등을 수신하는데 적합한 자유형식 인터페이스이다. 전형적으로, 두 디스플레이 모두가 단일 페이지 편집 인터페이스로서 사용될 시에, 편집을 위해 동시에 동일한 콘텐츠 페이지를 디스플레이하는 것이 바람직한 경우가 많을 것이다.
대표적인 방법(130)을 계속하면, 자유형식 인터페이스를 사용시에, 참조번호(136)에 도시된 바와 같이, 펜터치 입력을 사용하는 것이 바람직한 경우가 많을 것이다. 참조번호(138)에서, 본 방법은 결과적으로 디스플레이된 콘텐츠 페이지에 다수의 사전정의된 변경 중의 하나를 수행하도록 펜터치 입력을 처리하는 것을 더 포함할 수 있다.
여기에 기술된 컴퓨팅 장치는 여기에 기술한 프로그램을 실행하기 위해 구성된 임의의 적당한 컴퓨팅 장치일 수 있다는 것을 알 것이다. 예를 들어 컴퓨팅 장치는 메인프레임 컴퓨터, 퍼스널 컴퓨터, 랩탑 컴퓨터, PDA(portable data assistant), 컴퓨터-이네이블된 무선 전화, 네트워크 컴퓨팅 장치, 또는 다른 적당한 컴퓨팅 장치일 수 있고, 그리고 인터넷과 같은 컴퓨터 네트워크를 통해 서로 연결될 수 있다. 이들 컴퓨팅 장치는 전형적으로 프로세서 및 관련된 휘발성 및 비휘발성 메모리를 포함하고, 휘발성 메모리의 일부와 프로세서를 사용하여 비휘발성 메모리에 저장된 프로그램을 실행하도록 구성된다. 여기에 사용된 바와 같이, 용어 "프로그램"은 여기에 기술된 하나 이상의 컴퓨팅 장치에 의해 실행되거나 사용될 수 있는 소프트웨어 또는 펌웨어 구성요소를 언급하며, 실행가능한 파일, 데이터 파일, 라이브러리, 드라이버, 스크립트, 데이터베이스 레코드 등의 그룹 또는 각각을 포함한다. 컴퓨팅 장치에 의해 실행시에 컴퓨팅 장치가 전술한 방법을 실행하게 하고 전술한 시스템의 동작을 일으키는 저장된 프로그램 명령어를 가진 컴퓨터 판독가능 매체가 제공될 수 있다는 것을 알 것이다.
본 발명의 범주는 선행한 설명에 의하기 보다는 첨부된 청구범위에 의해 정의되며, 청구범위의 한계 및 경계내에 있는 모든 변경, 또는 이러한 한계 및 경계의 등가물은 따라서 청구범위에 포함되므로, 여기의 실시예는 실례로서 도시되며 제한적이 아니라는 것을 알아야 한다.

Claims (20)

  1. 휴대용 터치 감지 컴퓨팅 시스템에 있어서,
    제1 터치 감지 디스플레이(touch sensitive display);
    제2 터치 감지 디스플레이;
    상기 제1 터치 감지 디스플레이 및 상기 제2 터치 감지 디스플레이와 동작하도록 연결된, 메모리 서브시스템과 처리 서브시스템; 및
    상기 메모리 서브시스템에 저장될 수 있으며, 휴대용 터치 감지 컴퓨팅 시스템의 상기 메모리 서브시스템에 포함된 콘텐츠 페이지(content pages)와의 사용자 상호작용을 제어하도록 상기 처리 서브시스템에 의해 실행될 수 있는 사용자 인터페이스 명령어들(instructions)
    를 포함하고,
    이러한 사용자 상호작용은, 상기 제1 터치 감지 디스플레이와 상기 제2 터치 감지 디스플레이를 통해 발생하고, 상기 제1 터치 감지 디스플레이와 상기 제2 터치 감지 디스플레이가 상기 콘텐츠 페이지에 대해 개별적으로(discretely) 조직화된 인터페이스 유닛으로서 동작하도록 상기 사용자 인터페이스 명령어들에 의해 제어되며, 상기 제1 터치 감지 디스플레이는 내비게이션(navigation) 및 사용자 인터페이스 제어부를 제공하고, 상기 제2 터치 감지 디스플레이는 구조화된(structured) 인터페이스 제어부가 없으며 상기 콘텐츠 페이지를 편집하도록 자유형식 입력을 수신 및 처리하기 위한 터치 감지 자유형식 인터페이스(touch sensitive freeform interface)를 제공하는 것인 휴대용 터치 감지 컴퓨팅 시스템.
  2. 제1항에 있어서,
    상기 사용자 인터페이스 명령어들, 상기 제1 터치 감지 디스플레이 및 상기 제2 터치 감지 디스플레이는, 상기 제1 터치 감지 디스플레이가 상기 콘텐츠 페이지 중의 하나를 변경하기 위한 UI-책임(user interface burdened) 편집 인터페이스를 제공하면서, 상기 제2 터치 감지 디스플레이가 펜형 도구로부터 수신한 터치 입력을 통해 상기 콘텐츠 페이지 중의 하나를 변경하기 위한, 편해진 자유형식 편집 인터페이스(unburdened freeform editing interface)를 동시에 제공하도록, 구성되는 것인 휴대용 터치 감지 컴퓨팅 시스템.
  3. 제2항에 있어서,
    상기 사용자 인터페이스 명령어들은, 상기 펜형 도구로부터 수신한 터치 입력을 해석하고, 이러한 터치 입력이 상기 콘텐츠 페이지 중의 하나에 복수의 사전정의된 변경 중의 하나를 실시하게(effect) 하도록 구성된 것인 휴대용 터치 감지 컴퓨팅 시스템.
  4. 제2항에 있어서,
    상기 사용자 인터페이스 명령어들, 상기 제1 터치 감지 디스플레이 및 상기 제2 터치 감지 디스플레이는, 상기 제1 터치 감지 디스플레이와 상기 제2 터치 감지 디스플레이 중의 하나 또는 이들 모두에 적용된 핸드터치 스와이핑 입력(handtouch swiping inputs)을 통해 상기 콘텐츠 페이지를 내비게이션할 수 있도록, 그리고 상기 UI-책임 편집 인터페이스와 상기 편해진 자유형식 편집 인터페이스를 통해 편집하기 위해 상기 제1 터치 감지 디스플레이와 상기 제2 터치 감지 디스플레이 상에 상기 콘텐츠 페이지 중의 제2 페이지가 디스플레이되게끔 이러한 핸드터치 스와이핑 내비게이션을 통해 상기 콘텐츠 페이지 중의 하나를 교체할 수 있도록, 구성된 것인 휴대용 터치 감지 컴퓨팅 시스템.
  5. 제1항에 있어서,
    상기 사용자 인터페이스 명령어들, 상기 제1 터치 감지 디스플레이 및 상기 제2 터치 감지 디스플레이는, 상기 제1 터치 감지 디스플레이가 상기 콘텐츠 페이지의 내비게이션가능 오버뷰(navigable overview)를 제공하면서, 상기 제2 터치 감지 디스플레이가 펜형 도구로부터 수신한 터치 입력을 통해 상기 콘텐츠 페이지 중의 하나를 변경하기 위해 편해진 자유형식 편집 인터페이스를 동시에 제공하도록, 구성된 것인 휴대용 터치 감지 컴퓨팅 시스템.
  6. 제5항에 있어서,
    상기 사용자 인터페이스 명령어들은, 상기 펜형 도구로부터 수신한 터치 입력을 해석하고, 이러한 터치 입력이 상기 콘텐츠 페이지 중의 하나에 복수의 사전정의된 변경 중의 하나를 실시하게 하도록 구성된 것인 휴대용 터치 감지 컴퓨팅 시스템.
  7. 제6항에 있어서,
    상기 내비게이션가능 오버뷰는 상기 제1 터치 감지 디스플레이에 적용되는 터치 스와이핑 입력을 통해 진행될(advanceable) 수 있는 것인, 휴대용 터치 감지 컴퓨팅 시스템.
  8. 제1항에 있어서,
    상기 휴대용 터치 감지 컴퓨팅 시스템은, 제1 바디 부분이 제2 바디 부분에 힌지(hinge)를 통해 연결되어 있는 바디를 더 포함하고, 상기 제1 터치 감지 디스플레이는 상기 제1 바디 부분 상에 배치되고, 상기 제2 터치 감지 디스플레이는 상기 제2 바디 부분 상에 배치되는 것인, 휴대용 터치 감지 컴퓨팅 시스템.
  9. 제1항에 있어서,
    상기 사용자 인터페이스 명령어들은, 상기 휴대용 터치 감지 컴퓨팅 시스템의 회전 위치 변동에 응답하여 상기 제1 터치 감지 디스플레이와 상기 제2 터치 감지 디스플레이 상에 디스플레이된 자료(material)에 대해 가로방향(landscape orientation)과 세로방향(portrait orientation) 간의 자동 전환을 일으키도록 구성되는 것인, 휴대용 터치 감지 컴퓨팅 시스템.
  10. 휴대용 터치 감지 컴퓨팅 시스템에 있어서,
    제1 터치 감지 디스플레이;
    제2 터치 감지 디스플레이;
    상기 제1 터치 감지 디스플레이 및 상기 제2 터치 감지 디스플레이와 동작하도록 연결된, 메모리 서브시스템과 처리 서브시스템; 및
    상기 메모리 서브시스템에 저장될 수 있으며, 휴대용 터치 감지 컴퓨팅 시스템의 상기 메모리 서브시스템에 포함된 콘텐츠 페이지와의 사용자 상호작용을 제어하도록 상기 처리 서브시스템에 의해 실행될 수 있는 사용자 인터페이스 명령어들
    을 포함하고,
    상기 사용자 상호작용은, 상기 제1 터치 감지 디스플레이와 상기 제2 터치 감지 디스플레이를 통해 발생하고, 상기 제1 터치 감지 디스플레이와 상기 제2 터치 감지 디스플레이가 상기 콘텐츠 페이지 중의 하나의 동일한 뷰를 동시에 디스플레이하고 2개의 상이한 편집 인터페이스를 동시에 제공하도록, 상기 사용자 인터페이스 명령어들에 의해 제어되며, 상기 2개의 상이한 편집 인터페이스는 하나 이상의 서로 상이한 입력 메커니즘 및 상기 콘텐츠 페이지 중의 하나를 편집하기 위한 상이한 인터페이스 제어부를 갖는 것인 휴대용 터치 감지 컴퓨팅 시스템.
  11. 제10항에 있어서,
    상기 제1 터치 감지 디스플레이는 상기 콘텐츠 페이지 중의 하나를 편집하기 위한 UI-책임 편집 인터페이스를 제공하고, 상기 제2 터치 감지 디스플레이는 상기 콘텐츠 페이지 중의 하나를 편집하기 위한 터치 감지 자유형식 인터페이스를 제공하는 것인 휴대용 터치 감지 컴퓨팅 시스템.
  12. 제11항에 있어서,
    상기 터치 감지 자유형식 편집 인터페이스는 펜형 도구로부터 터치 입력을 수신하도록 구성되고, 상기 사용자 인터페이스 명령어들은 상기 터치 입력이 상기 콘텐츠 페이지에 복수의 사전정의된 변경 중의 하나를 실시하게 하도록 구성된 것인 휴대용 터치 감지 컴퓨팅 시스템.
  13. 제10항에 있어서,
    상기 사용자 인터페이스 명령어들은, 상기 휴대용 터치 감지 컴퓨팅 디바이스가 상기 제1 터치 감지 디스플레이와 상기 제2 터치 감지 디스플레이 중의 적어도 하나가 상기 콘텐츠 페이지의 내비게이션가능 오버뷰를 제공하는 모드로 동작하게 하도록 구성된 것인 휴대용 터치 감지 컴퓨팅 시스템.
  14. 제13항에 있어서,
    상기 내비게이션가능 오버뷰는 상기 내비게이션가능 오버뷰에 적용되는 핸드터치 스와이핑 입력의 적용을 통해 진행될 수 있는 것인, 휴대용 터치 감지 컴퓨팅 시스템.
  15. 제10항에 있어서,
    상기 사용자 인터페이스 명령어들은, 상기 휴대용 터치 감지 컴퓨팅 시스템의 회전 위치 변동에 응답하여 상기 제1 터치 감지 디스플레이와 상기 제2 터치 감지 디스플레이 상에 디스플레이된 자료에 대해 가로방향과 세로방향 간의 자동 전환을 일으키도록 구성되는 것인, 휴대용 터치 감지 컴퓨팅 시스템.
  16. 제10항에 있어서,
    상기 휴대용 터치 감지 컴퓨팅 시스템은, 제1 바디 부분이 제2 바디 부분에 힌지를 통해 연결되어 있는 바디를 더 포함하고, 여기서 상기 제1 터치 감지 디스플레이는 상기 제1 바디 부분에 배치되고, 상기 제2 터치 감지 디스플레이는 상기 제2 바디 부분에 배치되는 것인, 휴대용 터치 감지 컴퓨팅 시스템.
  17. 휴대용 터치 감지 컴퓨팅 시스템에 대한 사용자 인터페이스 방법에 있어서,
    제1 터치 감지 디스플레이와 제2 터치 감지 디스플레이를 통해 상기 휴대용 터치 감지 컴퓨팅 시스템 상에 저장된 콘텐츠 페이지에 대한 사용자 액세스 및 이와의 상호작용을 제공하는 단계;
    상기 제1 터치 감지 디스플레이와 상기 제2 터치 감지 디스플레이가 상기 콘텐츠 페이지에 대해 개별적으로 조직화된 인터페이스 유닛으로서 동작하도록 상기 제1 터치 감지 디스플레이와 상기 제2 터치 감지 디스플레이 상의 상기 콘텐츠 페이지의 표시(presentation)를 제어하는 단계로서, 상기 제1 터치 감지 디스플레이는 내비게이션 및 구조화된 사용자 인터페이스 제어부 - 구조화된 입력 메커니즘에 대응하는 제1 커맨드를 수행하기 위해 개별적인 사용자 입력이 향하는 구조화된 입력 메커니즘을 포함함 - 를 제공하고, 상기 제2 터치 감지 디스플레이는 동시에, 자유형식 사용자 입력을 해석하고 임의의 구조화된 입력 메커니즘으로 향하지 않는 자유형식 사용자 입력에 대응하는 제2 커맨드를 수행함으로써 상기 콘텐츠 페이지를 변경하기 위한 비구조화된 터치 감지 자유형식 인터페이스를 제공하는, 상기 콘텐츠 페이지의 표시 제어 단계;
    펜형 도구를 이용해 상기 제2 터치 감지 디스플레이에 적용되는 터치 입력을 수신하는 단계; 및
    상기 터치 입력의 각각에 대해, 상기 터치 입력이 상기 제2 터치 감지 디스플레이 상에 디스플레이된 상기 콘텐츠 페이지 중의 하나에 복수의 사전정의된 변경 중의 하나를 실시하게 하도록 상기 터치 입력을 처리하는 단계
    를 포함하는, 휴대용 터치 감지 컴퓨팅 시스템에 대한 사용자 인터페이스 방법.
  18. 제17항에 있어서,
    상기 제1 터치 감지 디스플레이 상에 상기 콘텐츠 페이지의 내비게이션가능 오버뷰를 제공하는 단계를 더 포함하는, 휴대용 터치 감지 컴퓨팅 시스템에 대한 사용자 인터페이스 방법.
  19. 제17항에 있어서,
    상기 제1 터치 감지 디스플레이와 상기 제2 터치 감지 디스플레이의 모두에 동시에 상기 콘텐츠 페이지 중의 하나를 디스플레이하는 단계를 더 포함하고, 상기 제1 터치 감지 디스플레이는 상기 콘텐츠 페이지를 변경하기 위한 UI-책임 인터페이스로서 구현되고, 상기 제2 터치 감지 디스플레이는 상기 콘텐츠 페이지를 변경하기 위한 비구조화된 인터페이스로서 구현되는 것인, 휴대용 터치 감지 컴퓨팅 시스템에 대한 사용자 인터페이스 방법.
  20. 제17항에 있어서,
    상기 휴대용 터치 감지 컴퓨팅 시스템의 배치 변동을 감지하는 단계, 및 상기 제1 터치 감지 디스플레이와 상기 제2 터치 감지 디스플레이 상에 디스플레이된 콘텐츠에 대하여, 배치 변동에 응답하여 이러한 콘텐츠의 세로방향과 가로방향 표시 간에 변경하는 단계를 더 포함하는, 휴대용 터치 감지 컴퓨팅 시스템에 대한 사용자 인터페이스 방법.
KR1020117022128A 2009-03-24 2010-03-12 휴대용 터치감지 컴퓨팅시스템과 사용자 인터페이스 방법 KR101683320B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/410,303 2009-03-24
US12/410,303 US8446377B2 (en) 2009-03-24 2009-03-24 Dual screen portable touch sensitive computing system
PCT/US2010/027229 WO2010111053A2 (en) 2009-03-24 2010-03-12 Dual screen portable touch sensitive computing system

Publications (2)

Publication Number Publication Date
KR20110139697A KR20110139697A (ko) 2011-12-29
KR101683320B1 true KR101683320B1 (ko) 2016-12-06

Family

ID=42781763

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020117022128A KR101683320B1 (ko) 2009-03-24 2010-03-12 휴대용 터치감지 컴퓨팅시스템과 사용자 인터페이스 방법

Country Status (7)

Country Link
US (1) US8446377B2 (ko)
EP (1) EP2411895A4 (ko)
JP (1) JP5918123B2 (ko)
KR (1) KR101683320B1 (ko)
CN (1) CN102362248B (ko)
RU (1) RU2557463C2 (ko)
WO (1) WO2010111053A2 (ko)

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8726294B2 (en) 2010-10-01 2014-05-13 Z124 Cross-environment communication using application space API
US9026709B2 (en) 2010-10-01 2015-05-05 Z124 Auto-waking of a suspended OS in a dockable system
US9715252B2 (en) 2011-08-24 2017-07-25 Z124 Unified desktop docking behavior for window stickiness
US9405459B2 (en) 2011-08-24 2016-08-02 Z124 Unified desktop laptop dock software operation
US8966379B2 (en) 2010-10-01 2015-02-24 Z124 Dynamic cross-environment application configuration/orientation in an active user environment
US8819705B2 (en) 2010-10-01 2014-08-26 Z124 User interaction support across cross-environment applications
US8933949B2 (en) 2010-10-01 2015-01-13 Z124 User interaction across cross-environment applications through an extended graphics context
US9268518B2 (en) 2011-09-27 2016-02-23 Z124 Unified desktop docking rules
US9047102B2 (en) 2010-10-01 2015-06-02 Z124 Instant remote rendering
US8665215B2 (en) 2010-10-01 2014-03-04 Z124 Single-screen view in response to rotation
US20080028302A1 (en) * 2006-07-31 2008-01-31 Steffen Meschkat Method and apparatus for incrementally updating a web page
US8832574B2 (en) * 2009-06-30 2014-09-09 Nokia Corporation Apparatus and associated methods
CA2795917A1 (en) 2010-04-12 2011-10-20 Google Inc. Real-time collaboration in a hosted word processor
CN106445194B (zh) 2010-04-12 2019-07-09 谷歌有限责任公司 在驻留的文字处理器中的协作光标
CN101833873A (zh) * 2010-05-19 2010-09-15 鸿富锦精密工业(深圳)有限公司 具有分屏显示功能的电子书
US8635555B2 (en) * 2010-06-08 2014-01-21 Adobe Systems Incorporated Jump, checkmark, and strikethrough gestures
US9436217B2 (en) * 2010-10-01 2016-09-06 Z124 Windows position control for phone applications
US9372618B2 (en) 2010-10-01 2016-06-21 Z124 Gesture based application management
US20130050265A1 (en) 2011-08-31 2013-02-28 Z124 Gravity drop
WO2012044539A2 (en) 2010-10-01 2012-04-05 Imerj, Llc Multi-operating system
US20120225694A1 (en) 2010-10-01 2012-09-06 Sanjiv Sirpal Windows position control for phone applications
US9588545B2 (en) 2010-10-01 2017-03-07 Z124 Windows position control for phone applications
US20120225693A1 (en) 2010-10-01 2012-09-06 Sanjiv Sirpal Windows position control for phone applications
US20120218202A1 (en) 2010-10-01 2012-08-30 Sanjiv Sirpal Windows position control for phone applications
US8996985B1 (en) 2011-03-16 2015-03-31 Google Inc. Online document processing service for displaying comments
US8810533B2 (en) 2011-07-20 2014-08-19 Z124 Systems and methods for receiving gesture inputs spanning multiple input devices
US9336137B2 (en) 2011-09-02 2016-05-10 Google Inc. System and method for performing data management in a collaborative development environment
US9351237B2 (en) 2011-09-27 2016-05-24 Z124 Displaying of charging status on dual screen device
US8471871B1 (en) 2011-10-17 2013-06-25 Google Inc. Authoritative text size measuring
US8397153B1 (en) 2011-10-17 2013-03-12 Google Inc. Systems and methods for rich presentation overlays
US8434002B1 (en) * 2011-10-17 2013-04-30 Google Inc. Systems and methods for collaborative editing of elements in a presentation document
US10430388B1 (en) 2011-10-17 2019-10-01 Google Llc Systems and methods for incremental loading of collaboratively generated presentations
US20150199308A1 (en) 2011-10-17 2015-07-16 Google Inc. Systems and methods for controlling the display of online documents
US8812946B1 (en) 2011-10-17 2014-08-19 Google Inc. Systems and methods for rendering documents
US8266245B1 (en) 2011-10-17 2012-09-11 Google Inc. Systems and methods for incremental loading of collaboratively generated presentations
US8738706B1 (en) 2011-11-16 2014-05-27 Google Inc. Systems and methods for collaborative document editing
US9164544B2 (en) 2011-12-09 2015-10-20 Z124 Unified desktop: laptop dock, hardware configuration
US9990119B2 (en) 2011-12-15 2018-06-05 Blackberry Limited Apparatus and method pertaining to display orientation
US9367522B2 (en) 2012-04-13 2016-06-14 Google Inc. Time-based presentation editing
US9704189B2 (en) * 2012-09-05 2017-07-11 Rakuten Kobo, Inc. System and method for a graphical user interface having recommendations
KR102083918B1 (ko) 2012-10-10 2020-03-04 삼성전자주식회사 멀티 디스플레이 장치 및 그 제어 방법
KR102063952B1 (ko) 2012-10-10 2020-01-08 삼성전자주식회사 멀티 디스플레이 장치 및 멀티 디스플레이 방법
KR20140046327A (ko) * 2012-10-10 2014-04-18 삼성전자주식회사 멀티 디스플레이 장치, 입력 펜, 멀티 디스플레이 장치의 제어 방법 및 멀티 디스플레이 시스템
KR101951228B1 (ko) 2012-10-10 2019-02-22 삼성전자주식회사 멀티 디스플레이 장치 및 그 촬상 방법
US20150212647A1 (en) 2012-10-10 2015-07-30 Samsung Electronics Co., Ltd. Head mounted display apparatus and method for displaying a content
KR102083937B1 (ko) 2012-10-10 2020-03-04 삼성전자주식회사 멀티 디스플레이 장치 및 그 툴 제공 방법
KR101984683B1 (ko) 2012-10-10 2019-05-31 삼성전자주식회사 멀티 디스플레이 장치 및 그 제어 방법
KR102061881B1 (ko) 2012-10-10 2020-01-06 삼성전자주식회사 멀티 디스플레이 장치 및 그 디스플레이 제어 방법
US9529785B2 (en) 2012-11-27 2016-12-27 Google Inc. Detecting relationships between edits and acting on a subset of edits
US20150227208A1 (en) * 2012-12-18 2015-08-13 Google Inc. Gesture Based Rating System and Method
GB201300031D0 (en) * 2013-01-02 2013-02-13 Canonical Ltd Ubuntu UX innovations
US10956667B2 (en) 2013-01-07 2021-03-23 Google Llc Operational transformations proxy for thin clients
US9462037B2 (en) 2013-01-07 2016-10-04 Google Inc. Dynamically sizing chunks in a partially loaded spreadsheet model
US9311622B2 (en) 2013-01-15 2016-04-12 Google Inc. Resolving mutations in a partially-loaded spreadsheet model
US9286025B2 (en) * 2013-03-21 2016-03-15 Polaris Financial Technology Ltd. Interactive rendering on a multi-display device
US9971752B2 (en) 2013-08-19 2018-05-15 Google Llc Systems and methods for resolving privileged edits within suggested edits
US9348803B2 (en) 2013-10-22 2016-05-24 Google Inc. Systems and methods for providing just-in-time preview of suggestion resolutions
US20150268827A1 (en) * 2014-03-24 2015-09-24 Hideep Inc. Method for controlling moving direction of display object and a terminal thereof
US11335302B2 (en) * 2016-01-15 2022-05-17 Google Llc Adaptable user interface with dual screen device
CN106201395A (zh) * 2016-06-28 2016-12-07 努比亚技术有限公司 一种显示方法及移动终端
KR102660947B1 (ko) 2016-10-05 2024-04-25 삼성전자주식회사 양면 디스플레이를 갖는 전자 장치 및 어플리케이션 제어 방법
US11237598B2 (en) 2018-11-15 2022-02-01 Dell Products, L.P. Application management for multi-form factor information handling system (IHS)
WO2020185221A1 (en) * 2019-03-13 2020-09-17 Hewlett-Packard Development Company, L.P. Interfaces presentations on displays
CN114690888A (zh) * 2020-12-30 2022-07-01 华为技术有限公司 一种应用界面的处理方法以及相关设备
CN114564921A (zh) * 2022-02-18 2022-05-31 维沃移动通信有限公司 文档编辑方法及其装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1991005327A1 (en) 1989-10-06 1991-04-18 Communication Intelligence Corporation Keyless flat panel portable computer - computer aided notebook
US20060026536A1 (en) * 2004-07-30 2006-02-02 Apple Computer, Inc. Gestures for touch sensitive input devices
JP2007109240A (ja) * 2005-10-14 2007-04-26 Lg Electronics Inc 移動通信端末機及びそのマルチメディア表示方法

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5274758A (en) 1989-06-16 1993-12-28 International Business Machines Computer-based, audio/visual creation and presentation system and method
JPH03221993A (ja) 1990-01-27 1991-09-30 Brother Ind Ltd 文書処理装置のデュアル画面制御装置
JPH06215040A (ja) * 1992-11-30 1994-08-05 Toshiba Corp 情報処理システム及び頁めくり制御方法
US5463725A (en) * 1992-12-31 1995-10-31 International Business Machines Corp. Data processing system graphical user interface which emulates printed material
JP3663216B2 (ja) * 1994-07-05 2005-06-22 松下電器産業株式会社 電子機器
JPH09305259A (ja) * 1996-05-13 1997-11-28 Hitachi Ltd 情報処理装置及びその操作方法
JPH10240692A (ja) * 1997-02-28 1998-09-11 Toshiba Corp 携帯型情報端末器
TW347518B (en) 1997-03-06 1998-12-11 Samsung Electronics Co Ltd Display screen split method of a computer system
US20070177804A1 (en) * 2006-01-30 2007-08-02 Apple Computer, Inc. Multi-touch gesture dictionary
JP2000010655A (ja) * 1998-06-22 2000-01-14 Toshiba Corp 携帯型情報装置
JP2001005438A (ja) * 1999-06-21 2001-01-12 Sony Corp 表示装置及びその方法
GB2353911B (en) * 1999-09-02 2004-03-24 Hewlett Packard Co Device for capturing images and hand-writing
US7262763B2 (en) * 2000-04-18 2007-08-28 Fujifilm Corporation Image display apparatus and image display method
GB2367389A (en) * 2000-09-30 2002-04-03 Graham John Marklew An electronic notebook and textbook with removable hinges
US7730401B2 (en) * 2001-05-16 2010-06-01 Synaptics Incorporated Touch screen with user interface enhancement
US20050024341A1 (en) * 2001-05-16 2005-02-03 Synaptics, Inc. Touch screen with user interface enhancement
TW200511101A (en) 2003-09-10 2005-03-16 Benq Corp Dual-screen display apparatus and information processing apparatus
JP2006053678A (ja) 2004-08-10 2006-02-23 Toshiba Corp ユニバーサルヒューマンインタフェースを有する電子機器
JP2006053629A (ja) * 2004-08-10 2006-02-23 Toshiba Corp 電子機器、制御方法及び制御プログラム
US20060064643A1 (en) 2004-09-14 2006-03-23 Hariton Nicholas T Distributed scripting for presentations with touch screen displays
US7778671B2 (en) * 2004-10-08 2010-08-17 Nokia Corporation Mobile communications terminal having an improved user interface and method therefor
KR20070034767A (ko) * 2005-09-26 2007-03-29 엘지전자 주식회사 다중 표시영역을 갖는 이동통신 단말기 및 이를 이용한 디스플레이 간의 데이터 표시 방법
US20070168855A1 (en) 2006-01-17 2007-07-19 Sushma Bharat Patel Screen splitting for Web browsers
US20070188473A1 (en) 2006-02-14 2007-08-16 Picsel Research Limited System and methods for document navigation
CN200983603Y (zh) * 2006-08-04 2007-11-28 德信无线通讯科技(北京)有限公司 一种滑盖式移动通信终端
US8726178B2 (en) 2006-11-10 2014-05-13 Ricoh Company, Ltd. Device, method, and computer program product for information retrieval
US20080301542A1 (en) 2007-06-01 2008-12-04 Mcgee David Digital paper-enabled spreadsheet systems
JP5140867B2 (ja) * 2007-06-21 2013-02-13 Necカシオモバイルコミュニケーションズ株式会社 電子機器及びプログラム
US8259080B2 (en) 2008-03-31 2012-09-04 Dell Products, Lp Information handling system display device and methods thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1991005327A1 (en) 1989-10-06 1991-04-18 Communication Intelligence Corporation Keyless flat panel portable computer - computer aided notebook
US20060026536A1 (en) * 2004-07-30 2006-02-02 Apple Computer, Inc. Gestures for touch sensitive input devices
JP2007109240A (ja) * 2005-10-14 2007-04-26 Lg Electronics Inc 移動通信端末機及びそのマルチメディア表示方法

Also Published As

Publication number Publication date
EP2411895A2 (en) 2012-02-01
JP2012521606A (ja) 2012-09-13
US8446377B2 (en) 2013-05-21
KR20110139697A (ko) 2011-12-29
CN102362248A (zh) 2012-02-22
JP5918123B2 (ja) 2016-05-18
US20100245256A1 (en) 2010-09-30
WO2010111053A3 (en) 2011-01-13
RU2011139146A (ru) 2013-03-27
WO2010111053A2 (en) 2010-09-30
CN102362248B (zh) 2014-03-05
EP2411895A4 (en) 2015-05-13
RU2557463C2 (ru) 2015-07-20

Similar Documents

Publication Publication Date Title
KR101683320B1 (ko) 휴대용 터치감지 컴퓨팅시스템과 사용자 인터페이스 방법
US11416205B2 (en) Systems and methods for initiating and interacting with a companion-display mode for an electronic device with a touch-sensitive display
US11120203B2 (en) Editing annotations of paginated digital content
US10901584B2 (en) Devices, methods, and systems for manipulating user interfaces
EP3835934B1 (en) Device, method, and graphical user interface for providing handwriting support in document editing
US9424241B2 (en) Annotation mode including multiple note types for paginated digital content
US9792272B2 (en) Deleting annotations of paginated digital content
US8533629B2 (en) Area selectable menus
US20050015731A1 (en) Handling data across different portions or regions of a desktop
EP3491506B1 (en) Systems and methods for a touchscreen user interface for a collaborative editing tool
US10915698B2 (en) Multi-purpose tool for interacting with paginated digital content
JP5627985B2 (ja) 情報処理装置、情報処理装置の制御方法、制御プログラム、および記録媒体
US20140189593A1 (en) Electronic device and input method
US20130127745A1 (en) Method for Multiple Touch Control Virtual Objects and System thereof
JP2012088805A (ja) 情報処理装置および情報処理装置の制御方法
KR102551568B1 (ko) 전자 장치 및 그 제어 방법
KR20100041150A (ko) 멀티터치를 이용한 사용자 인터페이스 제어방법
US20130205201A1 (en) Touch Control Presentation System and the Method thereof
US20160054904A1 (en) Method and apparatus for adjusting a graphical object according to operator preference
JP2014127159A (ja) 電子機器および入力方法
KR20130094660A (ko) 복합 터치 패널 운용 방법과 시스템 및 이를 지원하는 단말기
EP2796979B1 (en) Method and apparatus for adjusting a graphical object according to operator preference

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right