KR101654393B1 - 듀얼모듈 휴대용장치와 그의 동작방법 - Google Patents

듀얼모듈 휴대용장치와 그의 동작방법 Download PDF

Info

Publication number
KR101654393B1
KR101654393B1 KR1020117021434A KR20117021434A KR101654393B1 KR 101654393 B1 KR101654393 B1 KR 101654393B1 KR 1020117021434 A KR1020117021434 A KR 1020117021434A KR 20117021434 A KR20117021434 A KR 20117021434A KR 101654393 B1 KR101654393 B1 KR 101654393B1
Authority
KR
South Korea
Prior art keywords
module
dual
display
user interface
location
Prior art date
Application number
KR1020117021434A
Other languages
English (en)
Other versions
KR20110139688A (ko
Inventor
브이 케빈 루스
존 에이 스나벨리
에드윈 알 버트너
이안 엠 샌즈
Original Assignee
마이크로소프트 테크놀로지 라이센싱, 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 filed Critical 마이크로소프트 테크놀로지 라이센싱, 엘엘씨
Publication of KR20110139688A publication Critical patent/KR20110139688A/ko
Application granted granted Critical
Publication of KR101654393B1 publication Critical patent/KR101654393B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1647Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1654Details related to the display arrangement, including those related to the mounting of the display in the housing the display being detachable, e.g. for remote use
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/0254Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets comprising one or a plurality of mechanically detachable modules
    • H04M1/0256Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets comprising one or a plurality of mechanically detachable modules wherein the modules are operable in the detached state, e.g. one module for the user interface and one module for the transceiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Position Input By Displaying (AREA)

Abstract

듀얼 모듈 휴대용 장치가 제공될 수 있다. 듀얼 모듈 휴대용 장치의 제 1 모듈의 모션이 감지될 수 있다. 감지한 모션을 적어도 일부분 기반으로 하여, 휴대용 장치의 제 2 모듈에 대한 제 1 모듈의 상대위치를 결정할 수 있다. 일단 제 1 모듈의 상대 위치를 결정하였다면, 상대 위치와 관련된 사용자 인터페이스 부분을 제 1 모듈에 디스플레이할 수 있다.

Description

듀얼모듈 휴대용장치와 그의 동작방법{DUAL MODULE PORTABLE DEVICES}
멀티터치(multi-touch)는 모바일 장치와 상호작용하기 위한 표준 방식이 되고 있다. 그러나 여전히 모바일 장치상에서 수행하기 어려운 많은 상호작용 유형이 있다. 이것은 제한된 스크린 실제영역(real estate)과 소형 장치 형태로 인한 것이 크다. 예를 들어 드래그 앤 드롭(drag-and-drop)은 대부분의 모바일 장치에서 불가능하거나 또는 어렵다. 또한 둘 이상의 사람이 모바일 장치에서 동시에 정보를 보는 것도 어렵다.
이 개요는 상세한 설명에서 더 후술되는 개념 선택을 간단한 형태로 소개하기 위해 제공된다. 이 개요는 청구 주제의 주요 특징 또는 필수 특징을 확인하려는 것이 아니다. 또한 이 개요는 청구 주제의 범주를 제한하는데 사용되지 않는다.
듀얼 모듈 휴대용 장치(dual module portable device)를 제공할 수 있다. 듀얼 모듈의 제 1 모듈의 모션(motion)을 감지(detection)할 수 있다. 감지한 모션을 적어도 일부분 기반으로 하여 휴대용 장치의 제 2 모듈에 대한 제 1 모듈의 위치를 결정할 수 있다. 일단 제 1 모듈의 상대 위치를 결정하였다면, 상대 위치와 관련된 사용자 인터페이스의 일부를 제 1 모듈에 디스플레이할 수 있다.
전술한 일반적인 설명과 다음의 상세한 설명의 모두는 예를 제공하는 것으로 단지 설명하기 위한 것이다. 따라서 전술한 일반적 설명 및 다음의 상세한 설명을 제한적인 것으로 간주해서는 안된다. 또한 여기의 설명에 부가적으로 특징 또는 변경을 제공할 수 있다. 예를 들어 실시예는 상세한 설명에 기술된 다양한 특징의 결합 및 부결합에 대한 것이다.
도 1은 동작 환경을 도시하는 도면.
도 2는 동작 환경을 도시하는 다른 도면.
도 3은 동작 환경을 도시하는 또 다른 도면.
도 4는 듀얼 모듈 휴대용 장치를 동작시키는 방법에 대한 흐름도.
도 5는 컴퓨팅 장치를 포함한 시스템의 블록도.
본 개시물에 병합되어 일부를 구성하는 첨부도면은 본 발명의 다양한 실시예를 도시한다.
다음의 상세한 설명은 첨부 도면에 대한 것이다. 도면 및 다음의 설명에서 가능한 곳마다 동일 또는 유사한 요소를 언급하기 위해 동일한 참조번호를 사용한다. 본 발명의 실시예를 기술할 수 있지만, 변형, 각색 및 다른 구현이 가능하다. 예를 들면 도면에 도시된 요소에 대체, 추가 또는 변형을 할 수 있고, 여기에 기술된 방법은 개시된 방법 단계에 대체, 재순서화 또는 추가를 행하여 변경될 수 있다. 따라서 다음의 상세한 설명은 본 발명을 제한하지 않는다. 대신에, 본 발명의 적절한 범주는 첨부된 청구범위에 의해 정의된다.
도 1은 동작 환경을 도시한다. 도 1에 도시된 바와 같이, 듀얼 모듈 휴대용 장치(100)는 제 1 모듈(100A)과 제 2 모듈(100B)로 구성될 수 있다. 제 1 모듈(100A) 또는 제 2 모듈(100B)은 도 5에 관하여 보다 상세히 후술되는 바와 같이 컴퓨팅 장치(500)를 포함할 수 있다. 제 1 모듈(100A) 또는 제 2 모듈(100B)은 적어도 "Projected Way-Finding"라는 명칭의 미국출원번호 12/407,058에서 기술한 바와 같이 휴대용 장치(100)와 관련된 다양한 실시예에 따라 동작가능하지만 이로 제한되지는 않는다. 또한 제 1 모듈(100A) 또는 제 2 모듈(100B)은 적어도 "Tear-Drop Way-Finding"라는 명칭의 미국출원번호 12/407,009에서 도 1에 대해 기술한 바와 같은 사용자 인터페이스(100)의 다양한 실시예를 제공할 수 있다.
더욱이 듀얼 모듈 휴대용 장치(100)는 통신 장치, 모바일 통신 장치, 카메라 및 스피커를 구비한 모바일 장치, PDA(personal digital assistant), 전화, 셀룰러 전화, 스마트폰, 컴퓨터 또는 핸드헬드 컴퓨터를 포함할 수 있는데, 다만 이로 제한되지 않는다. 또한 제 1 모듈(100A) 또는 제 2 모듈(100B)은 음성 서비스 및 데이터 서비스의 적어도 일부를 제공할 수 있다. 이런 식으로 도 1에 도시된 바와 같이, 사용자(105)는 제 1 모듈(100A)에서 음성 서비스를 제공받으면서, 제 2 모듈(100B)로 제공되는 데이터 서비스와 상호작용할 수 있다. 유사하게, 제 1 애플리케이션이 제 1 모듈(100A)에서 실행되는 동안에 제 1 애플리케이션과 통신하는 제 2 애플리케이션이 제 2 모듈(100B)에서 동시에 실행될 수 있다. 본 발명의 실시예에 따라서, 듀얼 모듈 휴대용 장치(100)는 도 5에 대해 보다 상세히 후술되는 바와 같이 컴퓨팅 장치(500)를 구비 또는 포함할 수 있거나, 그렇지 않으면 기타 방법으로 이를 사용할 수 있다.
도 2는 동작 환경의 다른 도면이다. 도 2에 도시된 바와 같이, 제 1 모듈(100A)과 제 2 모듈(100B)은 다양한 방식으로 서로 자기적으로 연결될 수 있다. 예를 들면 제 1 모듈(100A)과 제 2 모듈(100B)은 사용자(105)가 모듈을 에지-에지(edge-to-edge)로 연결할 수 있게 해주는 자기 스트립(magnetic strips)을 각 에지에 포함할 수 있다. 이런 식으로, 제 1 모듈(100A)과 제 2 모듈(100B)이 에지-에지로 연결될 수 있을 때, 사용자(105)는 제 1 모듈(100A)의 제 1 멀티터치 풀스크린 디스플레이(200)에서 디스플레이된 대상(objects)을, 제 2 모듈(100B)의 제 2 멀티터치 풀스크린 디스플레이(205)로 드래그 앤 드롭할 수 있다. 다른 실시예에서, 제 1 모듈(100A)과 제 2 모듈(100B)은 (도시되지 않은) 후면-후면(back-to-back)으로 자기적으로 연결될 수 있다. 따라서 제 1 디스플레이(200)가 디스플레이된 대상(210)과 관련된 맥락관련 정보(contextual information)(215)를 디스플레이하는 동안에, 제 2 디스플레이(205)는 대상(210)을 디스플레이할 수 있다.
또한 본 발명의 실시예에 따라서, 제 1 모듈(100A)과 제 2 모듈(100B)의 각각은 "Projected Way-Finding"라는 명칭의 미국출원번호 12/407,058에서 기술한 바와 같이 위치, 모션 및 방위 감지 장치를 포함할 수 있다. 예를 들면 제 1 모듈(100A)은 제 1 모듈(100A)의 움직임을 감지하기 위한 적어도 하나의 가속도계(accelerometer)를 구비할 수 있다. 다음에는, 제 1 모듈(100A)의 감지한 모션을 제 2 모듈(100B)로 전달할 수 있다. 유사하게, 제 2 모듈(100B)은 또한 제 1 모듈(100A)로 그의 대응한 가속도계 판독값을 전달할 수 있다. 이런 식으로, 제 1 모듈(100A)은 제 2 모듈(100B)의 상대 모션을 알 수 있고, 제 2 모듈(100B)은 제 1 모듈(100A)의 상대 모션을 알 수 있다.
본 발명의 실시예에서, 제 1 모듈(100A)은 제 2 모듈(100B)에 대한 그의 상대 모션과 관련된 조치를 실행하도록 동작할 수 있다. 예를 들면 제 1 모듈(100A)을 제 2 모듈(100B)에 대해 앞으로 이동시키면 제 1 디스플레이(200)가 디스플레이된 제 1 사용자 인터페이스 부분을 축소시키는 동안에, 제 2 디스플레이(205)는 디스플레이된 제 2 사용자 인터페이스 부분에서 확대될 수 있다. 따라서 감지된 다양한 제스처는 "Gesture Operated User Interfcaces"라는 명칭의 미국출원번호 12/407,128에 따른 다양한 사용자 인터페이스 조작을 일으킬 수 있다.
도 3은 동작 환경의 또 다른 도면이다. 본 발명의 실시예에 따라서, 제 1 모듈(100A)은 제 2 모듈(100B)과의 그의 근접성(300)을 계산하도록 동작할 수 있다. 예를 들면 (도 2에 도시된 바와 같이) 제 1 모듈(100A)과 제 2 모듈(100B)은 처음에 거리 교정점을 설정하기 위해 연결될 수 있다. 도 3에 도시된 바와 같이, 사용자(105)가 제 2 모듈(100B)로부터 제 1 모듈(100A)을 분리시킴에 따라, 모듈은 서로의 모션 감지를 상호통신(intercommunication)할 수 있다. 이들 전달된 모션 감지를 기반으로 초기 교정점을 고려하여, 모듈은 근접성(300)을 계산할 수 있다. 이런 식으로, 각 모듈이 초기 교정점으로부터 예를 들면 정확히 반대 방향으로, 6인치의 변위를 감지 및 전달하였을 때, 근접성(300)은 12 인치의 값으로 계산될 수 있다. 다른 실시예에서, 모션 보다는 모듈 위치를 상호통신함으로써 근접성(300)을 결정할 수 있다.
본 발명의 실시예에 따라서, 제 1 모듈(100A)과 제 2 모듈(100B)의 각각은 사용자 인터페이스 부분을 디스플레이할 수 있다. 예를 들어 "Tear-Drop Object Indication"라는 명칭의 미국출원번호 12/407,009에서 묘사된 사용자 인터페이스(100)와 같이, 사용자 인터페이스는 듀얼 모듈 휴대용 장치(100)의 위치에 대응할 수 있다. 예를 들어 제 1 모듈(100A)은 지도의 제 1 부분을 디스플레이할 제 2 모듈(100B)은 지도의 제 2 부분을 디스플레이할 수 있다. 이런 식으로, 사용자(105)가 고정 지도를 보고 있음에도 불구하고, 예를 들어 사용자(105)가 제 1 모듈(100A)을 제 2 모듈(100B)에 대해 재위치시킴에 따라, 지도의 상이한 부분이 제 1 모듈(100A)에 디스플레이될 수 있다. 유사하게, 사용자(105)가 제 2 모듈(100B)을 재위치시킴에 따라, 지도의 상이한 부분이 제 2 모듈(100B)에 디스플레이될 수 있다. 도 1 및 도 2를 참조하여 전술한 바와 같이, 사용자(105)가 모듈을 상대적으로 재위치시키는 것을 감지하기 위하여, 정보 교환을 사용할 수 있다. 또한 전술한 바와 같이, 모듈의 제스처(gesture) 감지는 "Gesture Operated User interfaces"라는 명칭의 미국출원번호 12/407,128에 개시된 사용자 인터페이스 조작에 따라서 지도의 디스플레이를 조작할 수 있다.
도 4는 듀얼 모듈 휴대용 장치를 동작시키기 위한 본 발명의 실시예에 따라서 방법(400)에 사용되는 일반적 단계를 설명하는 흐름도이다. 방법(400)은 도 5를 참조하여 보다 상세히 후술하는 바와 같이 컴퓨팅 장치(500)를 사용하여 구현될 수 있다. 방법(400)의 단계를 구현하는 방식을 더 상세히 후술할 것이다.
방법(400)은 시작 블록(405)에서 시작하여 듀얼 모듈 휴대용 장치(100)가 현 위치를 결정할 수 있는 단계(410)로 진행할 수 있다. 예를 들면 듀얼 모듈 휴대용 장치(100)의 적어도 한 모듈은 "Projected Way-Finding"라는 명칭의 미국출원번호 12/407,058에 개시된 바와 같은 위치 감지 장치를 구비할 수 있다. 위치 감지 장치는 글로벌 또는 로컬 포지셔닝 시스템과 통신할 수 있고, 현 위치를 탐지하기 위해 삼각측량을 사용할 수 있다. 이런 식으로, 듀얼 모듈 휴대용 장치(100)는 위치 탐지 장치로부터 제공받을 수 있는 좌표 정보를 판독함으로써 그의 현 위치를 결정할 수 있다.
방법(400)은 장치(100)가 그의 현 위치를 감지하는 단계(410)로부터 단계(420)로 진행할 수 있고, 여기서 장치(100)는 위치와 관련된 사용자 인터페이스를 결정할 수 있다. 예를 들면 현 위치에 대응한 지도를 제공할 수 있다. 지도는 "Tear-Drop Object Indication"라는 명칭의 미국출원번호12/407,009에 개시된 디스플레이 대상, 티어드롭 아이콘(tear-drop icons) 및 임의 사용자 인터페이스 특징 또는 동작일 수 있다.
일단 장치(100)가 단계(420)에서 관련된 사용자 인터페이스를 결정하면, 방법(400)은 단계(430)로 진행되고, 여기서 장치(100)는 듀얼 모듈 휴대용 장치(100)의 제 1 모듈(100A)의 제 1 위치를 결정할 수 있다. 예를 들면 제 1 모듈(100A)은 "Projected Way-Finding"라는 명칭의 미국출원번호 12/407,058에 개시된 모듈(100A)의 모션을 감지하는데 사용되는 모션 감지 모듈에 따라서 적어도 하나의 가속도계를 포함할 수 있다. 또한 제 1 모듈(100A)은 제 2 모듈(100B)로부터 가속도계 판독값을 무선으로 수신할 수 있다. 이런 식으로, 제 1 모듈(100A)의 가속도계 판독값과 제 2 모듈(100B)의 가속도계 판독값을 적어도 일부분 기반으로 하여, 듀얼 모듈 휴대용 장치(100)는 제 2 모듈(100B)에 대한 제 1 모듈(100A)의 상대 위치를 결정할 수 있다.
장치(100)가 단계(430)에서 제 1 모듈(100A)의 제 1 위치를 결정한 후에, 방법(400)은 단계(440)로 진행할 수 있고, 여기서 장치(100)는 제 1 모듈(100A)로 제 1 디스플레이를 제공할 수 있다. 예를 들면 결정된 제 1 모듈(100A)의 상대 위치를 적어도 일부분 기반으로 하여, 제 1 모듈(100A)의 제 1 디스플레이(200)에서의 디스플레이를 위해 대응되는 제 1 사용자 인터페이스 부분을 제공할 수 있다. 본 발명의 다른 다양한 실시예에서, 제 2 모듈(100B)에 대한 계산된 근접성, 감지된 위치, 감지된 제스처, 또는 제 1 모듈(100A) 또는 제 2 모듈(100B)의 사용자 인터페이스 이벤트를 적어도 일부분 기반으로 하여 대응되는 제 1 사용자 인터페이스 부분을 제 1 모듈(100A)에 제공할 수 있다. 예를 들어 제 1 사용자 인터페이스 부분은 듀얼 모듈 휴대용 장치(100)의 위치와 관련된 지도의 제 1 부분을 포함할 수 있다. 사용자(105)가 제 1 모듈(100A)을 제 1 위치로부터 멀리 재위치시킴에 따라, 지도의 다른 대응되는 부분을 제 1 모듈(100A)에 디스플레이할 수 있다.
방법(400)은 휴대용 장치(100)가 제 1 모듈(100A)로 제 1 디스플레이를 제공하는 단계(440)로부터 단계(450)로 진행할 수 있고, 여기서 장치(100)는 듀얼 모듈 휴대용 장치(100)의 제 2 모듈(100B)의 제 2 위치를 결정할 수 있다. 예를 들면 제 2 모듈(100B)은 모듈(100A)의 모션을 감지하는데 사용되는 "Projected Way-Finding"라는 명칭의 미국출원번호 12/407,058에 개시된 모션 감지 모듈에 따라서 적어도 하나의 가속도계를 포함할 수 있다. 또한 제 2 모듈(100B)은 제 1 모듈(100A)로부터 가속도계 판독값을 무선으로 수신할 수 있다. 이런 식으로, 제 2 모듈(100B)의 가속도계 판독값과 제 1 모듈(100A)의 가속도계 판독값을 적어도 일부분 기반으로 하여, 듀얼 모듈 휴대용 장치(100)는 제 1 모듈(100A)에 대한 제 2 모듈(100B)의 상대 위치를 결정할 수 있다.
일단 장치(100)가 단계(450)에서 제 2 모듈(100B)의 제 2 위치를 결정한다면, 방법(400)은 단계(460)로 진행하고, 여기서 장치(100)는 제 2 모듈(100B)로 제 2 디스플레이를 제공한다. 예를 들면 결정된 제 2 모듈(100B)의 상대 위치를 적어도 일부분 기반으로 하여, 제 2 모듈(100B)의 제 2 디스플레이(200)에서의 디스플레이를 위해 대응되는 제 2 사용자 인터페이스 부분을 제공할 수 있다. 본 발명의 다른 실시예에서, 제 1 모듈(100A)에 대한 계산된 근접성, 감지한 위치, 감지한 제스처, 또는 제 1 모듈(100A) 또는 제 2 모듈(100B)의 사용자 인터페이스 이벤트를 적어도 일부분 기반으로 하여 대응되는 제 2 사용자 인터페이스 부분을 제 2 모듈(100B)에 제공될 수 있다. 예를 들어 제 2 사용자 인터페이스 부분은 듀얼 모듈 휴대용 장치(100)의 위치와 관련된 지도의 제 2 부분을 포함할 수 있다. 사용자(105)가 제 2 모듈(100B)을 제 1 위치로부터 멀리 재위치시킴에 따라, 지도의 다른 대응되는 부분을 제 2 모듈(100B)에 디스플레이될 수 있다. 장치(100)가 단계(460)에서 제 2 모듈(100B)로 제 2 디스플레이를 제공한 후에, 방법(400)은 단계(470)에서 종료될 수 있다.
본 발명에 따른 실시예는 듀얼 모듈 휴대용 장치를 제공하기 위한 시스템을 포함할 수 있다. 시스템은 메모리 저장소, 그리고 메모리 저장소에 연결된 처리 유닛을 포함할 수 있다. 처리 유닛은 듀얼 모듈 휴대용 장치의 각 모듈의 모션을 감지하도록 동작할 수 있다. 그 후, 감지한 모션을 적어도 일부분 기반으로 하여, 처리 유닛은 서로에 대한 각 모듈의 위치를 결정하고, 그들의 상대 위치와 관련된 동작을 실행하도록 진행할 수 있다.
본 발명에 따른 또 다른 실시예는 두 독립 모듈을 가진 모바일 통신 장치를 제공하기 위한 시스템을 포함할 수 있다. 시스템은 메모리 저장소, 그리고 두 독립 모듈의 각각에 있는 메모리 저장소로 연결된 처리 유닛을 포함할 수 있다. 각 처리 유닛은 그들의 대응 모듈과 관련된 가속도계 판독값을 무선으로 상호통신하도록 동작할 수 있다. 처리 유닛은 상호통신된 판독값을 기반으로 두 모듈들 간의 근접성을 결정할 수 있다. 그 후, 각 처리 유닛은 두 모듈들 간의 근접성을 적어도 일부분 기반으로 하여 그들의 대응되는 모듈에서 디스플레이할 사용자 인터페이스 부분을 결정할 수 있다.
본 발명에 따른 또 다른 실시예는 듀얼 모듈 장치를 동작시키기 위한 시스템을 포함할 수 있다. 이 시스템은 메모리 저장소, 그리고 메모리 저장소에 연결된 처리 유닛을 포함할 수 있다. 처리 유닛은 듀얼 모듈 장치의 위치를 결정하고 위치와 관련된 사용자 인터페이스를 디스플레이하도록 동작할 수 있다. 처리 유닛은 서로에 관한 각 모듈 위치를 결정하고, 서로에 대한 그들의 상대 위치를 기반으로 각 모듈로 사용자 인터페이스의 대응 부분을 제공하도록 동작할 수 있다.
도 5는 컴퓨팅 장치(500)를 포함한 시스템의 블록도이다. 본 발명의 실시예에 따라서, 전술한 메모리 저장소와 처리 유닛은 도 5의 컴퓨팅 장치와 같은 컴퓨팅 장치에 구현될 수 있다. 하드웨어, 소프트웨어 또는 펌웨어의 임의의 적당한 조합을 사용하여 메모리 저장소와 처리 유닛을 구현할 수 있다. 예를 들면 메모리 저장소와 처리 유닛은 컴퓨팅 장치(500), 또는 컴퓨팅 장치(500)와 결합한 임의의 다른 컴퓨팅 장치(518)로써 구현될 수 있다. 전술한 시스템, 장치 및 프로세서는 예이며, 다른 시스템, 장치 및 프로세서가 본 발명의 실시예에 따라서 전술한 메모리 저장소 및 처리 유닛을 포함할 수 있다. 또한 컴퓨팅 장치(500)는 전술한 바와 같이 시스템(100)을 위한 동작 환경을 포함할 수 있다. 시스템(100)은 다른 환경에서 동작할 수 있고, 컴퓨팅 장치(500)로 제한되지 않는다.
도 5를 참조하면, 본 발명의 실시예에 따른 시스템은 듀얼 모듈 휴대용 장치(100)의 각 모듈을 위해 컴퓨팅 장치(500)와 같은 컴퓨팅 장치를 포함할 수 있다. 기본 구성에서, 컴퓨팅 장치(500)는 적어도 하나의 처리 유닛(502)과 시스템 메모리(504)를 포함할 수 있다. 컴퓨팅 장치의 구성 및 유형에 따라, 시스템 메모리(504)는 휘발성(예를 들면 RAM:random access memory), 비휘발성(예를 들면 ROM:read-only memory), 플래시 메모리, 또는 이들의 임의의 조합을 포함할 수 있는데, 다만 이로 제한되지는 않는다. 시스템 메모리(504)는 운영체제(505), 하나 이상의 프로그래밍 모듈(506), 그리고 프로그램 데이터(507)를 포함할 수 있다. 예를 들면 운영체제(505)는 컴퓨팅 장치(500)의 동작을 제어하는데 적합할 수 있다. 일 실시예에서, 프로그래밍 모듈(506)은 듀얼 모듈 사용자 인터페이스 애플리케이션(520)을 포함할 수 있다. 또한 본 발명의 실시예는 그래픽 라이브러리, 다른 운영체제, 또는 임의 다른 애플리케이션 프로그램과 결합하여 실행될 수 있고, 임의 특정 애플리케이션 또는 시스템으로 제한되지 않는다. 이 기본 구성은 도 5에서 대시선(508) 내의 구성요소에 의해 도시된다.
컴퓨팅 장치(500)는 추가 특징 또는 기능을 가질 수 있다. 예를 들면 컴퓨팅 장치(500)는 또한 예를 들어 자기 디스크, 광 디스크 또는 테잎과 같은 추가 데이터 저장장치(분리식 및/또는 비분리식)를 포함할 수 있다. 이러한 추가 저장소는 도 5에서 분리식 저장소(509)와 비분리식 저장소(510)로 도시된다. 컴퓨터 저장매체는 컴퓨터 판독가능 인스트럭션, 데이터 구조, 프로그램 모듈 또는 다른 데이터와 같은 정보 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리식 및 비분리식 매체를 포함할 수 있다. 시스템 메모리(504), 분리식 저장소(509) 및 비분리식 저장소(510)는 모든 컴퓨터 저장매체 예(즉 메모리 저장소)이다. 컴퓨터 저장매체는 RAM, ROM, EEPROM(electrically erasable read-only memory), 플래시 메모리 또는 다른 메모리 기술, CD-ROM, DVD(digital versatile disks) 또는 다른 광 저장소, 자기 카세트, 자기 테잎, 자기 디스크 저장소, 또는 다른 자기 저장장치, 또는 정보를 저장하는데 사용될 수 있으며 컴퓨팅 장치(500)에 의해 액세스될 수 있는 임의의 다른 매체를 포함할 수 있는데, 다만 이로 제한되지는 않는다. 이러한 임의 컴퓨터 저장매체는 장치(500)의 일부일 수 있다. 또한 컴퓨팅 장치(500)는 키보드, 마우스, 펜, 음향 입력 장치, 터치 입력 장치 등과 같은 입력 장치(들)(512)를 가질 수 있다. 디스플레이, 스피커, 프린터 등과 같은 출력 장치(들)(514)가 또한 포함될 수 있다. 전술한 장치는 예시이며 다른 것들이 사용될 수 있다.
또한 컴퓨팅 장치(500)는 장치(500)에게 분산 컴퓨팅 환경, 예를 들면 인트라넷 또는 인터넷에서 네트워크와 같은 것을 통해 다른 컴퓨팅 장치(518)와 통신할 수 있도록 해줄 수 있는 통신 연결부(516)를 포함할 수 있다. 통신 연결부(516)는 통신 매체의 일 예이다. 통신 매체는 전형적으로, 반송파 또는 다른 전송 메카니즘과 같은 변조 데이터 신호로 컴퓨터 판독가능 인스트럭션, 데이터 구조, 프로그램 모듈 또는 다른 데이터에 의해 구현될 수 있고, 임의의 정보 전달매체를 포함한다. 용어 "변조 데이터 신호"는 신호에서 정보를 인코딩하는 방식으로 설정 또는 변경된 하나 이상의 특성을 가진 신호를 기술할 수 있다. 예를 들면 통신매체는 유선 네트워크 또는 직접 유선 연결과 같은 유선 매체, 그리고 음향, RF(radio frequency), 적외선 및 다른 무선 매체와 같은 무선 매체를 포함할 수 있고, 다만 이로 제한되지 않는다. 여기에 사용되는 용어 "컴퓨터 판독가능 매체"는 저장매체와 통신매체의 모두를 포함할 수 있다.
전술한 바와 같이, 운영체제(505)를 포함한 다수의 프로그램 모듈과 데이터 파일은 시스템 메모리(504)에 저장될 수 있다. 처리 유닛(502)에서 실행되는 동안에, 프로그래밍 모듈(506)(예를 들면 듀얼 모듈 사용자 인터페이스 애플리케이션 520)은 예를 들어 전술한 바와 같은 하나 이상의 방법(400) 단계를 포함한 처리를 수행할 수 있다. 전술한 처리는 예이며, 처리 유닛(502)은 다른 처리를 수행할 수 있다. 본 발명의 실시예에 따라서 사용가능한 다른 프로그래밍 모듈은 전자메일 및 연락 애플리케이션, 워드 프로세싱 애플리케이션, 스프레드시트 애플리케이션, 데이터베이스 애플리케이션, 슬라이드 프리젠테이션 애플리케이션, 도면 또는 컴퓨터 보조 애플리케이션 프로그램 등을 포함할 수 있다.
통상 본 발명의 실시예에 따라서, 프로그램 모듈은 특정 작업을 수행할 수 있거나 특정 추상 데이터 유형을 구현할 수 있는 루틴, 프로그램, 구성요소, 데이터 구조, 그리고 다른 유형의 구조를 포함할 수 있다. 또한 본 발명의 실시예는 핸드헬드 장치, 멀티프로세서 시스템, 마이크로프로세서기반 또는 프로그램가능 가전제품, 미니컴퓨터, 메인프레임 컴퓨터 등을 포함한 다른 컴퓨터 시스템 구성과 실행될 수 있다. 본 발명의 실시예는 또한 통신 네트워크를 통해 연결된 원격 처리 장치에 의해 작업을 수행하는 분산 컴퓨팅 환경에서 실행될 수 있다. 분산 컴퓨팅 환경에서, 프로그램 모듈은 로컬 및 원격 메모리 저장장치에 위치할 수 있다.
더욱이 본 발명의 실시예는 개별 전자소자를 구비한 전자회로, 논리 게이트를 포함한 패키지 또는 집적 전자칩, 마이크로프로세서를 사용하는 회로, 혹은 전자소자 또는 마이크로프로세서를 포함한 단일 칩상에서 실행될 수 있다. 또한 본 발명의 실시예는 기계적, 광학, 유체공학 및 양자 기술을 포함하지만 이로 제한되지 않는, 예를 들어 AND, OR 또는 NOT과 같은 논리 동작을 수행할 수 있는 다른 기술을 사용하여 실행될 수 있다. 게다가 본 발명의 실시예는 범용 컴퓨터내에서, 또는 임의의 다른 회로 또는 시스템에서 실행될 수 있다.
본 발명의 실시예는 예를 들면 컴퓨터 프로세스(방법), 컴퓨팅 시스템, 혹은 컴퓨터 프로그램제품 또는 컴퓨터 판독가능 매체와 같은 제조물품으로서 구현될 수 있다. 컴퓨터 프로그램 제품은 컴퓨터 시스템에 의해 판독가능하며 컴퓨터 프로세스 실행을 위한 인스트럭션의 컴퓨터 프로그램을 인코딩하는 컴퓨터 저장 매체일 수 있다. 또한 컴퓨터 프로그램 제품은 컴퓨터 시스템에 의해 판독가능하며 컴퓨터 프로세스 실행을 위한 인스트럭션의 컴퓨터 프로그램을 인코딩하는 캐리어상의 전달신호일 수 있다. 따라서 본 발명은 (펌웨어, 상주 소프트웨어, 마이크로코드 (microcode)등을 포함한) 소프트웨어 및/또는 하드웨어로 구현될 수 있다. 환언하면, 본 발명의 실시예는 인스트럭션 실행 시스템과 관련하여 또는 이에 의한 사용을 위해 매체에 구현된 컴퓨터 사용가능 또는 컴퓨터 판독가능 프로그램 코드를 가진 컴퓨터 사용가능 또는 컴퓨터 판독가능 저장매체상에서의 컴퓨터 프로그램 제품 형태를 가질 수 있다. 컴퓨터 사용가능 또는 컴퓨터 판독가능 매체는 인스트럭션 실행 시스템, 장치 또는 디바이스와 관련하여 또는 이에 의한 사용을 위해 프로그램을 포함, 저장, 통신, 전달, 또는 전송할 수 있는 임의의 매체일 수 있다.
컴퓨터 사용가능 또는 컴퓨터 판독가능 매체는 예를 들어 전자, 자기, 광학, 전자기, 적외선 또는 반도체 시스템, 장치, 디바이스 또는 전달매체일 수 있는데, 다만 이로 제한되지는 않는다. 보다 특정한 컴퓨터 판독가능 매체 예에서(총망라한 목록이 아님), 컴퓨터 판독가능 매체는 하나 이상의 와이어를 가진 전기연결부, 휴대용 컴퓨터 디스켓, RAM, ROM, EPROM(erasable programmable read-only memory 또는 플래시 메모리), 광섬유, 그리고 휴대용 CD-ROM(compact disc read-only memory)를 포함할 수 있다. 컴퓨터 사용가능 또는 컴퓨터 판독가능 매체는 예를 들어 종이 또는 다른 매체의 광 스캐닝을 통해 전자적으로 캡처된 후에 컴파일, 해석, 그렇지 않으면 필요한 경우에 적당한 방식으로 처리되고 컴퓨터 메모리에 저장될 수 있으므로, 프로그램이 심지어 인쇄된 종이 또는 다른 적당한 매체일 수도 있다는 데에 주목해야 한다.
본 발명의 실시예는 예를 들면 본 발명의 실시예에 따라 방법, 시스템 및 컴퓨터 프로그램제품의 블록도 및/또는 이의 동작을 도시한 것을 참조하여 전술하였다. 블록에서의 기능/액트(acts)는 임의의 흐름도에 도시된 바와 같은 순서를 벗어나서 발생할 수 있다. 예를 들면 사실상 연속으로 도시된 두 블록은 실질적으로 동시에 실행될 수 있거나, 또는 블록은 종종, 관련된 기능/액트에 따라 역 순서로 실행될 수 있다.
본 발명의 소정 실시예를 기술하였지만, 다른 실시예가 존재할 수 있다. 더욱이 본 발명의 실시예를 메모리 및 다른 저장매체에 저장된 데이터와 관련하여 기술하였지만, 데이터는 또한 하드 디스크, 플로피 디스크 또는 CD-ROM, 인터넷으로부터의 반송파, 혹은 다른 형태의 RAM 또는 ROM과 같은 2차 저장장치와 같은 다른 유형의 컴퓨터 판독가능 매체에 저장되거나 또는 그로부터 판독될 수 있다. 더 나아가, 개시된 방법 단계는 본 발명을 벗어나지 않고서도 단계의 재순서화 및/또는 단계 삽입 또는 단계 삭제를 포함한 임의의 방식으로써 변경될 수 있다.
여기에 포함된 코드에서 저작권을 포함한 모든 권리는 출원인 자산에 속한다. 출원인은 여기에 포함된 코드의 모든 권리를 유지 및 보유하고, 다른 목적이 아닐시 단지 허가된 특허의 재생성과 관련하여 소재(material)를 재생성하도록 허가한다.
명세서가 예를 포함하지만, 본 발명의 범주는 다음의 청구범위에 의해 지시된다. 더욱이 명세서가 구조적 특징 및/또는 방법론적 액트에 특정적인 언어로 기술되었지만, 청구범위는 전술한 특징 또는 액트로 제한되지 않는다. 오히려, 전술한 특정 특징 및 액트는 본 발명의 실시예의 예로서 개시된다.

Claims (15)

  1. 듀얼 모듈 휴대용 장치로서,
    제 1 디스플레이를 가진 제 1 모듈과,
    제 2 디스플레이를 가진 제 2 모듈
    을 포함하되,
    상기 제 1 모듈은,
    상기 제 1 모듈의 제 1 모션(motion)을 감지(detection)하고,
    감지한 상기 제 1 모션에 적어도 부분적으로 기초하여 상기 제 2 모듈에 대한 제 1 위치를 결정하며,
    상기 제 1 위치와 상기 제 1 모션 중 적어도 하나와 연관된 제 1 동작을 결정하고,
    상기 제 1 모듈과 상기 제 2 모듈 중 적어도 하나에서 상기 제 1 동작을 실행하도록
    동작하고,
    상기 제 2 모듈은,
    상기 제 2 모듈의 제 2 모션을 감지하고,
    감지한 상기 제 2 모션에 적어도 부분적으로 기초하여 상기 제 1 모듈에 대한 제 2 위치를 결정하며,
    상기 제 2 위치와 상기 제 2 모션 중 적어도 하나와 연관된 제 2 동작을 결정하고,
    상기 제 1 모듈과 상기 제 2 모듈 중 적어도 하나에서 상기 제 2 동작을 실행하도록
    동작하는
    듀얼 모듈 휴대용 장치.
  2. 제 1 항에 있어서,
    상기 제 1 모듈은 비디오 스트림을 전달하도록 동작하는 음성 및 데이터 서비스의 적어도 제 1 부분을 제공하도록 더 동작하고,
    상기 제 2 모듈은 오디오 스트림을 전달하도록 동작하는 상기 음성 및 데이터 서비스의 적어도 제 2 부분을 제공하도록 더 동작하는
    듀얼 모듈 휴대용 장치.
  3. 제 1 항에 있어서,
    상기 제 1 모듈은
    적어도 하나의 제 1 가속도계(accelerometer)를 포함하고,
    상기 적어도 하나의 제 1 가속도계로부터의 제 1 판독값(first reading)을 수신하고, 수신한 상기 제 1 판독값을 상기 제 2 모듈로 전달하도록 동작하고,
    상기 제 2 모듈은
    적어도 하나의 제 2 가속도계를 포함하고,
    상기 적어도 하나의 제 2 가속도계로부터의 제 2 판독값을 수신하고, 수신한 상기 제 2 판독값을 상기 제 1 모듈로 무선으로 전달하도록 동작하는
    듀얼 모듈 휴대용 장치.
  4. 제 3 항에 있어서,
    상기 제 1 모듈은
    상기 제 2 모듈로부터 상기 제 2 판독값을 무선으로 수신하고,
    수신한 상기 제 2 판독값과 상기 제 1 위치에 적어도 부분적으로 기초하여 상기 제 2 모듈과의 근접성(proximity)을 계산하도록 동작하고,
    상기 제 2 모듈은
    상기 제 1 모듈로부터 상기 제 1 판독값을 무선으로 수신하고,
    상기 수신한 제 1 판독값과 상기 제 2 위치에 적어도 부분적으로 기초하여 상기 제 1 모듈과의 근접성을 계산하도록 동작하는
    듀얼 모듈 휴대용 장치.
  5. 제 4 항에 있어서,
    상기 제 1 모듈은 상기 제 2 모듈과의 계산된 근접성에 기초하여 상기 제 1 동작을 결정하도록 동작하고,
    상기 제 2 모듈은 상기 제 1 모듈과의 계산된 근접성에 기초하여 상기 제 2 동작을 결정하도록 동작하는
    듀얼 모듈 휴대용 장치.
  6. 제 4 항에 있어서,
    상기 제 1 모듈은 상기 계산된 근접성과 상기 제 1 위치 중 적어도 하나에 기초하여 적어도 사용자 인터페이스의 제 1 부분을 디스플레이하도록 동작하고,
    상기 제 2 모듈은 상기 계산된 근접성과 상기 제 2 위치 중 적어도 하나에 기초하여 적어도 상기 사용자 인터페이스의 제 2 부분을 디스플레이하도록 동작하는
    듀얼 모듈 휴대용 장치.
  7. 제 1 항에 있어서,
    상기 제 1 모듈과 상기 제 2 모듈은 자력(magnetic attraction)을 통해 결합된 모듈을 형성하기 위하여 서로 물리적으로 결합되도록 설계되는
    듀얼 모듈 휴대용 장치.
  8. 제 7 항에 있어서,
    상기 결합된 모듈은 상기 제 1 디스플레이와 상기 제 2 디스플레이로 구성된 연속된 디스플레이를 형성하는
    듀얼 모듈 휴대용 장치.
  9. 제 7 항에 있어서,
    상기 결합된 모듈은 상기 결합된 모듈의 전면에 상기 제 1 디스플레이, 그리고 상기 결합된 모듈의 후면에 상기 제 2 디스플레이를 포함하는
    듀얼 모듈 휴대용 장치.
  10. 제 7 항에 있어서,
    상기 제 1 모듈은 적어도 하나의 대상(objects)을 디스플레이하도록 동작하고, 상기 제 2 모듈은 상기 적어도 하나의 대상에 관련되는 맥락관련 데이터(contextual data)를 디스플레이하도록 동작하는
    듀얼 모듈 휴대용 장치.
  11. 듀얼 모듈 장치 동작 방법으로서,
    상기 듀얼 모듈 장치의 위치를 결정하는 단계와,
    상기 위치와 연관된 사용자 인터페이스를 디스플레이하는 단계 - 상기 사용자 인터페이스는 상기 듀얼 모듈 장치의 제 1 모듈에서의 제 1 디스플레이와 상기 듀얼 모듈 장치의 제 2 모듈에서의 제 2 디스플레이를 포함함 - 와,
    상기 듀얼 모듈 장치의 상기 제 2 모듈에 대한 상기 듀얼 모듈 장치의 상기 제 1 모듈의 제 1 위치를 결정하는 단계와,
    상기 제 1 위치와 연관된 상기 사용자 인터페이스의 제 1 세그먼트를 제공하기 위해 상기 사용자 인터페이스의 상기 제 1 디스플레이를 변경하는 단계와,
    상기 듀얼 모듈 장치의 상기 제 1 모듈에 대한 상기 듀얼 모듈 장치의 상기 제 2 모듈의 제 2 위치를 결정하는 단계와,
    상기 제 2 위치와 연관된 상기 사용자 인터페이스의 제 2 세그먼트를 제공하기 위해 상기 사용자 인터페이스의 상기 제 2 디스플레이를 변경하는 단계
    를 포함하는
    듀얼 모듈 장치 동작 방법.
  12. 제 11 항에 있어서,
    상기 위치와 연관된 상기 사용자 인터페이스를 디스플레이하는 단계는, 상기 위치와 연관된 대화형 지도(interactive map)를 디스플레이하는 단계를 포함하는
    듀얼 모듈 장치 동작 방법.
  13. 제 11 항에 있어서,
    상기 듀얼 모듈 장치의 상기 제 2 모듈에 대한 상기 듀얼 모듈 장치의 상기 제 1 모듈의 상기 제 1 위치를 결정하는 단계와, 상기 듀얼 모듈 장치의 상기 제 1 모듈에 대한 상기 듀얼 모듈 장치의 상기 제 2 모듈의 상기 제 2 위치를 결정하는 단계는,
    상기 듀얼 모듈 장치의 상기 제 1 모듈로부터의 제 1 가속도계 판독값을 수신하는 단계와,
    상기 듀얼 모듈 장치의 상기 제 2 모듈로부터의 제 2 가속도계 판독값을 수신하는 단계와,
    상기 듀얼 모듈 장치의 상기 제 1 모듈로부터 상기 듀얼 모듈 장치의 상기 제 2 모듈에의 근접성을 계산하는 단계
    를 포함하는
    듀얼 모듈 장치 동작 방법.
  14. 제 11 항에 있어서,
    상기 듀얼 모듈 장치의 상기 제 2 모듈에 대한 상기 듀얼 모듈 장치의 상기 제 1 모듈의 모션(motion)을 감지하는 단계와,
    상기 모션 감지에 응답하여, 상기 사용자 인터페이스의 상기 제 1 디스플레이를 조작하는 단계
    를 더 포함하는
    듀얼 모듈 장치 동작 방법.
  15. 제 14 항에 있어서,
    상기 모션 감지에 응답하여, 상기 사용자 인터페이스의 상기 제 1 디스플레이를 조작하는 단계는,
    상기 사용자 인터페이스의 상기 제 1 디스플레이를 확대하는(zooming into) 단계와,
    상기 사용자 인터페이스의 상기 제 1 디스플레이를 축소하는(zooming out) 단계와,
    상기 사용자 인터페이스의 상기 제 1 디스플레이를 회전하는 단계
    중 적어도 하나를 포함하는
    듀얼 모듈 장치 동작 방법.
KR1020117021434A 2009-03-19 2010-03-09 듀얼모듈 휴대용장치와 그의 동작방법 KR101654393B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/407,089 2009-03-19
US12/407,089 US8121640B2 (en) 2009-03-19 2009-03-19 Dual module portable devices

Publications (2)

Publication Number Publication Date
KR20110139688A KR20110139688A (ko) 2011-12-29
KR101654393B1 true KR101654393B1 (ko) 2016-09-05

Family

ID=42738102

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020117021434A KR101654393B1 (ko) 2009-03-19 2010-03-09 듀얼모듈 휴대용장치와 그의 동작방법

Country Status (9)

Country Link
US (3) US8121640B2 (ko)
EP (1) EP2409208B1 (ko)
JP (1) JP5461680B2 (ko)
KR (1) KR101654393B1 (ko)
CN (1) CN102356372B (ko)
BR (1) BRPI1008026A2 (ko)
CA (1) CA2750546C (ko)
TW (1) TW201035862A (ko)
WO (1) WO2010107629A2 (ko)

Families Citing this family (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8648825B2 (en) * 2010-10-01 2014-02-11 Z124 Off-screen gesture dismissable keyboard
US9182937B2 (en) 2010-10-01 2015-11-10 Z124 Desktop reveal by moving a logical display stack with gestures
US7461345B2 (en) * 2005-03-11 2008-12-02 Adobe Systems Incorporated System and method for displaying information using a compass
US8121640B2 (en) 2009-03-19 2012-02-21 Microsoft Corporation Dual module portable devices
US20100241987A1 (en) * 2009-03-19 2010-09-23 Microsoft Corporation Tear-Drop Way-Finding User Interfaces
US20100241999A1 (en) * 2009-03-19 2010-09-23 Microsoft Corporation Canvas Manipulation Using 3D Spatial Gestures
US8849570B2 (en) * 2009-03-19 2014-09-30 Microsoft Corporation Projected way-finding
JP4904375B2 (ja) * 2009-03-31 2012-03-28 京セラ株式会社 ユーザインタフェース装置及び携帯端末装置
US8502704B2 (en) * 2009-03-31 2013-08-06 Intel Corporation Method, apparatus, and system of stabilizing a mobile gesture user-interface
US20100313150A1 (en) * 2009-06-03 2010-12-09 Microsoft Corporation Separable displays and composable surfaces
KR101354217B1 (ko) * 2009-08-07 2014-01-22 삼성전자주식회사 디스플레이 장치 및 이를 포함하는 복합 엔터테인먼트 기기
EP4026508B1 (en) 2010-06-28 2023-10-18 Brainlab AG Generating images for at least two displays in image-guided surgery
KR20120015624A (ko) * 2010-08-12 2012-02-22 삼성전자주식회사 디스플레이 방법 및 장치
US20120084737A1 (en) 2010-10-01 2012-04-05 Flextronics Id, Llc Gesture controls for multi-screen hierarchical applications
JP2012122776A (ja) * 2010-12-06 2012-06-28 Fujitsu Ten Ltd 車載装置
US9250745B2 (en) 2011-01-18 2016-02-02 Hewlett-Packard Development Company, L.P. Determine the characteristics of an input relative to a projected image
US9161026B2 (en) 2011-06-23 2015-10-13 Hewlett-Packard Development Company, L.P. Systems and methods for calibrating an imager
CN104024936A (zh) 2011-07-29 2014-09-03 惠普发展公司,有限责任合伙企业 投影捕获系统,程序和方法
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US20130234925A1 (en) * 2012-03-09 2013-09-12 Nokia Corporation Method and apparatus for performing an operation at least partially based upon the relative positions of at least two devices
US20130271355A1 (en) * 2012-04-13 2013-10-17 Nokia Corporation Multi-segment wearable accessory
CN102707880B (zh) * 2012-04-24 2015-01-07 华为终端有限公司 文件传输的方法及终端
TW201344438A (zh) * 2012-04-25 2013-11-01 Quanta Comp Inc 平板顯示系統及其操作方法
US9297942B2 (en) 2012-10-13 2016-03-29 Hewlett-Packard Development Company, L.P. Imaging with polarization removal
US9143696B2 (en) 2012-10-13 2015-09-22 Hewlett-Packard Development Company, L.P. Imaging using offsetting accumulations
US9400627B2 (en) 2012-12-07 2016-07-26 Samsung Electronics Co., Ltd. Display including signal transmission scheme using optical interconnection and electrical interconnection
CN105074633B (zh) * 2013-02-25 2018-01-02 夏普株式会社 输入设备和显示装置
EP2785083A1 (en) * 2013-03-28 2014-10-01 NEC Corporation Improved wireless communication of private data between two terminals
JP6229055B2 (ja) * 2013-07-25 2017-11-08 トムソン ライセンシングThomson Licensing オブジェクトを表示する方法と装置
CN105683866B (zh) 2013-08-22 2020-01-10 惠普发展公司,有限责任合伙企业 投影计算系统
CN105492990B (zh) 2013-08-30 2020-03-13 惠普发展公司,有限责任合伙企业 一种实现触摸输入关联的系统、方法以及器件
EP3049895A4 (en) 2013-09-24 2017-06-07 Hewlett-Packard Development Company, L.P. Determining a segmentation boundary based on images representing an object
US10324563B2 (en) 2013-09-24 2019-06-18 Hewlett-Packard Development Company, L.P. Identifying a target touch region of a touch-sensitive surface based on an image
WO2015047401A1 (en) 2013-09-30 2015-04-02 Hewlett-Packard Development Company, L.P. Projection system manager
US10003777B2 (en) 2013-11-21 2018-06-19 Hewlett-Packard Development Company, L.P. Projection screen for specularly reflecting light
WO2015096084A1 (en) 2013-12-26 2015-07-02 Intel Corporation Mechanism to avoid unintentional user interaction with a convertible mobile device during conversion
USD753143S1 (en) * 2013-12-30 2016-04-05 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
USD760733S1 (en) * 2013-12-30 2016-07-05 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
USD753142S1 (en) * 2013-12-30 2016-04-05 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
USD752606S1 (en) * 2013-12-30 2016-03-29 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
US10241616B2 (en) 2014-02-28 2019-03-26 Hewlett-Packard Development Company, L.P. Calibration of sensors and projector
KR102303924B1 (ko) 2014-04-25 2021-09-24 삼성전자주식회사 멀티 비전을 구성하는 방법 및 이를 위한 전자 장치
WO2016007167A1 (en) 2014-07-11 2016-01-14 Hewlett-Packard Development Company, L.P. Corner generation in a projector display area
US10656810B2 (en) 2014-07-28 2020-05-19 Hewlett-Packard Development Company, L.P. Image background removal using multi-touch surface input
WO2016018243A1 (en) 2014-07-29 2016-02-04 Hewlett Packard Development Company, L.P. Default calibrated sensor module settings
US10623649B2 (en) 2014-07-31 2020-04-14 Hewlett-Packard Development Company, L.P. Camera alignment based on an image captured by the camera that contains a reference marker
US10104276B2 (en) 2014-07-31 2018-10-16 Hewlett-Packard Development Company, L.P. Projector as light source for an image capturing device
WO2016018395A1 (en) 2014-07-31 2016-02-04 Hewlett-Packard Development Company, L.P. Document region detection
WO2016018413A1 (en) 2014-07-31 2016-02-04 Hewlett-Packard Development Company, L.P. Object capture and illumination
US10331275B2 (en) 2014-07-31 2019-06-25 Hewlett-Packard Development Company, L.P. Process image according to mat characteristic
EP3175200A4 (en) 2014-07-31 2018-04-04 Hewlett-Packard Development Company, L.P. Three dimensional scanning system and framework
WO2016018347A1 (en) 2014-07-31 2016-02-04 Hewlett-Packard Development Company, L.P. Augmenting functionality of a computing device
US10664100B2 (en) 2014-07-31 2020-05-26 Hewlett-Packard Development Company, L.P. Misalignment detection
US10539412B2 (en) 2014-07-31 2020-01-21 Hewlett-Packard Development Company, L.P. Measuring and correcting optical misalignment
WO2016018393A1 (en) 2014-07-31 2016-02-04 Hewlett-Packard Development Company, Lp Touch region projection onto a touch-sensitive surface
EP3175614A4 (en) 2014-07-31 2018-03-28 Hewlett-Packard Development Company, L.P. Virtual changes to a real object
WO2016018416A1 (en) 2014-07-31 2016-02-04 Hewlett-Packard Development Company, L.P. Determining the location of a user input device
US10666840B2 (en) 2014-07-31 2020-05-26 Hewlett-Packard Development Company, L.P. Processing data representing images of objects to classify the objects
EP3175514B1 (en) 2014-07-31 2022-08-31 Hewlett-Packard Development Company, L.P. Dock connector
WO2016018378A1 (en) 2014-07-31 2016-02-04 Hewlett-Packard Development Company, L.P. Data storage
EP3175328B1 (en) 2014-07-31 2021-01-27 Hewlett-Packard Development Company, L.P. Stylus
US10318023B2 (en) 2014-08-05 2019-06-11 Hewlett-Packard Development Company, L.P. Determining a position of an input object
US10761906B2 (en) 2014-08-29 2020-09-01 Hewlett-Packard Development Company, L.P. Multi-device collaboration
US10168833B2 (en) 2014-09-03 2019-01-01 Hewlett-Packard Development Company, L.P. Presentation of a digital image of an object
WO2016036370A1 (en) 2014-09-04 2016-03-10 Hewlett-Packard Development Company, L.P. Projection alignment
US10318077B2 (en) 2014-09-05 2019-06-11 Hewlett-Packard Development Company, L.P. Coherent illumination for touch point identification
WO2016039726A1 (en) 2014-09-09 2016-03-17 Hewlett-Packard Development Company, L.P. Color calibration
CN107003714B (zh) 2014-09-12 2020-08-11 惠普发展公司,有限责任合伙企业 从图像开发上下文信息
WO2016043704A1 (en) 2014-09-15 2016-03-24 Hewlett-Packard Development Company, L.P. Digital light projector having invisible light channel
US10275092B2 (en) 2014-09-24 2019-04-30 Hewlett-Packard Development Company, L.P. Transforming received touch input
EP3201723A4 (en) 2014-09-30 2018-05-23 Hewlett-Packard Development Company, L.P. Identification of an object on a touch-sensitive surface
EP3201722A4 (en) 2014-09-30 2018-05-16 Hewlett-Packard Development Company, L.P. Displaying an object indicator
US10877597B2 (en) 2014-09-30 2020-12-29 Hewlett-Packard Development Company, L.P. Unintended touch rejection
CN107077235B (zh) 2014-09-30 2021-01-12 惠普发展公司,有限责任合伙企业 确定非故意触摸拒绝
WO2016053320A1 (en) 2014-09-30 2016-04-07 Hewlett-Packard Development Company, L.P. Gesture based manipulation of three-dimensional images
KR101909540B1 (ko) * 2014-10-23 2018-10-18 삼성전자주식회사 가상의 입력 영역을 이용한 포터블 디바이스의 사용자 입력 방법
EP3213504B1 (en) 2014-10-28 2022-04-13 Hewlett-Packard Development Company, L.P. Image data segmentation
US10417801B2 (en) 2014-11-13 2019-09-17 Hewlett-Packard Development Company, L.P. Image projection
US11209972B2 (en) * 2015-09-02 2021-12-28 D&M Holdings, Inc. Combined tablet screen drag-and-drop interface
US11113022B2 (en) 2015-05-12 2021-09-07 D&M Holdings, Inc. Method, system and interface for controlling a subwoofer in a networked audio system
JP7075202B2 (ja) * 2017-12-18 2022-05-25 日本放送協会 端末装置
CN110032244A (zh) * 2019-04-15 2019-07-19 维沃移动通信有限公司 一种终端设备及其配置方法
US11467630B2 (en) * 2019-11-19 2022-10-11 Ricoh Company, Ltd. Information display device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000293120A (ja) * 1999-04-01 2000-10-20 Hitachi Ltd ディスプレイ装置
JP2003195843A (ja) * 2001-12-28 2003-07-09 Sony Corp 表示装置および制御方法、プログラムおよび記録媒体、並びに表示システム
JP2004191642A (ja) * 2002-12-11 2004-07-08 Fuji Photo Film Co Ltd 画像表示装置

Family Cites Families (118)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2497373B1 (fr) 1980-12-30 1986-09-05 Bull Sa Systeme d'alimentation microprogrammable pour systeme de traitement de donnees comportant un panneau de service destine aux operations de maintenance et procedes d'exploitation de ce panneau de service
NL8901695A (nl) 1989-07-04 1991-02-01 Koninkl Philips Electronics Nv Werkwijze voor het weergeven van navigatiegegevens voor een voertuig in een omgevingsbeeld van het voertuig, navigatiesysteem voor het uitvoeren van de werkwijze, alsmede voertuig voorzien van een navigatiesysteem.
US5602564A (en) 1991-11-14 1997-02-11 Hitachi, Ltd. Graphic data processing system
US5790769A (en) 1995-08-04 1998-08-04 Silicon Graphics Incorporated System for editing time-based temporal digital media including a pointing device toggling between temporal and translation-rotation modes
US5874956A (en) 1995-11-13 1999-02-23 Platinum Technology Apparatus and method for three dimensional manipulation of point of view and object
US6184847B1 (en) 1998-09-22 2001-02-06 Vega Vista, Inc. Intuitive control of portable data displays
US5929844A (en) 1996-05-03 1999-07-27 First Person Gaming, Inc. First person perspective control system
US6002808A (en) 1996-07-26 1999-12-14 Mitsubishi Electric Information Technology Center America, Inc. Hand gesture control system
EP0849697B1 (en) 1996-12-20 2003-02-12 Hitachi Europe Limited A hand gesture recognition system and method
US6417866B1 (en) 1997-02-26 2002-07-09 Ati Technologies, Inc. Method and apparatus for image display processing that reduces CPU image scaling processing
US6340957B1 (en) * 1997-08-29 2002-01-22 Xerox Corporation Dynamically relocatable tileable displays
GB2331364B (en) 1997-11-12 2002-02-13 Qudos Sa Direction indicating compasses
US6140957A (en) 1998-03-12 2000-10-31 Trimble Navigation Limited Method and apparatus for navigation guidance
DE19811707A1 (de) 1998-03-18 1999-09-30 Bosch Gmbh Robert Datenvorrichtung für ein Kraftfahrzeug
US6285317B1 (en) 1998-05-01 2001-09-04 Lucent Technologies Inc. Navigation system with three-dimensional display
US6392661B1 (en) 1998-06-17 2002-05-21 Trident Systems, Inc. Method and apparatus for improving situational awareness using multiple map displays employing peripheral range bands
US6211884B1 (en) 1998-11-12 2001-04-03 Mitsubishi Electric Research Laboratories, Inc Incrementally calculated cut-plane region for viewing a portion of a volume data set in real-time
US6201554B1 (en) 1999-01-12 2001-03-13 Ericsson Inc. Device control apparatus for hand-held data processing device
US6393360B1 (en) 1999-11-17 2002-05-21 Erjian Ma System for automatically locating and directing a vehicle
SK17352002A3 (sk) 2000-05-11 2003-05-02 Clothing Plus Oy Spôsob zobrazovania elektronickej informácie generovanej elektronickým zariadením pomocou projektora, projektor vhodný na nosenie a inteligentný odev
GB0012275D0 (en) 2000-05-22 2000-07-12 Secr Defence Brit Three dimensional human computer interface
EP1326436B1 (en) * 2001-12-28 2013-02-13 Sony Corporation Displaying information
US6990639B2 (en) 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
US7487462B2 (en) 2002-02-21 2009-02-03 Xerox Corporation Methods and systems for indicating invisible contents of workspace
JP4031282B2 (ja) 2002-04-17 2008-01-09 株式会社ザナヴィ・インフォマティクス ナビゲーション装置およびナビゲーション制御プログラム
US20050192044A1 (en) * 2002-09-09 2005-09-01 Vertu Limited Cellular radio telephone
AU2003275134A1 (en) 2002-09-19 2004-04-08 The Penn State Research Foundation Prosody based audio/visual co-analysis for co-verbal gesture recognition
WO2004031927A2 (en) * 2002-10-04 2004-04-15 Koninklijke Philips Electronics N.V. Apparatus with display
US20040122591A1 (en) 2002-12-18 2004-06-24 Macphail Philip Method of initializing a navigation system
TWI274941B (en) * 2002-12-25 2007-03-01 Hon Hai Prec Ind Co Ltd Back light system
US8601396B2 (en) 2003-05-08 2013-12-03 Hillcrest Laboratories, Inc. Systems and methods for node tracking and notification in a control framework including a zoomable graphical user interface
US7383123B2 (en) 2003-06-03 2008-06-03 Samsung Electronics Co., Ltd. System and method of displaying position information including an image in a navigation system
US6927747B2 (en) * 2003-07-30 2005-08-09 Motorola, Inc. Dual directional display for communication device
JP2005056303A (ja) * 2003-08-07 2005-03-03 Matsushita Electric Ind Co Ltd 表示方法および、それに係る電子ペーパ、携帯情報端末、携帯電話、電話器、テレビ、またはパーソナルコンピュータ、および表示システム
US8046701B2 (en) 2003-08-07 2011-10-25 Fuji Xerox Co., Ltd. Peer to peer gesture based modular presentation system
US7205959B2 (en) * 2003-09-09 2007-04-17 Sony Ericsson Mobile Communications Ab Multi-layered displays providing different focal lengths with optically shiftable viewing formats and terminals incorporating the same
US7532196B2 (en) 2003-10-30 2009-05-12 Microsoft Corporation Distributed sensing techniques for mobile devices
EP1695334A4 (en) * 2003-12-19 2009-03-04 Speechgear Inc DISPLAYING VISUAL DATA BASED ON THE POSITION OF THE DISPLAY DEVICE
JP2005249589A (ja) 2004-03-04 2005-09-15 Xanavi Informatics Corp ナビゲーション装置、要約地図配信装置、車両案内方法および地図表示装置
US7349799B2 (en) 2004-04-23 2008-03-25 Lg Electronics Inc. Apparatus and method for processing traffic information
US20050256786A1 (en) 2004-05-17 2005-11-17 Ian Michael Sands System and method for communicating product information
US7774029B2 (en) * 2004-07-10 2010-08-10 Samsung Electronics Co., Ltd. Apparatus and method for controlling a function of a wireless terminal
GB2419454A (en) * 2004-10-19 2006-04-26 Pranil Ram Multiple monitor display apparatus
US20080266129A1 (en) 2007-04-24 2008-10-30 Kuo Ching Chiang Advanced computing device with hybrid memory and eye control module
US8301159B2 (en) 2004-12-31 2012-10-30 Nokia Corporation Displaying network objects in mobile devices based on geolocation
US8108142B2 (en) 2005-01-26 2012-01-31 Volkswagen Ag 3D navigation system for motor vehicles
US7539513B2 (en) 2005-02-02 2009-05-26 National Telephone Products, Inc. Portable phone with ergonomic image projection system
US20060183505A1 (en) 2005-02-15 2006-08-17 Willrich Scott Consulting Group, Inc. Digital mobile planner
JP2006243200A (ja) * 2005-03-02 2006-09-14 Fujitsu General Ltd マルチ画面用表示装置、及びその制御方法
US7461345B2 (en) 2005-03-11 2008-12-02 Adobe Systems Incorporated System and method for displaying information using a compass
US20080191864A1 (en) 2005-03-31 2008-08-14 Ronen Wolfson Interactive Surface and Display System
US20060238497A1 (en) 2005-04-22 2006-10-26 Microsoft Corporation Peel-off auxiliary computing device
US7737965B2 (en) 2005-06-09 2010-06-15 Honeywell International Inc. Handheld synthetic vision device
US7634354B2 (en) 2005-08-31 2009-12-15 Microsoft Corporation Location signposting and orientation
KR20070034767A (ko) * 2005-09-26 2007-03-29 엘지전자 주식회사 다중 표시영역을 갖는 이동통신 단말기 및 이를 이용한 디스플레이 간의 데이터 표시 방법
US7280097B2 (en) 2005-10-11 2007-10-09 Zeetoo, Inc. Human interface input acceleration system
US8145416B2 (en) 2005-10-14 2012-03-27 Yahoo! Inc. Interactive mapping method and system
US7636794B2 (en) * 2005-10-31 2009-12-22 Microsoft Corporation Distributed sensing techniques for mobile devices
US20070282564A1 (en) 2005-12-06 2007-12-06 Microvision, Inc. Spatially aware mobile projection
US7742857B2 (en) 2005-12-07 2010-06-22 Mazda Motor Corporation Automotive information display system
TW200729926A (en) * 2006-01-17 2007-08-01 Inventec Appliances Corp Method for zooming image ratio for mobile electronic device and mobile electronic device thereof
US9910497B2 (en) 2006-02-08 2018-03-06 Oblong Industries, Inc. Gestural control of autonomous and semi-autonomous systems
US20080036771A1 (en) 2006-02-21 2008-02-14 Seok-Hyung Bae Pen-based drawing system
US20070204014A1 (en) 2006-02-28 2007-08-30 John Wesley Greer Mobile Webcasting of Multimedia and Geographic Position for a Real-Time Web Log
US7519470B2 (en) 2006-03-15 2009-04-14 Microsoft Corporation Location-based caching for mobile devices
US7508657B1 (en) * 2006-05-10 2009-03-24 Smith Steven R Privacy-enhancing, glare-reducing display screen shield
JP2009236934A (ja) * 2006-05-23 2009-10-15 Nec Corp 表示装置、これを含んだ機器、プログラム及び表示方法
US8972902B2 (en) 2008-08-22 2015-03-03 Northrop Grumman Systems Corporation Compound gesture recognition
US9696808B2 (en) 2006-07-13 2017-07-04 Northrop Grumman Systems Corporation Hand-gesture recognition method
TWI320655B (en) * 2006-07-27 2010-02-11 Lite On Technology Corp Mobile communication system and method utilizing gps device and capable of group communication
US7907117B2 (en) 2006-08-08 2011-03-15 Microsoft Corporation Virtual controller for visual displays
JP4744396B2 (ja) * 2006-08-22 2011-08-10 コニカミノルタビジネステクノロジーズ株式会社 画像形成装置、および画像形成装置の制御方法
US7990338B2 (en) * 2006-09-14 2011-08-02 Spring Design Co., Ltd Electronic devices having complementary dual displays
US20080306685A1 (en) 2006-10-13 2008-12-11 Gianluca Bernardini Method, system and computer program for exploiting idle times of a navigation system
KR101186530B1 (ko) * 2006-10-13 2012-10-08 엘지전자 주식회사 전자 기기 및 그의 출력 제어 방법
US8081436B2 (en) * 2006-11-29 2011-12-20 Wistron Corp. Auxiliary mechanism
JP2008158452A (ja) * 2006-12-26 2008-07-10 Oki Electric Ind Co Ltd 電子ペーパ、電子ペーパを用いたアプリケーション連携システム
US7978176B2 (en) * 2007-01-07 2011-07-12 Apple Inc. Portrait-landscape rotation heuristics for a portable multifunction device
US7725141B2 (en) * 2007-01-08 2010-05-25 Wang Su Multi-functional detached mobile phone
US20080231926A1 (en) 2007-03-19 2008-09-25 Klug Michael A Systems and Methods for Updating Dynamic Three-Dimensional Displays with User Input
US20080280682A1 (en) 2007-05-08 2008-11-13 Brunner Kevin P Gaming system having a set of modular game units
US20080291160A1 (en) * 2007-05-09 2008-11-27 Nintendo Co., Ltd. System and method for recognizing multi-axis gestures based on handheld controller accelerometer outputs
CN101731001A (zh) * 2007-06-04 2010-06-09 桑迪士克以色列有限公司 协同串联式口袋装置
US8194117B2 (en) 2007-08-08 2012-06-05 Qnx Software Systems Limited Video phone system
TW200911084A (en) * 2007-08-30 2009-03-01 Benq Corp Electronic device with a panel capable of being hidden selectively
KR20090036190A (ko) * 2007-10-09 2009-04-14 삼성전자주식회사 디스플레이장치
EP2232355B1 (en) 2007-11-07 2012-08-29 N-Trig Ltd. Multi-point detection on a single-point detection digitizer
DE102008051756A1 (de) 2007-11-12 2009-05-14 Volkswagen Ag Multimodale Benutzerschnittstelle eines Fahrerassistenzsystems zur Eingabe und Präsentation von Informationen
KR101495157B1 (ko) * 2007-11-27 2015-02-24 엘지전자 주식회사 휴대 단말기
KR101427264B1 (ko) * 2007-12-17 2014-08-06 엘지전자 주식회사 휴대 단말기
US20090169060A1 (en) 2007-12-26 2009-07-02 Robert Bosch Gmbh Method and apparatus for spatial display and selection
US8265688B2 (en) * 2007-12-31 2012-09-11 Motorola Mobility Llc Wireless communication device and split touch sensitive user input surface
US9772689B2 (en) 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
JP2008263622A (ja) * 2008-03-11 2008-10-30 Tetsuo Murayama 分離式携帯電話
US20090233627A1 (en) * 2008-03-12 2009-09-17 Kai-Feng Chiu Apparatus and method for processing position information
US8219028B1 (en) * 2008-03-31 2012-07-10 Google Inc. Passing information between mobile devices
US20090300554A1 (en) 2008-06-03 2009-12-03 Nokia Corporation Gesture Recognition for Display Zoom Feature
US20090309826A1 (en) 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Systems and devices
US8818396B2 (en) * 2008-07-11 2014-08-26 Qualcomm Incorporated Apparatus and methods for associating a location fix having a quality of service with an event occuring on a wireless device
US20110103651A1 (en) 2008-07-31 2011-05-05 Wojciech Tomasz Nowak Computer arrangement and method for displaying navigation data in 3d
CN101644987A (zh) * 2008-08-08 2010-02-10 深圳富泰宏精密工业有限公司 移动终端及其菜单选择的方法
KR101537683B1 (ko) * 2008-09-02 2015-07-20 엘지전자 주식회사 휴대 단말기
US8933874B2 (en) * 2008-09-08 2015-01-13 Patrik N. Lundqvist Multi-panel electronic device
US8860632B2 (en) * 2008-09-08 2014-10-14 Qualcomm Incorporated Multi-panel device with configurable interface
US20100066672A1 (en) * 2008-09-15 2010-03-18 Sony Ericsson Mobile Communications Ab Method and apparatus for mobile communication device optical user interface
US8295769B2 (en) * 2008-09-15 2012-10-23 Sony Mobile Communications Ab Wireless connection for data devices
US9225517B2 (en) * 2008-09-30 2015-12-29 Intel Corporation Secure device association
US8788977B2 (en) * 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
US8644757B2 (en) * 2008-12-04 2014-02-04 Nokia Corporation Method and system for creation and control of virtual rendering devices
US20100167711A1 (en) * 2008-12-30 2010-07-01 Motorola, Inc. Method and system for creating communication groups
US8300022B2 (en) * 2009-01-09 2012-10-30 International Business Machines Corporation Dynamically reconfigurable touch screen displays
US20100210216A1 (en) * 2009-02-17 2010-08-19 Sony Ericsson Mobile Communications Ab Detecting Movement of Housing Sections in a Portable Electronic Device
JP4706985B2 (ja) * 2009-03-04 2011-06-22 コニカミノルタビジネステクノロジーズ株式会社 コンテンツ表示装置
US20100241987A1 (en) 2009-03-19 2010-09-23 Microsoft Corporation Tear-Drop Way-Finding User Interfaces
US8849570B2 (en) 2009-03-19 2014-09-30 Microsoft Corporation Projected way-finding
US20100241999A1 (en) 2009-03-19 2010-09-23 Microsoft Corporation Canvas Manipulation Using 3D Spatial Gestures
US8121640B2 (en) 2009-03-19 2012-02-21 Microsoft Corporation Dual module portable devices
US8542186B2 (en) * 2009-05-22 2013-09-24 Motorola Mobility Llc Mobile device with user interaction capability and method of operating same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000293120A (ja) * 1999-04-01 2000-10-20 Hitachi Ltd ディスプレイ装置
JP2003195843A (ja) * 2001-12-28 2003-07-09 Sony Corp 表示装置および制御方法、プログラムおよび記録媒体、並びに表示システム
JP2004191642A (ja) * 2002-12-11 2004-07-08 Fuji Photo Film Co Ltd 画像表示装置

Also Published As

Publication number Publication date
CN102356372B (zh) 2015-08-19
WO2010107629A3 (en) 2011-01-13
US8798669B2 (en) 2014-08-05
US20100240390A1 (en) 2010-09-23
CA2750546A1 (en) 2010-09-23
BRPI1008026A2 (pt) 2016-03-15
JP2012521043A (ja) 2012-09-10
US8121640B2 (en) 2012-02-21
JP5461680B2 (ja) 2014-04-02
TW201035862A (en) 2010-10-01
EP2409208B1 (en) 2018-04-25
EP2409208A2 (en) 2012-01-25
US20120139939A1 (en) 2012-06-07
KR20110139688A (ko) 2011-12-29
WO2010107629A2 (en) 2010-09-23
CA2750546C (en) 2016-08-09
CN102356372A (zh) 2012-02-15
EP2409208A4 (en) 2014-03-26
US20140344706A1 (en) 2014-11-20

Similar Documents

Publication Publication Date Title
KR101654393B1 (ko) 듀얼모듈 휴대용장치와 그의 동작방법
US20210089201A1 (en) Apparatus and method of copying and pasting content in a computing device
US10346036B2 (en) Apparatus and method of executing plural objects displayed on a screen of an electronic device, and computer-readable recording medium for recording the method
EP2607983B1 (en) Method and apparatus for moving an object on a flexible display in a portable terminal
US20130215018A1 (en) Touch position locating method, text selecting method, device, and electronic equipment
CN110832450A (zh) 用于基于用户特性在虚拟或半虚拟空间中提供对象的方法和系统
US20200341594A1 (en) User interface display method and apparatus therefor
AU2016304890A1 (en) Devices and methods for processing touch inputs based on their intensities
US20100241987A1 (en) Tear-Drop Way-Finding User Interfaces
US9286081B2 (en) Input device event processing
CN104737112A (zh) 文档中基于缩略图和文档图的导航
US20110248939A1 (en) Apparatus and method for sensing touch
CN105474163A (zh) 自然快速功能手势
TWI601035B (zh) 電子系統、觸控筆以及電子裝置與觸控筆之間的資料傳輸方法
US10019148B2 (en) Method and apparatus for controlling virtual screen
US10409478B2 (en) Method, apparatus, and recording medium for scrapping content
US20150033161A1 (en) Detecting a first and a second touch to associate a data file with a graphical data object
US9886167B2 (en) Display apparatus and control method thereof
CN110162251B (zh) 图像缩放方法及装置、存储介质、电子设备
US20150042621A1 (en) Method and apparatus for controlling 3d object
KR20150053398A (ko) 모바일에서 스크롤 이동 제어장치 및 그 방법
CN104137099A (zh) 方法、装置、计算机程序和用户接口

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant