KR101116442B1 - 양면 입력 디바이스를 이용해서 전자 기기를 조작하는 장치, 방법 및 컴퓨터-판독 가능 매체 - Google Patents

양면 입력 디바이스를 이용해서 전자 기기를 조작하는 장치, 방법 및 컴퓨터-판독 가능 매체 Download PDF

Info

Publication number
KR101116442B1
KR101116442B1 KR1020117001188A KR20117001188A KR101116442B1 KR 101116442 B1 KR101116442 B1 KR 101116442B1 KR 1020117001188 A KR1020117001188 A KR 1020117001188A KR 20117001188 A KR20117001188 A KR 20117001188A KR 101116442 B1 KR101116442 B1 KR 101116442B1
Authority
KR
South Korea
Prior art keywords
input
tactile input
touch
electronic device
tactile
Prior art date
Application number
KR1020117001188A
Other languages
English (en)
Other versions
KR20110040845A (ko
Inventor
미코 누르미
미카 라우타바
Original Assignee
노키아 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 노키아 코포레이션 filed Critical 노키아 코포레이션
Publication of KR20110040845A publication Critical patent/KR20110040845A/ko
Application granted granted Critical
Publication of KR101116442B1 publication Critical patent/KR101116442B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

양면 입력 장치를 이용해서, 전자 기기 및 전자 기기에서 실행되는 애플리케이션을 제어하는 장치, 방법 및 컴퓨터 프로그램 제품이 제공된다. 한 기법에 따라서, 사용자는, 전자 기기를 구부리거나 트위스트하는 것을 시뮬레이션함(혹은 실제로 행함)으로써, 전자 기기와 관련된 조정 가능한 특성에 대한 어떤 액션(예컨대, 표시 화면 상의 이미지를 줌 및/또는 스큐함)을 취한다. 다른 기법에 따라서, 사용자는 기기의 이면에서, 장치의 전면에 표시된 이미지의 영역에 대응하는 영역을 터치함으로써, 장치의 전면에 표시된 이미지의 영역을 확대시킬 수 있다. 또 다른 기법에 따라서, 사용자는, 전자 기기의 어느 한 면에서 2개 이상의 손가락으로 아이템을 쥐고, 이 아이템을 돌리는 것을 실질적으로 시뮬레이션함으로써, 전자 기기의 전면에 표시된 그래픽 아이템을 회전시킬 수 있다.

Description

양면 입력 디바이스를 이용해서 전자 기기를 조작하는 장치, 방법 및 컴퓨터-판독 가능 매체{APPARATUS, METHOD AND COMPUTER PROGRAM PRODUCT FOR MANIPULATING A DEVICE USING DUAL SIDE INPUT DEVICES}
본 발명은 전반적으로 양면에 입력 디바이스가 위치된 전자 기기에 관한 것이고, 상세하게는 이들 "양면 입력 디바이스"를 이용하는 기법에 관한 것이다.
기술 향상에 따라서, 휴대 전화, PDA, 무선 호출기 등과 같은 전자 기기는 점점 더 소형화되고 있다. 이와 같은 소형화에 따라서, 이들 기기의 표시 화면의 크기도 거의 필수적으로 감소되고 있다. 동시에, 다른 기술의 향상에 따라서, 이들 표시 화면을, 대응하는 전자 기기의 입력 디바이스로서 이용하게 되었다. 그 결과, 많은 전자 기기의 표시 화면은 터치-감응식 입력 디바이스, 즉 터치스크린이다. 그러나, 시간이 지나면서 표시 화면은 더 작아지기 때문에, 표시 화면을 터치-감응식 입력 디바이스로서 사용하는 것은 다소 어려워졌다. 이는 특히 사용자가 자신의 손가락을 이용해서 터치스크린 상에 표시된 선택 가능한 아이템을 선택하려고 하는 경우에 해당한다. 사용자가 자신의 손가락을 터치스크린 상에 표시된 작은 아이템에 위치시키면, 손가락이 그 아이템을 완전히 덮어버리는 것은 물론, 인접 표시된 아이템의 일부에도 중첩될 것이다. 결론적으로, 사용자는, 자신이 어떤 아이템을 선택하고 있는지 특정하는데 종종 어려움을 겪을 것이다.
이러한 문제를 해결하기 위해서 도입된 한가지 해법은, 사용자가 전자 기기의 이면을 터치함으로써, 전자 기기를 혹은 전자 기기에서 실행되는 애플리케이션를 제어할 수 있게 하는 것이다. 이러한 해법에 따라서, 전자 기기의 전면(즉 제 1 면)에 터치스크린 혹은 유사한 터치-감응식 입력 디바이스를 제공하는데 더해서, 전자 기기의 이면(즉 제 2 면)이 유사하게 사용자로부터 입력을 받을 수 있다. 전자 기기의 전면(즉 제 1 면) 상의 터치스크린과 유사하게, 전자 기기의 이면(즉 제 2 면) 상의 입력 디바이스도 터치-감응식이다. 다른 방안으로, 전자 기기의 이면(즉 제 2 면) 상의 입력 디바이스는, 사용자가 전자 기기의 이면을 터치하는 것을 검출하도록 구성된 하나 이상의 카메라 및/또는 광 센서 어레이를 포함할 수 있다.
양면 입력 디바이스를 이용해서 전자 기기 및 전자 기기에서 실행되는 애플리케이션을 조작할 수 있게 하는 방식이 요구되고 있다.
전반적으로, 본 발명의 실시예는 특히, 양면 입력 디바이스를 이용해서 전자 기기 및 전자 기기에서 실행되는 애플리케이션을 제어하는 다양한 기법을 제공함으로써 개선점을 제공하고 있다. 특히, 일 실시예에 따라서, 사용자는, 전자 기기의 구부리거나 트위스트하는 것을 시뮬레이션함으로써, 혹은 일 실시예에서는 실제로 전자 기기를 구부리거나 트위스트함으로써, 표시 화면 상의 전체 이미지 혹은 이미지 내의 특정 위치에 표시되는 하나 이상의 그래픽 아이템을 줌(zoom)하거나 스큐(skew)하는 것과 같이, 전자 기기에 있어서의 조정 가능한 특성에 대해 몇 가지 액션을 취할 수 있다. 이들 실시예에서, 전자 기기는 그 전면 및 이면 상에서 촉각 입력을 검출하고, 검출된 촉각 입력의 상대적인 위치 및 힘에 기초해서, 사용자가 전자 기기를 어느 방향으로 얼마만큼 구부리거나 트위스트시키고자 하는지 검출할 수 있다. 사용자가 전자 기기를 구부리거나 트위스트하는 것을 시뮬레이션하는 방향 및 힘에 따라서, 전자 기기는, 이미지(이미지 내의 특정 위치에 표시된 하나 이상의 그래픽 아이템)을 줌 인, 줌 아웃, 혹은 특정 각도나 범위, 혹은 특정 속도로 스큐하는 액션, 및/또는 전자 기기 표시 화면과 관련된 다른 특성 혹은 파라미터, 아니면 전자 기기 자체를 조정하는 액션과 같은 특정 액션을 취할 수 있다.
다른 실시예에 따라서, 사용자는, 전자 기기의 이면 중 소망의 영역에 정렬된 위치를 터치함으로써, 전자 기기의 전면에 표시되는 이미지의 영역 혹은 특정 부분을 확대, 즉 줌 인할 수 있다. 또 다른 실시예에서, 사용자는, 전자 기기의 어느 한 면을 2개 이상의 손가락으로 아이템을 쥐고 돌리는 것을 실질적으로 시뮬레이션함으로써, 예컨대, 전자 기기의 전면에 표시되는 그래픽 아이템 혹은 대상을 회전시킬 수 있다. 특히, 이 실시예에 따라서, 전자 기기는, 그 전면의 터치스크린에 표시되는 그래픽 아이템과 서로 정렬되어 있는 한 지점에서, 그 그래픽 아이템과 동시에, 전자 기기의 전면과 이면의 촉각 입력을 검출할 수 있다. 이는 예컨대, 사용자가 자신의 엄지 손가락을 전면 터치스크린 상에 위치시키고, 이면 입력 디바이스 상에 자신의 검지 혹은 중지를 위치시킴으로써 이루어질 수 있으며, 여기서 엄지와 검지는 접촉하고 있지만, 그 사이에 전자 기기가 놓여 있다. 이후에, 이 전자 기기는 접촉 입력이 반대 방향으로 이동하는 것을 검출할 수 있다. 예컨대, 사용자는 자신의 엄지 손가락을 위로 이동시키고, 검지 혹은 중지를 아래로 이동시킬 수 있으며, 혹은 반대로 이동시킬 수 있다. 이에 응답해서, 전자 기기는 사용자가 그래픽 아이템을 '돌리는' 방향을 반영해서, 특히 전면 터치스크린 상에서 접촉 입력이 이동하는 것과 일치하는 방향으로 그래픽 아이템을 회전시킬 수 있다. 예컨대, 전자 기기는 사용자가 엄지 손가락을 위로 이동시키는 것에 응답해서 그래픽 아이템을 뒤로 회전시킬 수 있으며, 반대로 사용자가 엄지 손가락을 아래로 이동시키는 것에 응답해서 그래픽 아이템을 앞으로 회전시킬 수 있다.
일 측면에 따라서, 사용자가 장치의 제 1 및 제 2 면에서 입력 디바이스에 서로 다른 압력을 가하는 것에 응답해서, 조정 가능한 파라미터를 조정하는 장치가 마련되어 있다. 일 실시예에서, 장치는, (1) 적어도 하나의 제 1 촉각 입력과 관련된, 제 1 터치-감응식 입력 디바이스 상의 위치를 결정하고, (2) 적어도 하나의 제 2 촉각 입력과 관련된, 제 2 터치-감응식 입력 디바이스 상의 위치를 결정하며, (3) 제 1 촉각 입력 및 제 2 촉각 입력 각각과 관련된 압력량을 측정하고, (4) 제 1 촉각 입력 및 제 2 촉각 입력 각각과 관련된 상대적인 압력량에 적어도 부분적으로 기초해서, 적어도 하나의 조정 가능한 특성에 대해 액션을 취하도록 구성된 프로세서를 포함할 수 있다.
다른 측면에 따라서, 사용자가 아이템을 쥐고 돌리는 것을 시뮬레이션하는 것에 응답해서 표시 화면에 표시되는 그래픽 아이템을 회전시키는 장치가 제공된다. 일 실시예에서, 이 장치는 (1) 장치의 제 1 면에 위치된 제 1 터치-감응식 입력 디바이스 상의 제 1 위치에서 제 1 촉각 입력을 검출하고, (2) 장치의 제 2 면 상의 제 2 위치에서 제 2 입력을 검출하며 - 제 1 및 제 2 위치는 서로에 대해서 사전 결정된 관계를 갖고 있음 - , (3) 제 1 촉각 입력이 제 1 방향으로 이동하는 것을 검출하고, (4) 제 2 입력이 제 2 방향으로 이동하는 것을 검출하며 - 상기 제 1 방향 및 제 2 방향은 서로에 대해서 사전 결정된 관계를 갖고 있음 - , (5) 제 1 촉각 입력 및 제 2 촉각 입력 각각의 반대 방향 이동을 검출한 것에 응답해서, 제 1 촉각 입력이 이동하는 제 1 방향에 대응하는 방향으로, 그래픽 아이템의 표시를 회전시키도록 구성된 프로세서를 포함할 수 있다.
또 다른 측면에 따라서, 사용자가 전자 기기의 제 1 및 제 2 면 상의 입력 디바이스에 서로 다른 양의 압력을 가하는 것에 응답해서, 조정 가능한 파라미터를 조정하는 방법이 제공된다. 일 실시예에서, 이 방법은 (1) 적어도 하나의 제 1 촉각 입력과 관련된, 제 1 터치-감응식 입력 디바이스 상의 위치를 결정하는 단계와, (2) 적어도 하나의 제 2 촉각 입력과 관련된, 제 2 터치-감응식 입력 디바이스 상의 위치를 결정하는 단계와, (3) 제 1 촉각 입력 및 제 2 촉각 입력 각각과 관련된 압력량을 측정하는 단계와, (4) 제 1 촉각 입력 및 제 2 촉각 입력 각각과 관련된 상대적인 압력량에 적어도 부분적으로 기초해서, 적어도 하나의 조정 가능한 특성에 대해 액션을 취하는 단계를 포함할 수 있다.
일 측면에 따라서, 사용자가 아이템을 쥐고 돌리는 것을 시뮬레이션하는 것에 응답해서, 표시 화면 상에 표시되는 그래픽 아이템을 회전시키는 방법이 제공된다. 일 실시예에서, 이 방법은 (1) 장치의 제 1 면 상에 위치된 제 1 터치-감응식 입력 디바이스 상의 제 1 위치에서의 제 1 촉각 입력을 검출하는 단계와, (2) 이 장치의 제 1 면 상의 제 2 위치에 있어서의 제 2 입력을 검출하는 단계와 - 상기 제 1 및 제 2 위치는 서로에 대해서 사전 결정된 관계를 가짐 - , (3) 제 1 촉각 입력이 제 1 방향으로 이동하는 것을 검출하는 단계와, (4) 제 2 입력이 제 2 방향으로 이동하는 것을 검출하는 단계와 - 상기 제 1 및 제 2 방향은 서로에 대해서 사전 결정된 관계를 가짐 - , (5) 제 1 촉각 입력 및 제 2 촉각 입력 각각의 반대 방향 이동을 검출하는 것에 응답해서, 제 1 촉각 입력의 제 1 방향에 대응하는 방향으로 그래픽 아이템의 표시를 회전시키는 단계를 포함한다.
다른 측면에 따라서, 사용자가 전자 기기의 제 1 및 제 2 면 상의 입력 디바이스에 서로 다른 양의 압력을 가하는 것에 응답해서, 조정 가능한 파라미터를 조정하는 컴퓨터 프로그램 제품이 제공된다. 이 컴퓨터 프로그램 제품은 컴퓨터-판독 가능 프로그램 코드 부분이 저장되어 있는 적어도 하나의 컴퓨터-판독 가능 저장 매체를 포함할 수 있다. 일 실시예의 컴퓨터-판독 가능 프로그램 코드 부분은 (1) 적어도 하나의 제 1 촉각 입력과 관련된, 제 1 터치-감응식 입력 디바이스 상의 위치를 결정하는 제 1 실행 가능 부분과, (2) 적어도 하나의 제 2 촉각 입력과 관련된, 제 2 터치-감응식 입력 디바이스 상의 위치를 결정하는 제 2 실행 가능 부분과, (3) 제 1 촉각 입력 및 제 2 촉각 입력과 관련된 압력량을 측정하는 제 3 실행 가능 부분과, (4) 제 1 촉각 입력 및 제 2 촉각 입력 각각과 관련된 상대적인 압력량에 적어도 부분적으로 기초해서, 적어도 하나의 조정 가능한 특성에 대해 액션을 취하는 제 4 실행 가능 부분을 포함할 수 있다.
또 다른 측면에 따라서, 사용자가 아이템을 쥐고 돌리는 것을 시뮬레이션하는 것에 응답해서 표시 화면에 표시된 그래픽 아이템을 회전시키는 컴퓨터 프로그램 제품이 제공된다. 이 컴퓨터 프로그램 제품은 컴퓨터-판독 가능 프로그램 코드 부분이 저장된 적어도 하나의 컴퓨터-판독 가능 저장 매체를 포함할 수 있다. 일 실시예의 컴퓨터-판독 가능 프로그램 코드 부분은 (1) 장치의 제 1 면에 위치된 제 1 터치-감응식 입력 디바이스 상의 제 1 위치에서 제 1 촉각 입력을 검출하는 제 1 실행 가능 부분과, (2) 장치의 제 2 면 상의 제 2 위치에서 제 2 입력을 검출하는 제 2 실행 가능 부분과 - 제 1 및 제 2 위치는 서로에 대해서 사전 결정된 관계를 가짐 - , (3) 제 1 촉각 입력이 제 1 방향으로 이동하는 것을 검출하는 제 3 실행 가능 부분과, (4) 제 2 입력이 제 2 방향으로 이동하는 것을 검출하는 제 4 실행 가능 부분과 - 제 1 및 제 2 방향은 서로에 대해서 사전 결정된 관계를 가짐 - , (5) 제 1 촉각 입력 및 제 2 촉각 입력이 각각 반대 방향으로 이동하는 것을 검출한 것에 응답해서, 제 1 촉각 입력이 이동하는 제 1 방향에 대응하는 방향으로, 그래픽 아이템의 표시를 회전시키는 제 5 실행 가능 부분을 포함한다.
일 측면에 따라서, 사용자가 장치의 제 1 및 제 2 면 상의 입력 디바이스에 서로 다른 양의 압력을 가하는 것에 응답해서, 조정 가능한 파라미터를 조정하는 장치가 제공된다. 일 실시예에서, 장치는 (1) 적어도 하나의 제 1 촉각 입력과 관련된, 제 1 터치-감응식 입력 디바이스 상의 위치를 결정하는 수단과, (2) 적어도 하나의 제 2 촉각 입력과 관련된, 제 2 터치-감응식 입력 디바이스 상의 위치를 결정하는 수단과, (3) 제 1 촉각 입력 및 제 2 촉각 입력 각각과 관련된 압력량을 측정하는 수단과, (4) 제 1 촉각 입력 및 제 2 촉각 입력 각각과 관련된 상대적인 압력량에 적어도 부분적으로 기초해서, 적어도 하나의 조정 가능한 특성에 대해 액션을 취하는 수단을 포함할 수 있다.
다른 측면에 따라서, 사용자가 아이템을 쥐고 돌리는 것을 시뮬레이션하는 것에 응답해서 표시 화면에 표시된 그래픽 아이템을 회전시키는 장치가 제공된다. 일 실시예에서, 장치는 (1) 장치의 제 1 면에 위치된 제 1 터치-감응식 입력 디바이스 상의 제 1 위치에서 제 1 촉각 입력을 검출하는 수단과, (2) 장치의 제 2 면 상의 제 2 위치에서 제 2 입력을 검출하는 수단과 - 제 1 및 제 2 위치는 서로에 대해서 사전 결정된 관계를 가짐 - , (3) 제 1 촉각 입력이 제 1 방향으로 이동하는 것을 검출하는 수단과, (4) 제 2 입력이 제 2 방향으로 이동하는 것을 검출하는 수단과 - 제 1 및 제 2 방향은 서로에 대해서 사전 결정된 관계를 가짐 - , (5) 제 1 촉각 입력 및 제 2 촉각 입력이 각각 반대 방향으로 이동하는 것을 검출한 것에 응답해서, 제 1 촉각 입력이 이동하는 제 1 방향에 대응하는 방향으로, 그래픽 아이템의 표시를 회전시키는 수단을 포함한다.
이와 같이 본 발명의 실시예를 전반적인 사항에 대해 설명했으며, 첨부된 도면을 참조할 것이지만, 도면은 반드시 실제 축적으로 도시된 것은 아니다.
도 1은 본 발명의 실시예에 따른 양면 입력 디바이스를 가진 전자 기기의 개략 블록도,
도 2는 본 발명의 실시예에 따라 동작할 수 있는 이동국의 개략 블록도,
도 3a-3b는 사용자가 본 발명의 실시예에 따른 양면 입력 디바이스를 이용해서 전자 기기를 앞뒤로 구부리거나, 구부리는 것을 시뮬레이션하는 것을 나타내는 도면,
도 4는 본 발명의 실시예에 따라서, 전자 기기를 구부리거나 트위스트하는 것을 시뮬레이션함으로써, 표시 이미지를 줌하는 것 및/또는 스큐하는 것과 같은 액션을 취하는 처리를 나타내는 흐름도,
도 5a-5b는 본 발명의 실시예에 따른 양면 입력 디바이스를 이용해서 전자 기기 표시 화면의 선택 영역을 확대하는 것을 나타내는 도면,
도 6은 본 발명의 실시예에 따른 양면 입력 디바이스를 이용해서 표시 화면의 선택 영역을 확대하는 처리를 나타내는 흐름도,
도 7은 본 발명의 실시예에 따른 양면 입력 디바이스를 이용해서 대상을 3차원 조작하는 처리를 나타내는 흐름도이다.
본 발명의 실시예가 이하 첨부된 도면을 참조로 더 완전하게 설명될 것이지만, 일부 도면에서, 본 발명의 모든 실시예가 모두 도시되는 것은 아니다. 또한, 본 발명의 실시예는 많은 다양한 형태로 실시될 수 있으며, 여기 설명되는 실시예로 한정되는 것으로 의도되는 것은 아니며, 오히려, 이들 실시예는 이 개시물을 적용가능한 법적인 요구 조건을 만족하도록 제공될 것이다. 도면에서 동일한 참조 번호는 동일한 구성 요소를 가리킨다.
전자 기기
도 1을 참조하면, 본 발명의 실시예에 따른 양면 입력 디바이스를 구비한 전자 기기(예컨대, 휴대 전화, PDA, 랩톱 등)의 블록도가 도시되어 있다. 전자 기기는 본 발명의 실시예에 따른 하나 이상의 기능을 수행하는, 여기서 더 상세하게 도시되고 설명되는 수단을 포함한, 다양한 수단을 포함한다. 그러나, 전자 기기 중 하나 이상은, 본 발명의 사상 및 범주를 벗어남 없이, 하나 이상의 동일한 기능을 수행하는 대안의 수단을 포함할 수 있다. 도시된 바와 같이, 전자 기기는 일반적으로 그 다양한 기능을 수행하거나 제어하기 위해서 프로세서(110)와 같은 수단을 포함할 수 있다.
특히, 프로세서(110) 혹은 이와 유사한 수단은, 도 4, 6 및/또는 7과 관련해서 더 상세하게 후술하는 처리를 수행하도록 구성될 수 있다. 예컨대, 일 실시예에 따라서, 사용자가 전자 기기를 구부리거나 스큐하는 것을 시뮬레이션(혹은 실제로 행함)하는 것에 응답해서, 전자 기기와 관련된 조정 가능 파라미터 혹은 특성에 대해 액션(예컨대, 전자 기기에 의해 표시되는 이미지를 변경)을 취하기 위해서, 프로세서(110)는 전자 기기의 제 1 터치-감응식 입력 디바이스 및 제 2 터치-감응식 입력 디바이스 상에서의 적어도 하나의 제 1 촉각 입력 및 적어도 하나의 제 2 촉각 입력과 관련된 위치를 각각 결정하도록 구성될 수 있고, 여기서 제 1 터치-감응식 입력 디바이스 및 제 2 터치-감응식 입력 디바이스는 예컨대, 전자 기기의 전면 및 이면 각각에 위치될 수 있다. 프로세서(110)는 또한 검출된 제 1 촉각 입력 및 제 2 촉각 입력 각각과 관련된 압력량을 측정하고, 각각의 제 1 촉각 입력 및 제 2 촉각 입력과 관련된 상대적인 압력량에 적어도 부분적으로 기초해서, 적어도 하나의 조정 가능한 파라미터에 대해 액션(예컨대, 전체 이미지 혹은 이미지의 특정 위치의 하나 이상의 그래픽 아이템을 확대하거나, 축소하거나 스큐함)을 취하도록 구성될 수 있다.
다른 실시예에 따라서, 사용자가 아이템을 쥐고 돌리는 것을 시뮬레이션하는 것에 응답해서, 그래픽 아이템을 회전시키기 위해서, 프로세서(110)는 전자 기기의 제 1 면(예컨대 전면)에 위치된 제 1 터치-감응식 입력 디바이스 상의 제 1 위치에서 제 1 촉각 입력을 검출하고, 전자 기기의 제 2 면(예컨대 이면)의 제 2 위치에서 제 2 입력을 검출하도록 구성될 수 있으며, 여기서 제 1 및 제 2 위치는 서로에 대해서 사전 결정된 관계를 갖고 있다(예컨대, 실질적으로 정렬되어 있음). 프로세서(110)는 또한 제 1 촉각 입력 및 제 2 촉각 입력이 각각 제 1 및 제 2 방향으로 이동하는 것을 검출하도록 구성될 수 있으며, 여기서 제 1 및 2 방향은 서로에 대해서 사전 결정된 관계를 갖고 있다(예컨대, 실질적으로 반대 방향임). 제 1 촉각 입력 및 제 2 촉각 입력이 이동하는 것을 검출한 것에 응답해서, 프로세서(110)는 제 1 촉각 입력(예컨대, 전자 기기의 전면에서의 촉각 입력)이 이동하는 제 1 방향에 대응하는 방향으로 그래픽 아이템의 표시를 회전시키도록 구성될 수 있다.
일 실시예에서, 프로세서는, 컨텐츠, 데이터 등을 저장하는 휘발성 및/또는 비휘발성 메모리와 같은 메모리(120)와 통신하거나 이 메모리(120)를 포함할 수 있다. 예컨대, 메모리(120)는 전형적으로 전자 기기로부터 전송되는/전송되거나 전자 기기가 수신하는 컨텐츠를 저장한다. 또한 예컨대, 메모리(120)는 전형적으로 프로세서가 본 발명의 실시예에 따라서 전자 기기의 동작과 관련된 단계들을 수행하게 하는 소프트웨어 애플리케이션, 인스트럭션 등을 저장한다. 특히, 메모리(120)는, 양면 입력 디바이스를 사용해서 전자 기기 및 이 전자 기기에서 동작하는 애플리케이션을 조작하기 위해서, 프로세서가 도 4, 6 및 7과 관련해서 상술한 혹은 후술하는 동작을 수행하게 하는 소프트웨어 애플리케이션, 인스트럭션 등을 저장할 수 있다.
예컨대, 일 실시예에 따라서, 메모리(120)는, 사용자가 전자 기기를 구부리거나 트위스트하는 것에 응답해서, 조정 가능한 특성에 대해 액션(예컨대, 이미지를 변경)을 취하는 것과 관련되어서 상술한 동작을 수행하도록, 프로세서(110)에 지시하는 하나 이상의 모듈을 저장할 수 있다. 이들 모듈은 예컨대, 검출 모듈, 압력 검출 모듈 및 액션 모듈을 포함할 수 있다. 일 실시예에서, 검출 모듈은, 전자 기기의 제 1 터치-감응식 입력 디바이스 및 제 2 터치-감응식 입력 디바이스 각각에서의 적어도 하나의 제 1 촉각 입력 및 적어도 하나의 제 2 촉각 입력과 관련된 위치를 결정하도록 구성될 수 있으며, 여기서 제 1 터치-감응식 입력 디바이스 및 제 2 터치-감응식 입력 디바이스는 예컨대, 전자 기기의 전면 및 이면에 각각 위치될 수 있다. 압력 검출 모듈은 또한 검출된 각각의 제 1 촉각 입력 및 제 2 촉각 입력과 관련된 압력량을 측정하도록 구성될 수 있고, 액션 모듈은 각각의 제 1 촉각 입력 및 제 2 촉각 입력과 관련된 상대적인 압력량에 적어도 부분적으로 기초해서, 조정 가능한 파라미터에 대해 액션을 취하도록(예컨대, 전체 이미지 혹은 이미지 상의 특정 위치의 하나 이상의 그래픽 아이템을 확대하거나 축소하거나 스큐하는) 구성될 수 있다.
다른 실시예에 따라서, 메모리(120)는 사용자가 아이템을 쥐고 돌리는 것을 시뮬레이션하는 것에 응답해서, 그래픽 아이템을 회전시키는, 예컨대 검출 모듈, 식별 모듈 및 회전 모듈을 포함한, 하나 이상의 모듈을 더 저장할 수 있다. 일 실시예에서, 검출 모듈은 전자 기기의 제 1 면(예컨대, 전면)에 위치된 제 1 터치-감응식 입력 디바이스 상의 제 1 위치에서 제 1 촉각 입력을 검출하고, 전자 기기의 제 2 면(예컨대, 이면)의 제 2 위치에서 제 2 입력을 검출하도록 구성될 수 있으며, 여기서 제 1 위치 및 제 2 위치는 서로에 대해서 사전 결정된 관계(예컨대, 실질적으로 정렬되어 있음)를 갖고 있다. 검출 모듈은 제 1 촉각 입력 및 제 2 촉각 입력이 제 1 및 제 2 방향으로 각각 이동하는 것을 검출하도록 더 구성될 수 있으며, 여기서 제 1 및 제 2 방향은 서로에 대해서 사전 결정된 관계(예컨대, 실질적으로 반대 방향)를 갖고 있다. 식별 모듈은 제 1 입력이 검출된 제 1 위치 부근에 표시된 그래픽 아이템을 식별하도록 구성될 수 있으며, 회전 모듈은 제 1 촉각 입력(예컨대, 장치 전면 상에서의 촉각 입력)이 이동하는 제 1 방향에 대응하는 방향으로 그래픽 아이템의 표시를 표시시키도록 구성될 수 있다.
메모리(120)에 더해서, 프로세서(110)는 데이터, 컨텐츠 등을 표시, 송신 및/또는 수신하는 적어도 하나의 인터페이스 혹은 다른 수단에 접속될 수도 있다. 여기서, 인터페이스는 데이터, 컨텐츠 등을 송신 및/또는 수신하는 적어도 하나의 통신 인터페이스(130) 혹은 다른 수단은 물론, 표시부(140) 및/또는 사용자 입력 인터페이스(150)를 포함할 수 있는 적어도 하나의 사용자 인터페이스를 포함할 수 있다. 이 때, 사용자 입력 인터페이스는, 전자 기기가 사용자로부터의 데이터를 수신할 수 있게 하는, 키패드, 터치스크린 혹은 터치 디스플레이, 조이스틱 혹은 다른 입력 디바이스와 같은 다수의 장치 중 일부를 포함할 수 있다. 상세하게는, 본 발명의 다양한 실시예에 따라서, 사용자 입력 인터페이스(150)는 전자 기기(예컨대, 양면 입력 디바이스)의 전면 및 이면과 관련된 각각의 입력 디바이스를 포함할 수 있다. 다른 방안으로, 전면 및 이면 입력 디바이스는 실질적으로 전자 기기의 전체 외부 표면을 덮고 있는, 하나의 연속된 입력 디바이스를 포함할 수 있다. 일 실시예에서, 전면 입력 디바이스는 터치-감응식 입력 디바이스(예컨대, 터치스크린 혹은 터치패드)를 포함하고, 이면 입력 디바이스는 카메라 및/또는 하나 이상의 광 센서를 이용해서 입력을 검출할 수 있다. 다른 실시예에서, 전면 입력 디바이스 및 이면 입력 디바이스 모두(혹은 전면 입력 디바이스 및 이면 입력 디바이스를 모두 포함하는 하나의 연속된 입력 디바이스) 터치스크린 혹은 터치패드와 같은 터치-감응식 입력 디바이스를 포함할 수 있다.
도 2를 참조하면, 본 발명의 실시예의 이점을 취할 수 있는 하나의 특정 타입의 전자 기기를 도시하고 있다. 도시된 바와 같이, 전자 기기는 이동국(10), 상세하게는 휴대 전화가 될 수 있다. 그러나, 여기에 도시되어 이하 설명되는 이동국은 본 발명의 실시예의 이점을 취할 수 있는 전자 기기 중 하나의 타입을 단지 예시한 것으로, 본 발명의 범주를 한정하고자 하는 것은 아니다. 이동국(10)의 다양한 실시예가 예시를 목적으로 이하 도시되고 설명될 것이지만, PDA, 무선 호출기, 랩톱 컴퓨터는 물론, 이동식 무선 장치 및 고정식 유선 장치를 모두 포함하는 다른 타입의 전자 시스템과 같은 다른 타입의 이동국도 본 발명의 실시예를 용이하게 이용할 수 있다.
이동국은 본 발명의 실시예에 따라서, 여기서 더 상세하게 도시되고 설명되는 수단을 포함한, 하나 이상의 기능을 수행하는 다양한 수단을 포함한다. 그러나, 본 발명의 사상 및 범주를 벗어나지 않고, 이동국은 하나 이상의 동일한 기능을 수행하는 대안의 수단을 포함할 수 있다는 것을 이해할 것이다. 예컨대, 더 상세하게, 도 2에 도시된 바와 같이, 안테나(202)에 더해서, 이동국(10)은 송신기(204), 수신기(206), 및 어떤 장치를 포함할 수 있는데, 이 장치는 송신기(204) 및 수신기(206) 각각에 신호를 제공하거나 이들로부터 신호를 수신하며, 예컨대, 양면 입력 디바이스를 이용해서 이동국(10) 혹은 이 이동국(10)에서 실행되는 애플리케이션을 제어하는 것과 관련된 기능을 포함한, 상술한 그리고 후술하는 다양한 다른 기능을 수행하는 프로세서(208)나 제어부 등과 같은 수단을 포함하는 것이다.
도 1을 참조로 상술하였고, 도 4, 6 및 7을 참조로 더 상세하게 후술하는 바와 같이, 다양한 실시예에서, 사용자가 이동국(10)을 구부리거나 스큐하는 것을 시뮬레이션(혹은 실제로 행함)하는 것에 응답해서, 이동국(10)과 관련된 조정 가능한 파라미터 혹은 특성에 대해 액션(예컨대, 이동국(10)에 의해 표시되는 이미지를 변경)을 취하기 위해서, 프로세서(208)는 이동국(10)의 제 1 터치-감응식 입력 디바이스 및 제 2 터치-감응식 입력 디바이스 각각의 적어도 하나의 제 1 촉각 입력 및 적어도 하나의 제 2 촉각 입력과 관련된 위치를 결정하도록 구성될 수 있으며, 여기서, 제 1 및 2 터치-감응식 입력 디바이스는 각각 예컨대, 이동국(10)의 전면 및 이면 상에 위치될 수 있다. 프로세서(208)는 검출된 각각의 제 1 촉각 입력 및 제 2 촉각 입력과 관련된 압력량을 측정하고, 각각의 제 1 촉각 입력 및 제 2 촉각 입력과 관련된 상대적인 압력량에 적어도 부분적으로 기초해서, 조정 가능한 특성에 대해 액션(예컨대, 전체 이미지 혹은 이미지 상의 특정 위치의 하나 이상의 그래픽 아이템을 확대, 축소 혹은 스큐하거나, 볼륨, 빨리감기 혹은 되감기 속도를 조정하거나, 표시된 이미지와 관련된 밝기 및/또는 색상을 조정)을 취하도록 더 구성될 수 있다.
다른 실시예에서, 사용자가 아이템을 쥐고 돌리는 것을 시뮬레이션하는 것에 응답해서, 그래픽 아이템을 회전시키기 위해서, 프로세서(208)는 이동국(10)의 제 1 면(예컨대, 전면)에 위치된 제 1 터치-감응식 입력 디바이스 상의 제 1 위치에서 제 1 촉각 입력을 검출하고, 이동국(10)의 제 2 면(예컨대, 이면) 상의 제 2 위치에서 제 2 입력을 검출하도록 구성될 수 있으며, 여기서 제 1 및 2 위치는 서로에 대해서 사전 결정된 관계(예컨대, 실질적으로 정렬됨)를 갖고 있다. 프로세서(208)는 또한, 제 1 촉각 입력 및 제 2 촉각 입력이 각각 제 1 및 제 2 방향으로 이동하는 것을 검출하도록 구성될 수 있으며, 여기서 제 1 및 제 2 방향은 서로에 대해서 사전 결정된 관계(예컨대, 실질적으로 반대 방향)를 갖고 있다. 제 1 촉각 입력 및 제 2 촉각 입력이 이동하는 것을 검출한 것에 응답해서, 프로세서(208)는 제 1 촉각 입력(예컨대, 장치 전면의 촉각 입력)이 이동하는 제 1 방향에 대응하는 방향으로 그래픽 아이템의 표시를 회전시키도록 구성될 수 있다.
당업자라면, 송신기(204) 및 수신기(206) 각각으로부터 송수신되는 신호가 적용가능한 셀룰러 시스템의 공중 인터페이스 표준에 따른 시그날링 정보 및 사용자의 음성 및/또는 사용자가 생성한 데이터를 포함할 수 있다는 것을 인식할 것이다. 이에 대해서, 이동국은 하나 이상의 공중 인터페이스 표준, 통신 프로토콜, 변조 타입 및 액세스 타입으로 동작할 수 있다. 더 상세하게, 이동국은 다수의 2세대(2G), 2.5G 및/또는 3세대(3G) 통신 프로토콜 등 중 어느 하나에 따라서 동작할 수 있다. 또한, 예컨대, 이동국은, 블루투스, IEEE 802.11 WLAN(혹은 Wi-Fi?, IEEE 802.16 WiMAX, UWB(ultra wideband) 등)을 포함하는 다수의 다양한 무선 네트워킹 기법 중 어느 하나에 따라서 동작할 수 있다.
프로세서(208)는 이동국의 비디오, 오디오, 논리 함수를 구현하는데 필요한 회로를 포함할 수도 있고, 여기 설명된 기능을 구현하는 응용 프로그램을 실행할 수도 있다. 예컨대, 처리 장치는 디지털 신호 처리 장치, 마이크로프로세서 장치 및 다양한 아날로그-디지털 변환기, 디지털-아날로그 변환기 및 다른 지원 회로를 포함한 다양한 수단을 포함할 수 있다. 모바일 기기의 제어 및 신호 처리 기능은 이들 장치에 각각의 기능에 따라 할당된다. 따라서, 프로세서(208)는 변조 및 전송을 행하기 전에, 메시지 및 데이터를 컨볼루션 인코딩해서 내삽하는 기능을 포함할 수도 있다. 이에 더해서 처리 장치는 하나 이상의 소프트웨어 애플리케이션을 구동하는 기능을 포함할 수 있으며, 이 소프트웨어 애플리케이션은 메모리에 저장될 수 있다. 예컨대, 제어부는 종래의 웹 브라우저와 같은 접속 프로그램을 구동할 수 있다. 접속 프로그램을 통해서, 이동국은 예컨대, HTTP 및 또는 WAP(Wireless Application Protocol) 등에 따라서 웹 컨텐츠를 송수신할 수 있다.
이동국은 예컨대, 종래의 이어폰 혹은 스피커(210), 마이크(214), 표시부(216)를 포함한 사용자 인터페이스와 같은 수단을 포함할 수도 있으며, 이들은 모두 프로세서(208)에 연결될 수 있다. 모바일 기기가 데이터를 수신할 때 사용하는 사용자 입력 인터페이스는, 모바일 기기가 데이터를 수신할 때 사용하는 다수의 장치 중 일부를 포함할 수 있으며, 이 다수의 장치로는, 키패드(218), 예컨대, 터치스크린 혹은 터치패드(226)와 같은 전면 터치-감응식 입력 디바이스 및 터치스크린 혹은 터치패드(228)와 같은 이면 터치-감응식 입력 디바이스를 포함하는 양면 입력 디바이스, 마이크(214), 혹은 다른 입력 디바이스를 들 수 있다. 상술한 바와 같이, 도 2가 본 발명의 다양한 실시예에 따라서, 전면 입력 디바이스 및 이면 입력 디바이스를 개별적인 장치로서 도시하고 있지만, 이들 양면 입력 디바이스는 하나의 연속된 입력 디바이스를 포함할 수 있다. 또한, "전면" 및 "이면" 입력 디바이스 각각에 참조 번호가 붙어있지만, 당업자라면, 본 명세서의 견지에서, 양면 입력 디바이스가 본 발명의 실시예의 사상 및 범주를 벗어나지 않고 전자 기기의 어느 면에도 위치될 수 있다는 것을 이해할 것이다.
키패드를 포함하는 실시예에서, 키패드는 종래의 숫자 키(0-9)와 관련 키(#, *) 및 이동국을 동작시키는 데 이용되는 다른 키를 포함할 수 있으며, 문자 키의 전체 세트, 혹은 문자 키의 전체 세트를 제공하는 기능을 할 수 있는 키의 세트를 포함할 수 있다. 비록 도시되지는 않았지만, 이동국은, 이동국을 동작시킬 뿐만 아니라, 검출 가능한 출력으로서 선택적으로 기계적인 진동을 제공하는데 필요한 다양한 회로에 전력을 공급하는, 바이브레이팅 배터리 팩(vibrating battery pack)과 같은 배터리를 포함할 수 있다.
이동국은 예컨대, SIM(a subscriber identity module)(220), R-UIM(a removable user identity module)(도시 생략) 등을 포함한 메모리와 같은 수단을 포함할 수도 있으며, 이는 전형적으로 이동국 가입자와 관련된 정보 요소를 저장하고 있다. SIM에 더해서, 모바일 기기는 다른 메모리를 포함할 수 있다. 이에 대해서, 이동국은 휘발성 메모리(222)는 물론 다른 비휘발성 메모리(224)를 포함할 수 있으며, 이는 내장형이 될 수도 있고, 착탈가능형이 될 수도 있다. 예컨대, 다른 비휘발성 메모리는 내장된 혹은 착탈가능한 MMC(multimedia memory cards), SD(secure digital) 메모리 카드, 메모리 스틱, EEPROM, 플래시 메모리, 하드디스크 등이 될 수 있다. 메모리는 이동국의 기능을 구현하기 위해서 모바일 기기가 사용하는 정보 및 데이터의 많은 조각 혹은 많은 양 중 일부를 저장할 수 있다. 예컨대, 메모리는 모바일 장치를 고유하게 식별할 수 있는 IMEI(international mobile equipment identification) 코드, IMSI(international mobile subscriber identification) 코드, MSISDN(mobile device integrated services digital network) 코드와 같은 식별자를 저장할 수 있다. 메모리는 컨텐츠를 저장할 수도 있다. 예컨대, 메모리는 애플리케이션용 컴퓨터 프로그램 및 다른 컴퓨터 프로그램을 저장할 수 있다.
상세하게는, 일 실시예에 따라서, 메모리는, 도 1과 관련해서 상술한 바와 같이, 사용자가 이동국(10)의 구부리거나 트위스트하는 것을 시뮬레이션하는 것에 기초해서, 이동국(10)과 관련된 조정 가능한 특성에 대해 액션(예컨대, 표시된 이미지를 변경)을 취하는 것과 관련된, 검출 모듈, 압력 검출 모듈 및 액션 모듈을 저장할 수 있다. 메모리는 또한 도 1과 관련해서 상술한 바와 같은 그래픽 아이템을 회전시키는 것과 관련된 검출 모듈, 식별 모듈 및 회전 모듈을 저장할 수 있다.
본 발명의 실시예의 장치, 방법 및 컴퓨터 프로그램 제품은 주로 이동 통신 애플리케이션과 관련되어서 설명된다. 그러나, 본 발명의 실시예의 장치, 방법 및 컴퓨터 프로그램 제품은, 이동 통신 산업에서, 그리고 이동 통신 산업 이외에서 다른 다양한 애플리케이션과 관련해서 사용될 수도 있다는 것을 이해할 것이다. 예컨대, 본 발명의 장치, 방법 및 컴퓨터 프로그램 제품은 유선 및/또는 무선 네트워크(예컨대, 인터넷) 애플리케이션과 관련되어서 이용될 수 있다.
양면 입력 디바이스를 이용한 전자 기기 조작 방법
이제, 도 3a 내지 7을 참조로, 본 발명의 실시예에 따른 양면 입력 디바이스를 이용해서, 전자 기기 및 전자 기기에서 실행되는 애플리케이션을 제어하는 다양한 기법이 설명될 것이다. 이하에서는 양면 입력 디바이스가 전자 기기의 전면 및 이면에 위치되는 경우를 가정하지만, 당업자라면 본 명세서의 견지에서, 본 발명의 실시예가, 전면 및 이면에 한정되지 않고, 예컨대 전자 기기의 대향하는 좌측면 및 우측면의 입력 디바이스를 포함하는, 전자 기기의 다른 면 상의 입력 디바이스와 관련되어서 유사하게 이용될 수 있다는 것을 이해할 것이다. 따라서, 이하 전면 입력 디바이스 및 이면 입력 디바이스를 참조하고 있지만, 본 발명의 실시예는 이에 한정되는 것은 아니다.
도 3a 내지 4를 참조하면, 본 발명의 실시예에 따라서 양면 입력 디바이스를 이용해서 전자 기기를 제어하는 제 1 기법을 나타내고 있으며, 여기서 양면 입력 디바이스에 가해지는 상대적인 압력이 전자 기기와 관련된 파라미터 혹은 특성을 조정하는데 이용될 수 있다(예컨대, 이미지를 줌 인/아웃 혹은 스큐하거나, 볼륨, 빨리감기 혹은 되감기 속도를 조정하거나, 표시된 이미지의 밝기 및/또는 색상을 조정하는 등). 도 3a 및 3b로 돌아가서, 파라미터를 조정하기 위해서(예컨대, 표시된 이미지를 줌 인/아웃), 사용자가 전자 기기를 구부리거나 트위스트하는 것을 시뮬레이션할 수 있는 한 가지 방식이 도시되어 있다. 도시된 바와 같이, 장치(300)의 전면(310)이 볼록하게 혹은 오목하게 되도록, 전자 기기(300)를 안쪽으로, 즉 사용자로부터 멀어지도록 구부리는 것을 시뮬레이션하거나(도 3a에 도시된 바와 같이), 바깥쪽으로, 즉 사용자쪽으로 구부리는 것을 시뮬레이션(도 3b에 도시된 바와 같이)하기 위해서, 사용자는 네 손가락 혹은 다른 선택 수단(314a, 314b, 324a, 324b)을 이용해서 전자 기기(300)의 전면(310) 및 이면(320)을 다른 위치에서 터치하며, 각각의 접촉 지점에서 서로 다른 힘 혹은 압력량을 이용할 수 있다.
상세하게, 도 3a로 돌아가면, 일 실시예에 따라서, 사용자로부터 멀어지도록 전자 기기(300)를 구부리는 것을 시뮬레이션하기(혹은 실제로 구부리기) 위해서, 사용자는 자신의 엄지 손가락(314a, 314b)을 장치(300)의 전면(310)에 위치시키고, 검지 혹은 중지(324a, 324b)를, 자신의 엄지 손가락(314a, 314b) 각각이 위치되는 위치 밖의 위치에서, 장치(300)의 이면(320)에 위치시킬 수 있으며, 이로써, 네 손가락 모두 혹은 다른 선택 장치(314a, 314b, 324a, 324b)로 압력을 인가할 수 있고, 여기서 장치(300)의 전면(310) 상에 엄지 손가락(314a, 314b)에 의해 인가되는 압력량이 장치(300)의 이면(320) 상에 검지 혹은 중지(324a, 324b)에 의해 인가되는 압력량보다 혹은 이에 비해서 클 수 있다. 그 결과, 전자 기기(300)가 사용자측으로 혹은 사용자로부터 멀어지도록 구부러지거나, 구부러지는 것이 시뮬레이션된다(즉, 장치(300)의 전면(310)이 오목하게 된다). 전자 기기(300)의 전면(310) 및 이면(320) 상에서 촉각 입력을 검출하고, 이들 촉각 입력에 관련된 상대적인 위치 및 압력량을 측정하는 것에 응답해서, 장치(예컨대, 프로세서 및 일 실시예에서는 액션 모듈과 같은 수단)는, 전자 기기(300)의 전면(310) 상의 표시 화면(312)에 표시되는 이미지를 줌 인시키는 것과 같이, 조정 가능한 파라미터에 대한 어떤 액션을 취할 수 있다. 일 실시예에서, 전체 이미지가 줌 인될 수 있다. 혹은, 다른 실시예에서는, 예컨대, 전자 기기(300)의 전면(310) 상의 사용자의 엄지 손가락(314a, 314b), 혹은 전자 기기(300)의 이면(310) 상의 사용자의 검지 혹은 중지(324a, 324b)의 위치에 의해 규정된 영역(도 3a 및 3b에서 "줌된 영역" 참조)이 줌 인될 수 있다.
유사하게, 도 3b로 돌아가면, 다른 실시예에 따라서, 사용자측으로 전자 기기(300)를 구부리는 것을 시뮬레이션하기(혹은 실제로 구부리기) 위해서, 사용자는 자신의 엄지 손가락(314a, 314b)을 장치(300)의 전면(310)에 위치시키고, 검지 혹은 중지(324a, 324b)를, 자신의 엄지 손가락(314a, 314b) 각각이 위치되는 위치 밖의 위치에서, 장치(300)의 이면(320)에 위치시킬 수 있으며, 이로써, 네 손가락 모두 혹은 다른 선택 장치(314a, 314b, 324a, 324b)로 압력을 인가할 수 있고, 여기서 장치(300)의 이면(320) 상에 검지 혹은 중지(324a, 324b)에 의해 인가되는 압력량이 장치(300)의 전면(310) 상에 엄지 손가락(314a, 314b)에 의해 인가되는 압력량보다 혹은 이에 비해서 클 수 있다. 그 결과, 전자 기기(300)가 사용자측으로 혹은 사용자로부터 멀어지도록 구부러지거나, 구부러지는 것이 시뮬레이션된다(즉, 장치(300)의 전면(310)이 볼록하게 된다). 전자 기기(300)의 전면(310) 및 이면(320) 상에서 촉각 입력을 검출하고, 이들 촉각 입력에 관련된 상대적인 위치 및 압력량을 측정하는 것에 응답해서, 장치(예컨대, 프로세서 및 일 실시예에서는 액션 모듈과 같은 수단)은, 전자 기기(300)의 전면(310) 상의 표시 화면(312)에 표시되는 이미지를 줌 아웃시키는 것과 같이, 조정 가능한 특성 혹은 파라미터에 대한 어떤 액션을 취할 수 있다. 일 실시예에서, 전체 이미지가 줌 아웃될 수 있다. 혹은, 다른 실시예에서는, 예컨대, 전자 기기(300)의 전면(310) 상의 사용자의 엄지 손가락(314a, 314b), 혹은 전자 기기(300)의 이면(310) 상의 사용자의 검지 혹은 중지(324a, 324b)의 위치에 의해 규정된 영역(도 3a 및 3b에서 "줌된 영역" 참조)이 줌 아웃될 수 있다.
도 3a 및 도 3b는 물론 도 4에 대한 이하의 설명이, 사용자가 전자 기기의 각각의 면(예컨대, 양면 입력 디바이스 모두)에 하나 이상의 손가락 혹은 다른 선택 장치를 위치시키는 것을 가정했지만, 본 발명의 실시예는 기기의 각각의 면에서 복수의 입력을 사용하는 것으로 한정되는 것은 아니다. 상세하게는, 일 실시예에 따라서, 전자 기기(300)의 전면(310) 및 이면(320) 각각에서 하나의 입력이 검출될 수 있다. 이에 응답해서, 전자 기기는 조정 가능한 파라미터 혹은 특성(예컨대, 줌 레벨, 볼륨, 밝기 및 색상 등)에 대한 어떤 액션을 취할 수 있고, 여기서 취해지는 액션은 검출된 입력에 관한 상대적인 압력에 따라 달라진다. 예컨대, 일 실시예에 따라서, 전자 기기는, 예컨대, 기기의 제 1 면(예컨대, 전면)과 제 2 면(예컨대, 이면) 중 어느 쪽에 더 많은 압력이 가해졌는지에 따라서, 표시된 전체 이미지 혹은 표시된 이미지 내의 특정 그래픽 아이템을 줌 인 혹은 줌 아웃시킬 수 있다. 예컨대, 제 1 면(예컨대, 전면) 촉각 입력과 관련되어서 더 많은 압력이 검출되었다면, 이미지(혹은 특정 그래픽 아이템)은 줌 인될 것이고, 제 2 면(예컨대, 이면) 촉각 입력과 관련되어서 더 많은 압력이 검출되었다면, 이미지(혹은 특정 그래픽 아이템)은 줌 아웃될 수 있다.
도시되지는 않았지만, 도 4와 관련해서 상세하게 후술하는 바와 같이, 손가락 혹은 다른 선택 장치의 유사한 배치 및 압력 인가를 통해서, 전자 기기를 안쪽으로 혹은 바깥쪽으로 구부리는 대신, 전자 기기를 트위스트하는 것을 시뮬레이션(혹은 실제로 트위스트)할 수 있다. 전자 기기를 트위스트(혹은 트위스트를 시뮬레이션)함으로써, 전자 기기(예컨대, 프로세서 및 일 실시예에서는 액션 모듈과 같은 수단)는 전자 기기(300)의 전면(310)의 표시 화면(312)에 표시된 이미지 혹은 이미지의 일부를 스큐하거나, 다른 조정 가능한 파라미터 혹은 특성에 대해 어떤 다른 액션을 취한다.
도 4로 돌아가면, 사용자가 전자 기기를 구부리거나 혹은 트위스트하는 것을 시뮬레이션하는(혹은 실제로 행하는) 것에 응답해서, 전자 기기와 관련된 적어도 하나의 조정 가능한 파라미터 혹은 특성에 대해 액션(예컨대, 기기의 전면의 터치스크린과 같은, 전자 기기 표시 화면에 표시된 이미지를 변경)을 취하기 위해서 취해질 수 있는 동작이 도시되어 있다. 도시된 바와 같이, 처리는 블록 401, 402에서 시작되고, 여기서 전자 기기(예컨대, 프로세서 및 일 실시예에서는 검출 모듈과 같은 수단)는 전자 기기의 제 1 면 및 제 2 면(예컨대, 전면 및 이면) 각각에 위치된 제 1 터치-감응식 입력 디바이스 및 제 2 터치-감응식 입력 디바이스 모두에서 하나 이상의 촉각 입력을 검출하고, 각각의 촉각 입력과 관련된 위치를 결정한다. 상술한 바와 같이, 촉각 입력은 예컨대, 사용자의 왼손 및 오른손 엄지 손가락이 기기의 전면(예컨대, 기기의 전면에 위치된 터치스크린)에 위치되고, 사용자의 왼손 및 오른손 검지 혹은 중지가 기기의 이면(예컨대, 기기의 이면에 위치된 터치스크린 상)에 위치되는 것에 대응한다.
전자 기기(예컨대, 프로세서 및 일 실시예에서는 검출 모듈과 같은 수단)는 촉각 입력을 검출하고, 이들의 위치를, 당업자에게 공지되어 있는 많은 기술 중 어느 하나를 이용해서 결정할 수 있다. 예컨대, 제 1 및/또는 제 2 (예컨대, 전면 및/또는 이면) 터치스크린은 2개의 층을 각각 포함할 수 있는데, 이들 층은 스페이서에 의해 이격되어 있으며, 그 사이에는 전류가 흐르고 있다. 사용자가 제 1 혹은 제 2 터치스크린을 터치하면, 2개의 층이 접촉하고, 접촉 위치에서 전류를 변화시킨다. 전자 기기는 전류 변화는 물론, 접촉 위치의 좌표를 인지할 수 있다.
다른 방안으로, 제 1 및/또는 제 2 터치스크린이 촉각 입력을 검출하는데 저항성 시스템이 아닌 용량성 시스템을 이용하는 경우에, 제 1 및/또는 제 2 터치스크린은 전기 전하를 저장하는 층을 포함할 수 있다. 사용자가 제 1 혹은 제 2 터치스크린을 터치하면, 그 층으로부터의 전하 중 일부가 사용자에게 전달되어서, 용량층의 전하를 감소시킨다. 전하의 감소를 측정하는 회로가 제 1 및/또는 제 2 터치스크린의 각각의 모서리에 위치될 수 있어서, 각각의 모서리에서 측정된 전하의 상대적인 차이에 기초해서, 촉각 입력의 정확한 위치가 계산될 수 있다. 본 발명의 실시예는, 저항성, 용량성, 적외선, 변형 게이지, 표면파, 광 이미징, 분산 신호 기술, 탄성 펄스 인식 혹은 다른 기법 중 어느 것에 의해서 터치를 인식하고, 터치 위치를 나타내는 신호를 제공할 수 있게 구성된 터치스크린과 같은, 다른 타입의 터치스크린을 이용할 수 있다.
터치스크린 인터페이스는 터치스크린에서의 터치 이벤트의 형태인 입력의 표시를 수신하도록 구성될 수 있다. 위에 제안한 바와 같이, 터치 이벤트는 선택 장치(예컨대, 손가락, 스타일러스, 펜, 연필 혹은 다른 포인팅 장치)와 터치스크린 사이의 실제 물리적인 접촉으로서 정의될 수 있다. 다른 방안으로, 터치 이벤트는 선택 장치를 터치스크린에 근접시키는 것(예컨대, 표시된 대상 위에 공중에 놓여지거나, 소정의 거리 내에서 물체에 근접함)으로 정의될 수 있다.
전자 기기의 제 1 및 제 2 면(예컨대, 전면 및 이면)에서 촉각 입력을 검출하면, 블록 403에서, 전자 기기(예컨대, 프로세서 및 일 실시예에서는 압력 검출 모듈과 같은 수단)는 검출된 촉각 입력 각각에 관련된 압력량을 측정한다. 상세하게는, 일 실시예에 따라서, 검출된 촉각 입력 각각에 관련된 압력량을 측정하기 위해서, 하나 이상의 터치 힘 혹은 압력 센서가 종래의 패널과 조합해서 사용될 수 있다.
전자 기기의 제 1 및 제 2 면(예컨대, 전면 및 이면)에서의 촉각 입력을 검출하고, 각각의 촉각 입력과 관련된 위치 및 압력을 측정한 것에 응답해서, 전자 기기(예컨대, 프로세서 및 일 실시예에서는 액션 모듈과 같은 수단)는, 블록 404에서, 전자 기기와 관련된 조정 가능한 특성에 대해 액션을 취할 수 있으며, 여기서 취해지는 액션은 각각의 촉각 입력과 관련된 상대적인 위치 및 압력량에 기초할 수 있다. 예컨대, 일 실시예에 따라서, 전자 기기(예컨대, 프로세서 및 일 실시예에서는 액션 모듈과 같은 수단)는, 전자 기기의 표시 화면(예컨대, 전자 기기의 전면의 터치스크린)에 표시된 전체 이미지, 혹은 이미지의 하나 이상의 그래픽 아이템에 대해 어떤 액션을 취할 수 있다. 이 액션은 예컨대, 전체 이미지 혹은 이미지의 하나 이상의 그래픽 아이템을 줌 혹은 스큐하거나, 전체 이미지와 관련된 밝기 혹은 색상을 조정하는 것 등을 포함할 수 있다.
상세하게는, 일 실시예에 따라서, 전자 기기는 우선 각각의 촉각 입력과 관련된 상대적인 위치 및 압력량에 적어도 부분적으로 기초해서, 사용자가 전자 기기를 구부리거나 트위스트시키는 것을 시뮬레이션(혹은 실제로 행함)하는 방향을 식별할 수 있다. 예컨대, 도 3a 및 3b에 관해서 상기 설명한 바와 같이, 전자 기기(300)의 이면(320)에 위치된 사용자의 검지 혹은 중지(324a, 324b)가 있는 위치에서, 사용자의 엄지 손가락(314a, 314b)이 전자 기기(300)의 전면(310) 상에서 검출되고, 엄지 손가락에 의해 인가되는 압력량이 검지 혹은 중지에 의해 인가되는 압력량을 초과하면, 식별된 전자 기기의 구부러짐(혹은 시뮬레이션된 구부러짐)의 방향은 안쪽, 즉 사용자로부터 멀어지는 방향이었다. 반대로, 전자 기기(300)의 이면(320)에 위치된 사용자의 검지 혹은 중지(324a, 324b)가 있는 위치를 벗어난 위치에서, 사용자의 엄지 손가락(314a, 314b)이 전자 기기(300)의 전면(310) 상에서 검출되고, 엄지 손가락에 의해 인가되는 압력량이 검지 혹은 중지에 의해 인가되는 압력량 미만이면, 식별된 전자 기기의 구부러짐(혹은 시뮬레이션된 구부러짐)의 방향은 바깥쪽, 즉 사용자를 향하는 방향이었다.
사용자가 전자 기기를 구부리거나 트위스트하는 것을 시뮬레이션(혹은 실제로 행함)한 방향을 결정하는 것에 더해서, 전자 기기는, 사용자가 전자 기기를 구부리려고 할 때 혹은 구부리는 것을 시뮬레이션하려고 할 때 가하는 전체 힘을 식별할 수 있다. 이는, 예컨대, 각각의 촉각 입력과 관련해서 검출된 압력에 기초할 수 있다. 예컨대, 하나 이상의 촉각 입력에서 검출된 압력이 더 클수록, 전자 기기는, 사용자가 전자 기기를 구부리려고 하는 혹은 구부리는 것을 시뮬레이션하려고 하는 전체 힘이 더 크다고 가정(혹은 식별)할 것이다.
일 실시예에서, 전자 기기(예컨대, 프로세서 및 일 실시예에서는 이미지 보정 모듈과 같은 수단)는, 식별된, 사용자가 전자 기기를 구부리거나 트위스트(혹은 구부리거나 트위스트하는 것을 시뮬레이션)하는 방향 및 전체 힘에 대응하는 방향, 각도 혹은 범위 및 속도로, 전자 기기 표시 화면(예컨대, 전자 기기의 전면의 터치스크린)에 표시된 전체 이미지를 줌하거나 스큐할 수 있다. 예컨대, 사용자가 전자 기기의 전면이 오목하게 되도록, 전자 기기를 자신으로부터 멀어지는 쪽으로 구부리고 있는(혹은 구부리는 것을 시뮬레이션하고 있는) 것으로 판정되면, 전자 기기는 전체 이미지를 줌 인(즉, 확대)할 수 있다. 다른 방안으로, 사용자가 전자 기기의 전면이 볼록하게 되도록, 전자 기기를 자신에 가까워지는 쪽으로 구부리고 있는(혹은 구부리는 것을 시뮬레이션하고 있는) 것으로 판정되면, 전자 기기는 전체 이미지를 줌 아웃(즉, 축소)할 수 있다. 또 다른 실시예에서, 사용자가 전자 기기를 트위스트(혹은 트위스트하는 것을 시뮬레이션)하는 것으로 판정되면, 전자 기기는 전체 이미지를 스큐할 수 있다.
일 실시예에서, 사용자가 전자 기기를 구부리거나(구부리는 것을 시뮬레이션하거나) 혹은 트위스트(혹은 트위스트하는 것을 시뮬레이션)하는데 사용하는 전체 힘이 더 크면, 전체 이미지는 더욱 줌 인, 줌 아웃 혹은 스큐된다(즉, 변경 정도가 더 크다). 반대로, 사용자가 가하는 전체 힘이 더 작으면, 이미지는 조금만 줌 인, 줌 아웃 혹은 스큐된다(즉, 변경 정도가 더 작다). 다른 방안으로, 혹은 이에 더해서, 전체 힘의 양이 전자 기기가 전체 이미지를 줌하거나 스큐하는 속도에 정비례할 수도 있다.
또 다른 실시예에서, 사용자가 전자 기기를 구부리거나 트위스트하는 것을 시뮬레이션하는(혹은 실제로 행하는) 것에 응답해서, 전체 이미지 내의 하나 이상의 그래픽 아이템만이 줌되거나 스큐된다. 이 실시예에서, 전자 기기는 예컨대, 전면 촉각 입력 위치에 근접한 위치에서 전면 터치스크린에 무엇이 표시되고 있는지 식별하고, 식별된 그래픽 아이템만을 줌하거나 스큐한다. 다른 방안으로, 전자 기기는 예컨대 이면 촉각 입력 위치에 대응하는 위치에서 전면 터치스크린에 무엇이 표시되고 있는지 식별하고, 이들 그래픽 아이템만을 줌하거나 스큐할 수 있다. 예컨대, 이면 촉각 입력 내에 정렬된 위치에 표시되는 그래픽 아이템이 식별되어서, 줌되거나 스큐될 수 있다.
다른 실시예에서, 이미지를 줌하거나 스큐하는 대신, 블록 404에서 취해지는 액션은 전자 기기 표시 화면(예컨대, 전면 터치스크린)과 관련된 다른 조정 가능한 파라미터 혹은 특성 및/또는 전자 기기 자체와 관련될 수 있다. 예컨대, 일 실시예에 따라서, 사용자는 전자 기기 표시 화면과 관련된 밝기, 색상 혹은 유사한 조정 가능한 파라미터를 조정하기 위해서, 전자 기기를 구부리거나 트위스트시킬 수 있다. 예컨대, 사용자는 화면을 더 밝게 하기 위해서 전자 기기를 안쪽으로 구부릴 수(혹은 구부리는 것을 시뮬레이션할 수) 있고, 화면을 더 어둡게 하기 위해서 전자 기기를 바깥쪽으로, 즉 사용자를 향하도록 구부릴 수(혹은 구부리는 것을 시뮬레이션할 수) 있다. 검출된 촉각 입력과 관련된 상대적인 위치 및/또는 압력량에 기초해서, 조정될 수 있는 다른 파라미터는 예컨대, 볼륨, 빨리 감기 속도 및/또는 되감기 속도 등을 포함할 수 있다.
도 5a-6을 참조하면, 본 발명의 실시예에 따라서 양면 입력 디바이스를 이용해서, 전자 기기 및 이 전자 기기에서 실행되는 애플리케이션을 제어하는 두번째 기법이 도시되어 있다. 이 실시예에 따라서, 사용자가 전자 기기의 이면을 하나 이상의 손가락으로 터치하면, 사용자가 전자 기기의 이면을 터치한 위치에 대응하는 영역(502)에 표시된 하나 이상의 그래픽 아이템을 확대하는 것으로, 전자 기기는 그 전면(예컨대, 전면 터치스크린)에 표시된 이미지(501)를 변경시킬 수 있다.
도 6에 도시된 바와 같이, 블록 601 및 602에서, 사용자가 전자 기기의 이면에서 대응하는 위치를 터치하는 것에 응답해서, 전자 기기(예컨대, 프로세서 및 일 실시예에서는 검출 모듈과 같은 수단)가 그 이면에서 하나 이상의 입력을 검출하고, 이들 위치를 결정하면, 전자 기기의 전면의 특정 위치에 표시된 그래픽 아이템을 확대하는 처리가 개시될 수 있다. 일 실시예에서, 전자 기기의 이면의 입력 디바이스는 터치스크린 혹은 터치패드와 같은 터치-감응식 입력 디바이스를 포함할 수 있다. 이 실시예에서, 전자 기기는 하나 이상의 입력(즉, 촉각 입력)을 검출하고, 당업자에게 이미 알려져 있으며 도 4와 관련해서 상기 설명한 많은 기법 중 어느 하나를 이용해서 이들 위치를 결정할 수 있다. 다른 방안으로, 이면 입력 디바이스는 터치-감응식이 아닐 수 있으며, 이 경우, 전자 기기는 예컨대, 전자 기기와 관련된 하나 이상의 카메라 및/또는 광 센서 어레이를 이용해서 그 이면에서의 입력을 검출할 수 있다.
입력을 검출하고 그 위치를 결정할 때, 전자 기기(예컨대, 프로세서 및 일 실시예에서는 식별 모듈과 같은 수단)는 블록 603에서, 장치의 이면 중, 검출된 입력 각각과 관련된 위치에 대응하는 위치 부근에서, 전자 기기의 전면(예컨대, 전면 터치스크린)에 표시된 하나 이상의 그래픽 아이템을 식별할 수 있다. 예컨대, 일 실시예에 따라서, 전자 기기의 이면의 입력과 관련된 위치를 결정하기 위해서, 전자 기기는 입력과 관련된 X 및 Y 좌표를 식별할 수 있다. 이후에, 전자 기기는 전자 기기의 이면과 관련된 X 및 Y 좌표를 전자 기기의 전면과 관련된 X 및 Y 좌표로 변환하고, 여기서 이면 및 전면의 X 및 Y 좌표는 정렬될 수 있다. 전자 기기의 전면에서, 전자 기기의 이면에서 검출된 입력에 대응하는 위치에 표시된 하나 이상의 그래픽 아이템을 식별하기 위해서, 전자 기기는 변환된 전면 X 및 Y 좌표로부터 일정 거리(예컨대, 1/2 인치) 내에 표시된 모든 그래픽 아이템을 식별할 수 있다.
일단 그래픽 아이템이 식별되면, 전자 기기(예컨대, 프로세서 및 일 실시예에서는 확대 모듈과 같은 수단)는, 블록 604에서, 식별된 그래픽 아이템을 확대, 즉 이들이 커지게 한다. 환언하면, 본 발명의 실시예에 따라서, 사용자는 전자 기기의 이면의 소망의 위치를 터치함으로써, 전자 기기 표시 화면에 표시된 정보를 검토하기 위한 하나 이상의 가상의 돋보기를 생성할 수 있다. 이후에 사용자는 전자 기기의 이면 주위에서, 가상의 돋보기를 손가락 혹은 다른 선택 장치를 주위로 이동시킬 수 있다. 당업자는 본 명세서의 견지에서, 본 발명의 실시예에 따라서, 전자 기기의 이면을 하나 혹은 다수의 손가락 혹은 다른 선택 장치로 터치함으로써, 하나 혹은 다수의 가상 돋보기를 동시에 생성해서 조작할 수 있다는 것을 이해할 것이다.
다른 실시예에 따라서, 도시되지는 않았지만, 식별된 그래픽 아이템을 확대하는 대신, 전자 기기는 식별된 그래픽 아이템에 대한 어떤 다른 액션을 취할 수 있다. 예컨대, 일 실시예에 따라서, 전자 기기는 그래픽 아이템을 편집 모드에 두거나, 혹은 그래픽 아이템을 활성화시켜서 사용자가 이를 조작할 수 있게 할 수 있다. 예시적으로, 예컨대, 식별된 그래픽 아이템이 가상의 명함 혹은 V-카드를 포함하는 경우에, 기기의 이면의 위치 중 기기 전면의 V 카드가 표시되고 있는 위치에 대응하는 사용자가 터치하는 것에 응답해서, 전자 기기는 사용자가 V 카드를 편집할 수 있게 한다.
양면 입력 디바이스를 이용해서 전자 기기를 제어하는 또 다른 기법에 대해서, 도 7을 참조하며, 여기에는 사용자가 본 발명의 실시예에 따라서 그래픽 아이템 혹은 대상을 쥐고 돌리는 것을 시뮬레이션하는 것에 응답해서 전자 기기의 한쪽 면(예컨대, 기기의 전면)에 표시된 그래픽 아이템 혹은 대상(예컨대, 3차원 그래픽 아이템 혹은 대상)을 회전시키기 위해 취해질 수 있는 동작을 나타내고 있다. 도시된 바와 같이, 처리는 블록 701에서 시작되고, 여기서 전자 기기(예컨대, 프로세서 및 일 실시예에서는 검출 모듈과 같은 수단)는 전자 기기의 제 1 면(예컨대 전면) 상의 제 1 위치에서 제 1 입력을 검출하고, 블록 702에서, 전자 기기(예컨대, 프로세서 및 일 실시예에서는 검출 모듈과 같은 수단)는 전자 기기의 제 2 면(예컨대, 이면) 상의 제 2 위치에서 제 2 입력을 더 검출할 수 있으며, 여기서 제 1 및 제 2 위치는 서로에 대해서 사전 결정된 관계를 갖는다. 일 실시예에 따라서, 제 1 및 제 2 입력은 실질적으로 동시에 일어나며, 제 1 및 제 2 위치는 실질적으로 정렬되어 있다(예컨대, 전자 기기의 제 1 면의 제 1 입력의 위치로부터 수직선이 도시되는 경우에, 이 선은 전자 기기의 제 2 면 상의 제 2 입력의 위치와 교차될 수 있다). 상세하게, 일 실시예에 따라서, 제 1 및 제 2 입력은 사용자가 2개의 손가락으로 전자 기기를 쥐는 것으로 일어날 될 수 있다. 여기서 2개의 손가락은 전자 기기가 사이에 놓이도록 터치하고 있을 것이다. 다른 실시예에서, 제 1 및 제 2 입력은 정렬되어 있지는 않지만, 장치의 각각의 면에서, 표시된 전체 이미지에 대한 위치가 상대적으로 동일할 수 있다. 예컨대, 이는 전자 기기의 제 1 면이 그 전면 혹은 이면에 대응하고, 제 2 면이 기기의 좌측면 혹은 우측면에 대응하는 경우에 일어날 수 있다.
일 실시예에 따라서, 전자 기기의 제 1 면(예컨대, 전면) 및 제 2 면(예컨대, 이면)이 각각 터치-감응식 입력 디바이스(예컨대, 터치스크린 혹은 터치패드)을 포함할 수 있다. 이 실시예에서, 전자 기기(예컨대, 프로세서 및 일 실시예에서는 검출 모듈과 같은 수단)는 제 1 및 제 2 입력을 검출하고, 도 4에 대해서 상기 설명한 공지된 기법 중 어느 하나를 이용해서 그 위치를 결정할 수 있다. 다른 실시예에서, 전자 기기의 제 1 면(예컨대, 전면)은 터치-감응식 입력 디바이스(예컨대, 터치스크린 혹은 터치패드)를 포함하고, 전자 기기의 제 2 면(예컨대, 이면)은 하나 이상의 카메라 및/또는 광 센서 어레이를 통해서 입력을 검출할 수 있다.
또 다른 실시예에서, 전자 기기(예컨대, 프로세서 및 일 실시예에서는 검출 모듈과 같은 수단)는, 블록 703에서, 제 1 및 제 2 입력이 각각 제 1 및 제 2 방향으로 이동하는 것을 검출할 수 있으며, 여기서 제 1 및 제 2 방향은 서로에 대해서 소정의 관계를 갖고 있다. 예컨대, 제 1 및 제 2 방향은 실질적으로 반대 방향이 될 수 있다(예컨대, 일정 한도의 각도 범위 내에서 반대임). 이는, 예컨대, 전면의 손가락 혹은 다른 선택 장치를 상방으로 이동시키고, 이면의 손가락 혹은 다른 선택 장치를 하방으로 이동시킴으로써, 혹은 그 반대로 함으로써 이루어질 수 있다. 다른 예로서, 이는 전면의 손가락 혹은 다른 선택 장치를 좌측으로 이동시키고, 이면의 손가락 혹은 다른 선택 장치를 우측으로 이동시킴으로써, 혹은 그 반대로 함으로써 이루어질 수 있다.
촉각 입력 및 그 이동을 검출한 것에 응답해서, 전자 기기(예컨대, 프로세서 및 일 실시예에서는 식별 모듈과 같은 수단)는, 블록 704에서 전자 기기의 제 1 면(예컨대, 전면)의 표시 화면 상의 제 1 위치에 표시된 그래픽 아이템을 식별할 수 있다. 환언하면, 일 실시예에 따라서, 전자 기기는, 그 제 1 면(예컨대, 전면)에 표시된 그래픽 아이템 중 사용자가 화면을 터치하는 위치에 있는 것을 식별할 수 있다.
이후에, 블록 705에서, 전자 기기(예컨대, 프로세서 및 일 실시예에서는 회전 모듈과 같은 수단)는, 사용자가 그래픽 아이템을 돌리는 것을 시뮬레이션하는 방향에 대응하는 방향, 상세하게는 제 1 입력이 이동하는 제 1 방향에 대응하는 방향으로, 그래픽 아이템을 회전시킬 수 있다.
예시적으로, 예컨대 사용자가 자신의 전면의 손가락을 상방으로 이동시키고, 자신의 이면의 손가락을 하방으로 이동시키는 경우에, 본 발명의 일 실시예에 따라서, 전자 기기는 그래픽 아이템을 뒷쪽으로(예컨대, 윗부분이 표시부 안쪽으로 가도록) 회전시킬 수 있다. 반대로, 사용자가 자신의 전면의 손가락을 하방으로 이동시키고, 자신의 이면의 손가락을 상방으로 이동시키는 경우에, 일 실시예에 따라서, 전자 기기는 그래픽 아이템을 앞쪽으로(예컨대, 아랫 부분이 표시부 안쪽으로 가도록) 회전시킬 수 있다. 또 다른 예로서, 사용자가 자신의 전면의 손가락을 우측으로 이동시키고, 이면의 손가락을 좌측으로 이동시키는 경우에, 전자 기기는 이에 응답해서 그래픽 아이템을 우측 부분이 장치 안쪽으로 가도록 회전시킬 수 있다.
일 실시예에 따라서, 전자 기기는 그래픽 아이템을 임의의 원하는 각도, 즉 회전 각도로, 3차원적으로 자유롭게 회전시킬 수 있다. 다른 방안으로, 또 다른 실시예에 따라서, 전자 기기는 그래픽 아이템을 예컨대, 45°, 90° 혹은 180°를 포함한 사전 결정된 특정 각도까지만 회전시킬 수 있다. 예컨대, 일 실시예에 따라서, 전자 기기는, 이미지의 "뒷면"을 나타내기 위해서, 2차원 이미지를 뒤집는 것(즉, 180° 회전시킴)만 할 수 있다. 일 실시예에서, 이미지(예컨대, 사진)의 뒷면은 이미지와 관련된 메타데이터(예컨대, 촬영 시간 및 장소 등을 나타냄)를 표시할 수 있다.
결론
상술한 바와 같이, 그리고 당업자가 이해하고 있는 바와 같이, 본 발명의 실시예는 장치와 방법으로 구성될 수 있다. 따라서, 본 발명의 실시예는 완전한 하드웨어, 완전한 소프트웨어, 혹은 소프트웨어와 하드웨어의 임의의 조합을 포함한 다양한 수단을 포함할 수 있다. 또한, 본 발명의 실시예는 컴퓨터-판독 가능 프로그램 인스트럭션(예컨대, 컴퓨터 소프트웨어)이 내장된 컴퓨터-판독 가능 저장 매체 상의 컴퓨터 프로그램 제품의 형태를 취할 수 있다. 하드 디스크, CD-ROM, 광학 저장 장치 혹은 자기 저장 장치를 포함한 임의의 적절한 컴퓨터-판독 가능 저장 매체가 이용될 수 있다.
본 발명의 실시예는 방법, 장치(즉, 시스템) 및 컴퓨터 프로그램 제품의 블록도 및 흐름도를 참조로 설명되었다. 이 블록도 및 흐름도의 각각의 블록 및 이 블록도 및 흐름도의 블록의 조합은 각각 컴퓨터 프로그램 인스트럭션을 포함한 다양한 수단에 의해서 실시될 수 있다는 것을 이해할 것이다. 이들 컴퓨터 프로그램 인스트럭션은, 도 1과 관련해서 상술한 프로세서(110) 혹은 도 2와 관련해서 상술한 처리 장치(208)와 같은, 다목적 컴퓨터, 특수 목적 컴퓨터 혹은 다른 프로그래밍 가능 데이터 처리 장치에 로딩되어서, 컴퓨터 혹은 다른 프로그래밍 가능 데이터 처리 장치 상에서 실행되는 인스트럭션이 흐름도 블록 또는 블록들에 명시된 기능을 수행하는 수단을 이루도록, 머신을 생성할 수 있다.
이들 컴퓨터 프로그램 인스트럭션은 컴퓨터-판독 가능 메모리에 저장될 수도 있으며, 이는 컴퓨터 혹은 다른 프로그래밍가능 데이터 처리 장치(예컨대, 도 1의 프로세서(110) 혹은 도 2의 처리 장치(208))에 지시해서, 컴퓨터-판독 가능 메모리에 저장된 인스트럭션이, 흐름도 블록에 명시된 기능을 실시하는 컴퓨터-판독 가능 인스트럭션을 포함하는 제조 물품을 생성하는 것과 같은 특정 방식으로, 기능하게 한다. 컴퓨터 프로그램 인스트럭션은 컴퓨터 혹은 다른 프로그래밍 가능 데이터 처리 장치에 로딩되어서, 컴퓨터 혹은 다른 프로그래밍 가능 장치에서 일련의 동작 단계를 수행하며, 이로써 컴퓨터 혹은 다른 프로그래밍 가능 장치에서 실행되는 인스트럭션이 흐름도 블록에 명시된 기능을 수행하기 위한 단계를 제공하도록, 컴퓨터-구현 처리를 생성한다.
따라서, 블록도 및 흐름도의 블록은 특정 기능을 수행하는 수단의 조합, 특정 기능을 수행하는 단계의 조합 및 특정 기능을 수행하는 프로그램 인스트럭션 수단을 지원한다. 블록도 및 흐름도의 각각의 블록, 블록도 및 흐름도의 블록의 조합이, 특정 기능 혹은 단계를 수행하는 특수 목적 하드웨어-기반 컴퓨터 시스템, 혹은 특수 목적 하드웨어와 컴퓨터 인스트럭션의 조합에 의해 구현될 수 있다는 것을 이해할 것이다.
여기 설명되는 본 발명의 많은 수정 및 다른 실시예는 본 발명의 이들 실시예와 관련된 분야에 종사하는 당업자가 상술한 설명 및 관련 도면에 나타난 교시의 이점을 취하게 하는 것을 목적으로 한다. 따라서, 본 발명의 실시예는 개시된 특정 실시예로 한정되는 것은 아니며, 수정 및 다른 실시예가 첨부된 청구의 범위의 범주 내에 들어가도록 의도되었다는 것을 이해할 것이다. 또한, 상술한 설명 및 관련 도면이 구성 요소 및/또는 기능의 어떤 예시적인 조합에 대해서 예시적인 실시예를 설명했지만, 첨부된 청구의 범위의 범주를 벗어나지 않고, 구성 요소 및/또는 기능의 다른 조합이 다른 실시예에 의해 제공될 수도 있다. 이에 대해서, 예컨대, 상기 명백하게 설명한 것과는 다른 구성 요소 및/또는 기능의 조합이, 첨부된 청구의 범위 중 일부에서 설명되는 것으로서도 이해될 수도 있다. 여기서 특정 용어가 이용되었지만, 이는 한정하는 것이 아니라 포괄적이며 설명적인 의미로 이용된 것이다.

Claims (20)

  1. 프로세서를 포함하되,
    상기 프로세서는,
    적어도 하나의 제 1 촉각 입력과 관련된, 제 1 터치-감응식 입력 디바이스 상의 위치를 결정하고,
    적어도 하나의 제 2 촉각 입력과 관련된, 제 2 터치-감응식 입력 디바이스 상의 위치를 결정하며,
    상기 제 1 촉각 입력 및 상기 제 2 촉각 입력과 관련된 압력량을 측정하고,
    상기 제 1 촉각 입력 및 상기 제 2 촉각 입력 각각과 관련된 상대적인 압력량에 적어도 부분적으로 기초해서, 적어도 하나의 조정 가능한 특성(feature)에 대해 액션을 취하도록 구성되는
    장치.
  2. 제 1 항에 있어서,
    액션을 취하기 위해서, 상기 프로세서는, 상기 제 1 촉각 입력 및 상기 제 2 촉각 입력 각각과 관련된 상대적인 압력량에 적어도 부분적으로 기초해서, 상기 제 1 터치-감응식 입력 디바이스 상에 표시된 이미지를 변경하도록 더 구성되는
    장치.
  3. 제 1 항에 있어서,
    상기 제 1 터치-감응식 입력 디바이스 및 상기 제 2 터치-감응식 입력 디바이스는 하나의 연속된 터치-감응식 입력 디바이스를 포함하는
    장치.
  4. 제 1 항에 있어서,
    상기 제 1 터치-감응식 입력 디바이스는 상기 장치의 전면에 위치되고, 상기 제 2 터치-감응식 입력 디바이스는 상기 장치의 이면에 위치되는
    장치.
  5. 제 1 항에 있어서,
    상기 제 1 터치-감응식 입력 디바이스 및 상기 제 2 터치-감응식 입력 디바이스와 관련된 하나 이상의 압력 센서를 더 포함하되,
    상기 하나 이상의 압력 센서는 상기 제 1 촉각 입력 및 상기 제 2 촉각 입력 각각과 관련된 압력량을 검출하도록 구성되는
    장치.
  6. 제 1 항에 있어서,
    상기 프로세서는, 상기 제 1 촉각 입력 및 상기 제 2 촉각 입력 각각과 관련된 상대적인 위치 및 압력량에 적어도 부분적으로 기초해서, 사용자가 상기 장치를 구부리거나 혹은 트위스트하는(twisting) 것을 시뮬레이션하는 방향을 식별하도록 더 구성되는
    장치.
  7. 제 6 항에 있어서,
    상기 프로세서는 상기 제 1 촉각 입력 및 상기 제 2 촉각 입력 각각과 관련된 상기 측정된 압력량에 적어도 부분적으로 기초해서, 상기 사용자가 상기 장치를 구부리거나 트위스트하는 것을 시뮬레이션하는 힘을 식별하도록 더 구성되는
    장치.
  8. 제 7 항에 있어서,
    액션을 취하기 위해서, 상기 프로세서는 상기 사용자가 상기 장치를 구부리거나 트위스트하는 것을 시뮬레이션하는 상기 식별된 방향 및 힘에 적어도 부분적으로 기초해서, 이미지를 확대, 축소 혹은 스큐(skew)하도록 더 구성되는
    장치.
  9. 제 7 항에 있어서,
    액션을 취하기 위해서, 상기 프로세서는,
    상기 제 1 터치-감응식 입력 디바이스 상에서, 적어도 하나의 상기 제 1 촉각 입력이 검출된 위치 부근에 표시된 하나 이상의 그래픽 아이템을 식별하고,
    상기 사용자가 상기 장치를 구부리거나 트위스트하는 것을 시뮬레이션하는 상기 식별된 방향 및 힘에 적어도 부분적으로 기초해서, 상기 식별된 하나 이상의 그래픽 아이템을 확대, 축소 혹은 스큐하도록 더 구성되는
    장치.
  10. 제 7 항에 있어서,
    액션을 취하기 위해서, 상기 프로세서는,
    상기 제 1 터치-감응식 입력 디바이스 상에서, 적어도 하나의 상기 제 2 촉각 입력이 검출된 위치에 대응하는 위치에 표시된 하나 이상의 그래픽 아이템을 식별하고,
    상기 사용자가 상기 장치를 구부리거나 트위스트하는 것을 시뮬레이션하는 상기 식별된 방향 및 힘에 적어도 부분적으로 기초해서, 상기 식별된 하나 이상의 그래픽 아이템을 확대, 축소 혹은 스큐하도록 더 구성되는
    장치.
  11. 제 1 항에 있어서,
    상기 적어도 하나의 조정 가능한 특성은 이미지와 관련된 밝기 및 색상, 볼륨, 되감기 속도 및 빨리감기 속도로 이루어진 그룹으로부터 선택되는
    장치.
  12. 제 1 항에 있어서,
    상기 장치가 상기 제 1 촉각 입력 및 상기 제 2 촉각 입력에 응답해서 구부러지거나 트위스트될 수 있도록 가요성 물질을 포함하는
    장치.
  13. 적어도 하나의 제 1 촉각 입력과 관련된, 제 1 터치-감응식 입력 디바이스 상의 위치를 결정하는 단계와,
    적어도 하나의 제 2 촉각 입력과 관련된, 제 2 터치-감응식 입력 디바이스 상의 위치를 결정하는 단계와,
    상기 제 1 촉각 입력 및 상기 제 2 촉각 입력 각각과 관련된 압력량을 측정하는 단계와,
    상기 제 1 촉각 입력 및 상기 제 2 촉각 입력 각각과 관련된 상대적인 압력량에 적어도 부분적으로 기초해서, 적어도 하나의 조정 가능한 특성에 대해 액션을 취하는 단계를 포함하는
    방법.
  14. 제 13 항에 있어서,
    상기 제 1 터치-감응식 입력 디바이스는 장치의 전면에 위치되고, 상기 제 2 터치-감응식 입력 디바이스는 상기 장치의 이면에 위치되는
    방법.
  15. 제 13 항에 있어서,
    상기 액션을 취하는 단계는, 상기 제 1 촉각 입력 및 상기 제 2 촉각 입력 각각과 관련된 상대적인 압력량에 적어도 부분적으로 기초해서, 상기 제 1 터치-감응식 입력 디바이스 상에 표시된 이미지를 변경하는 단계를 더 포함하는
    방법.
  16. 제 13 항에 있어서,
    상기 제 1 촉각 입력 및 상기 제 2 촉각 입력 각각과 관련된 상대적인 위치 및 압력량에 적어도 부분적으로 기초해서, 사용자가 장치를 구부리거나 혹은 트위스트하는 것을 시뮬레이션하는 방향을 식별하는 단계와,
    상기 제 1 촉각 입력 및 상기 제 2 촉각 입력 각각과 관련된 상기 측정된 압력량에 적어도 부분적으로 기초해서, 상기 사용자가 장치를 구부리거나 혹은 트위스트하는 것을 시뮬레이션하는 힘을 식별하는 단계를 더 포함하는
    방법.
  17. 제 16 항에 있어서,
    상기 액션을 취하는 단계는, 상기 사용자가 상기 장치를 구부리거나 트위스트하는 것을 시뮬레이션하는 상기 식별된 방향 및 힘에 적어도 부분적으로 기초해서, 이미지를 확대, 축소 혹은 스큐하는 단계를 더 포함하는
    방법.
  18. 컴퓨터-판독 가능 프로그램 코드 부분이 저장되어 있는 컴퓨터-판독 가능 매체에 있어서.
    상기 컴퓨터-판독 가능 프로그램 코드 부분은,
    적어도 하나의 제 1 촉각 입력과 관련된, 제 1 터치-감응식 입력 장치 상의 위치를 결정하는 제 1 실행 가능 부분과,
    적어도 하나의 제 2 촉각 입력과 관련된, 제 2 터치-감응식 입력 장치 상의 위치를 결정하는 제 2 실행 가능 부분과,
    상기 제 1 촉각 입력 및 상기 제 2 촉각 입력 각각과 관련된 압력량을 측정하는 제 3 실행 가능 부분과,
    상기 제 1 촉각 입력 및 상기 제 2 촉각 입력 각각과 관련된 상대적인 압력량에 적어도 부분적으로 기초해서, 적어도 하나의 조정 가능한 특성에 대해 액션을 취하는 제 4 실행 가능 부분을 포함하는
    컴퓨터-판독 가능 매체.
  19. 제 18 항에 있어서,
    상기 제 4 실행 가능 부분은 상기 제 1 촉각 입력 및 상기 제 2 촉각 입력 각각과 관련된 상대적인 압력량에 적어도 부분적으로 기초해서 상기 제 1 터치-감응식 입력 디바이스 상에 표시된 이미지를 변경하도록 더 구성되는
    컴퓨터-판독 가능 매체.

  20. 적어도 하나의 제 1 촉각 입력과 관련된, 제 1 터치-감응식 입력 장치 상의 위치를 결정하는 수단과,
    적어도 하나의 제 2 촉각 입력과 관련된, 제 2 터치-감응식 입력 장치 상의 위치를 결정하는 수단과,
    상기 제 1 촉각 입력 및 상기 제 2 촉각 입력 각각과 관련된 압력량을 측정하는 수단과,
    상기 제 1 촉각 입력 및 상기 제 2 촉각 입력 각각과 관련된 상대적인 압력량에 적어도 부분적으로 기초해서, 적어도 하나의 조정 가능한 특성에 대해 액션을 취하는 수단을 포함하는
    장치.
KR1020117001188A 2008-06-18 2009-04-03 양면 입력 디바이스를 이용해서 전자 기기를 조작하는 장치, 방법 및 컴퓨터-판독 가능 매체 KR101116442B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/141,490 2008-06-18
US12/141,490 US8130207B2 (en) 2008-06-18 2008-06-18 Apparatus, method and computer program product for manipulating a device using dual side input devices
PCT/FI2009/050254 WO2009153391A1 (en) 2008-06-18 2009-04-03 Apparatus, method and computer program product for manipulating a device using dual side input devices

Publications (2)

Publication Number Publication Date
KR20110040845A KR20110040845A (ko) 2011-04-20
KR101116442B1 true KR101116442B1 (ko) 2012-03-07

Family

ID=41430715

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020117001188A KR101116442B1 (ko) 2008-06-18 2009-04-03 양면 입력 디바이스를 이용해서 전자 기기를 조작하는 장치, 방법 및 컴퓨터-판독 가능 매체

Country Status (6)

Country Link
US (1) US8130207B2 (ko)
EP (1) EP2310930B1 (ko)
KR (1) KR101116442B1 (ko)
CN (1) CN102067070B (ko)
DK (1) DK2310930T3 (ko)
WO (1) WO2009153391A1 (ko)

Families Citing this family (97)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9513765B2 (en) 2007-12-07 2016-12-06 Sony Corporation Three-dimensional sliding object arrangement method and system
US8265688B2 (en) 2007-12-31 2012-09-11 Motorola Mobility Llc Wireless communication device and split touch sensitive user input surface
KR101472021B1 (ko) * 2008-09-02 2014-12-24 엘지전자 주식회사 플렉서블 디스플레이부를 구비한 휴대 단말기 및 그 제어방법
KR101021857B1 (ko) * 2008-12-30 2011-03-17 삼성전자주식회사 듀얼 터치 센서를 이용하여 제어 신호를 입력하는 장치 및 방법
KR101544364B1 (ko) * 2009-01-23 2015-08-17 삼성전자주식회사 듀얼 터치 스크린을 구비한 휴대 단말기 및 그 컨텐츠 제어방법
US20100277420A1 (en) * 2009-04-30 2010-11-04 Motorola, Inc. Hand Held Electronic Device and Method of Performing a Dual Sided Gesture
US8493364B2 (en) 2009-04-30 2013-07-23 Motorola Mobility Llc Dual sided transparent display module and portable electronic device incorporating the same
US20100295794A1 (en) * 2009-05-20 2010-11-25 Microsoft Corporation Two Sided Slate Device
US10705692B2 (en) * 2009-05-21 2020-07-07 Sony Interactive Entertainment Inc. Continuous and dynamic scene decomposition for user interface
US8265717B2 (en) * 2009-06-26 2012-09-11 Motorola Mobility Llc Implementation of touchpad on rear surface of single-axis hinged device
US8497884B2 (en) 2009-07-20 2013-07-30 Motorola Mobility Llc Electronic device and method for manipulating graphic user interface elements
US8462126B2 (en) * 2009-07-20 2013-06-11 Motorola Mobility Llc Method for implementing zoom functionality on a portable device with opposing touch sensitive surfaces
JP5363259B2 (ja) * 2009-09-29 2013-12-11 富士フイルム株式会社 画像表示装置、画像表示方法およびプログラム
KR101648747B1 (ko) * 2009-10-07 2016-08-17 삼성전자 주식회사 복수의 터치 센서를 이용한 ui 제공방법 및 이를 이용한 휴대 단말기
WO2011069435A1 (zh) * 2009-12-07 2011-06-16 北京联想软件有限公司 操作对象的操作控制的方法及终端设备
DE102011006344B4 (de) 2010-03-31 2020-03-12 Joyson Safety Systems Acquisition Llc Insassenmesssystem
JP5805974B2 (ja) 2010-03-31 2015-11-10 ティーケー ホールディングス,インコーポレーテッド ステアリングホイールセンサ
JP5759230B2 (ja) 2010-04-02 2015-08-05 ティーケー ホールディングス,インコーポレーテッド 手センサを有するステアリング・ホイール
CN102221957B (zh) * 2010-04-16 2014-04-23 联想(北京)有限公司 电子设备的操作控制的方法及电子设备
US20110267181A1 (en) * 2010-04-29 2011-11-03 Nokia Corporation Apparatus and method for providing tactile feedback for user
US20110267294A1 (en) * 2010-04-29 2011-11-03 Nokia Corporation Apparatus and method for providing tactile feedback for user
JP2011238125A (ja) * 2010-05-12 2011-11-24 Sony Corp 画像処理装置および方法、並びにプログラム
US8378985B2 (en) * 2010-05-26 2013-02-19 Sony Mobile Communications Ab Touch interface for three-dimensional display control
KR101077308B1 (ko) 2010-07-13 2011-10-26 삼성전기주식회사 터치패널의 압력센싱 모듈 및 그 작동방법
JP6049990B2 (ja) * 2010-09-15 2016-12-21 京セラ株式会社 携帯電子機器、画面制御方法および画面制御プログラム
JP2012113521A (ja) * 2010-11-25 2012-06-14 Sharp Corp 電子機器、表示制御方法、およびプログラム
US20120159373A1 (en) * 2010-12-15 2012-06-21 Verizon Patent And Licensing, Inc. System for and method of generating dog ear bookmarks on a touch screen device
CN106984041B (zh) * 2011-02-11 2021-07-06 漳州市舟锋电子科技有限公司 一种人机互动控制系统
US8892162B2 (en) * 2011-04-25 2014-11-18 Apple Inc. Vibration sensing system and method for categorizing portable device context and modifying device operation
JP5694867B2 (ja) * 2011-06-27 2015-04-01 京セラ株式会社 携帯端末装置、プログラムおよび表示制御方法
EP3457672B1 (en) 2011-09-27 2019-11-20 Nec Corporation Portable electronic device, touch operation processing method, and program
US9423876B2 (en) * 2011-09-30 2016-08-23 Microsoft Technology Licensing, Llc Omni-spatial gesture input
CN102368197A (zh) * 2011-10-02 2012-03-07 上海量明科技发展有限公司 用以触摸屏操作的方法及系统
US9681121B2 (en) 2012-01-11 2017-06-13 Ultra-D Coöperatief U.A. Mobile display device
JP5840980B2 (ja) 2012-02-29 2016-01-06 株式会社日本自動車部品総合研究所 操作位置検出装置、及び車載装置
KR101943435B1 (ko) * 2012-04-08 2019-04-17 삼성전자주식회사 플렉서블 디스플레이 장치 및 그 동작 방법
WO2013154720A1 (en) 2012-04-13 2013-10-17 Tk Holdings Inc. Pressure sensor including a pressure sensitive material for use with control systems and methods of using the same
WO2013192539A1 (en) 2012-06-21 2013-12-27 Nextinput, Inc. Wafer level mems force dies
KR101341737B1 (ko) * 2012-06-21 2013-12-16 주식회사 팬택 후면 터치를 이용한 단말 제어 장치 및 방법
EP2870445A1 (en) 2012-07-05 2015-05-13 Ian Campbell Microelectromechanical load sensor and methods of manufacturing the same
KR102042211B1 (ko) * 2012-08-20 2019-11-07 삼성전자주식회사 벤딩 상태에 따라 오브젝트를 변경하여 디스플레이하는 전자 장치 및 방법
US9081542B2 (en) 2012-08-28 2015-07-14 Google Technology Holdings LLC Systems and methods for a wearable touch-sensitive device
FR2995419B1 (fr) 2012-09-12 2015-12-11 Commissariat Energie Atomique Systeme d'interface utilisateur sans contact
WO2014043664A1 (en) 2012-09-17 2014-03-20 Tk Holdings Inc. Single layer force sensor
KR20140044227A (ko) 2012-10-04 2014-04-14 삼성전자주식회사 플렉서블 디스플레이 장치 및 그의 제어 방법
FR2996933B1 (fr) 2012-10-15 2016-01-01 Isorg Appareil portable a ecran d'affichage et dispositif d'interface utilisateur
CN103793163A (zh) * 2012-10-30 2014-05-14 联想(北京)有限公司 一种信息处理的方法及电子设备
US10725726B2 (en) 2012-12-20 2020-07-28 Strubwerks, LLC Systems, methods, and apparatus for assigning three-dimensional spatial data to sounds and audio files
US20150339028A1 (en) * 2012-12-28 2015-11-26 Nokia Technologies Oy Responding to User Input Gestures
BR102013001541A2 (pt) * 2013-01-21 2014-09-09 Multi Brasil Franqueadora E Participacoes Ltda Sistema de cartão de áudio + caneta acionadora, usado como material de apoio em métodos de ensino de idiomas
KR102178845B1 (ko) * 2013-01-29 2020-11-13 삼성전자주식회사 햅틱을 제어하는 휴대 단말 및 방법
KR102120099B1 (ko) * 2013-02-06 2020-06-09 엘지전자 주식회사 양면 터치 인식 가능한 디지털 디바이스 및 제어 방법
CN103123550B (zh) * 2013-02-19 2016-04-20 苏州佳世达电通有限公司 触控方法
US20150363039A1 (en) * 2013-02-27 2015-12-17 Nec Corporation Terminal device, information display method, and recording medium
US9082223B2 (en) * 2013-03-15 2015-07-14 Dreamworks Animation Llc Smooth manipulation of three-dimensional objects
CN103513879B (zh) * 2013-04-26 2017-10-24 展讯通信(上海)有限公司 触控设备及其显示控制方法及装置
US9753436B2 (en) 2013-06-11 2017-09-05 Apple Inc. Rotary input mechanism for an electronic device
KR20220116337A (ko) 2013-08-09 2022-08-22 애플 인크. 전자 디바이스용 촉각 스위치
CN104571896B (zh) * 2013-10-22 2019-02-05 联想(北京)有限公司 指令处理方法、装置及电子设备
WO2015096020A1 (en) * 2013-12-24 2015-07-02 Intel Corporation Adaptive enclosure for a mobile computing device
WO2015106246A1 (en) 2014-01-13 2015-07-16 Nextinput, Inc. Miniaturized and ruggedized wafer level mems force sensors
US10048802B2 (en) 2014-02-12 2018-08-14 Apple Inc. Rejection of false turns of rotary inputs for electronic devices
FR3017723B1 (fr) * 2014-02-19 2017-07-21 Fogale Nanotech Procede d'interaction homme-machine par combinaison de commandes tactiles et sans contact
KR20150105140A (ko) * 2014-03-07 2015-09-16 삼성전자주식회사 휴대 단말기 및 컨텐츠 확대 표시 방법
CN105320327A (zh) * 2014-07-25 2016-02-10 南京瀚宇彩欣科技有限责任公司 手持式电子装置及其触控外盖
CN105278721A (zh) * 2014-07-25 2016-01-27 南京瀚宇彩欣科技有限责任公司 无挡触控的手持式电子装置及触控外盖
KR102544557B1 (ko) 2014-09-02 2023-06-20 애플 인크. 웨어러블 전자 디바이스
CN105630365A (zh) * 2014-10-29 2016-06-01 深圳富泰宏精密工业有限公司 网页调整方法及系统
KR101667727B1 (ko) * 2014-10-31 2016-10-28 엘지전자 주식회사 이동 단말기 및 이의 제어방법
KR102163612B1 (ko) 2015-03-08 2020-10-08 애플 인크. 회전 및 병진 가능한 입력 메커니즘을 갖는 시계
CN107848788B (zh) 2015-06-10 2023-11-24 触控解决方案股份有限公司 具有容差沟槽的加固的晶圆级mems力传感器
US10739968B2 (en) * 2015-11-23 2020-08-11 Samsung Electronics Co., Ltd. Apparatus and method for rotating 3D objects on a mobile device screen
JP6711632B2 (ja) 2016-02-08 2020-06-17 キヤノン株式会社 情報処理装置、情報処理方法、及び、プログラム
US10061399B2 (en) 2016-07-15 2018-08-28 Apple Inc. Capacitive gap sensor ring for an input device
US10019097B2 (en) 2016-07-25 2018-07-10 Apple Inc. Force-detecting input structure
US11255737B2 (en) 2017-02-09 2022-02-22 Nextinput, Inc. Integrated digital force sensors and related methods of manufacture
WO2018148510A1 (en) 2017-02-09 2018-08-16 Nextinput, Inc. Integrated piezoresistive and piezoelectric fusion force sensor
DK179555B1 (en) 2017-05-16 2019-02-13 Apple Inc. USER INTERFACE FOR A FLASHLIGHT MODE ON AN ELECTRONIC DEVICE
WO2019018641A1 (en) 2017-07-19 2019-01-24 Nextinput, Inc. STACK OF STRAIN TRANSFER IN A MEMS FORCE SENSOR
WO2019023309A1 (en) 2017-07-25 2019-01-31 Nextinput, Inc. FORCE SENSOR AND INTEGRATED FINGERPRINTS
WO2019023552A1 (en) 2017-07-27 2019-01-31 Nextinput, Inc. PIEZORESISTIVE AND PIEZOELECTRIC FORCE SENSOR ON WAFER AND METHODS OF MANUFACTURING THE SAME
KR102363707B1 (ko) * 2017-08-03 2022-02-17 삼성전자주식회사 압력 센서를 포함하는 전자 장치 및 전자 장치 제어 방법
WO2019079420A1 (en) 2017-10-17 2019-04-25 Nextinput, Inc. SHIFT TEMPERATURE COEFFICIENT COMPENSATION FOR FORCE SENSOR AND STRAIN GAUGE
WO2019090057A1 (en) 2017-11-02 2019-05-09 Nextinput, Inc. Sealed force sensor with etch stop layer
US11874185B2 (en) 2017-11-16 2024-01-16 Nextinput, Inc. Force attenuator for force sensor
US10761674B2 (en) * 2018-01-18 2020-09-01 Honeywell International Inc. Systems and methods for providing user-manipulated primary flight display (PFD) data onboard an aircraft
US11360440B2 (en) 2018-06-25 2022-06-14 Apple Inc. Crown for an electronic watch
US10852853B2 (en) * 2018-06-28 2020-12-01 Dell Products L.P. Information handling system touch device with visually interactive region
US10664101B2 (en) 2018-06-28 2020-05-26 Dell Products L.P. Information handling system touch device false touch detection and mitigation
US11561515B2 (en) 2018-08-02 2023-01-24 Apple Inc. Crown for an electronic watch
CN211293787U (zh) 2018-08-24 2020-08-18 苹果公司 电子表
CN209625187U (zh) 2018-08-30 2019-11-12 苹果公司 电子手表和电子设备
US10962427B2 (en) 2019-01-10 2021-03-30 Nextinput, Inc. Slotted MEMS force sensor
US11194299B1 (en) 2019-02-12 2021-12-07 Apple Inc. Variable frictional feedback device for a digital crown of an electronic watch
CN110096208A (zh) * 2019-03-29 2019-08-06 努比亚技术有限公司 一种设备控制方法、装置及计算机可读存储介质
CN110312073B (zh) * 2019-06-25 2021-03-16 维沃移动通信有限公司 一种拍摄参数的调节方法及移动终端
US11550268B2 (en) 2020-06-02 2023-01-10 Apple Inc. Switch module for electronic crown assembly

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5708460A (en) 1995-06-02 1998-01-13 Avi Systems, Inc. Touch screen

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6597347B1 (en) * 1991-11-26 2003-07-22 Itu Research Inc. Methods and apparatus for providing touch-sensitive input in multiple degrees of freedom
BE1007462A3 (nl) 1993-08-26 1995-07-04 Philips Electronics Nv Dataverwerkings inrichting met aanraakscherm en krachtopnemer.
US5905485A (en) * 1997-02-13 1999-05-18 Breed Automotive Technology, Inc. Controller with tactile sensors and method of fabricating same
US7800592B2 (en) * 2005-03-04 2010-09-21 Apple Inc. Hand held electronic device with multiple touch sensing devices
US6492979B1 (en) * 1999-09-07 2002-12-10 Elo Touchsystems, Inc. Dual sensor touchscreen utilizing projective-capacitive and force touch sensors
US7075513B2 (en) * 2001-09-04 2006-07-11 Nokia Corporation Zooming and panning content on a display screen
GB2384649B (en) 2002-01-28 2004-08-25 Motorola Inc Telephone handset units
JP3852368B2 (ja) * 2002-05-16 2006-11-29 ソニー株式会社 入力方法及びデータ処理装置
US7456823B2 (en) 2002-06-14 2008-11-25 Sony Corporation User interface apparatus and portable information apparatus
US7508377B2 (en) * 2004-03-05 2009-03-24 Nokia Corporation Control and a control arrangement
US20070205997A1 (en) * 2004-03-29 2007-09-06 Koninklijke Philips Electronics N.V. Controlling A Visual Display By Bending
US7619616B2 (en) * 2004-12-21 2009-11-17 Microsoft Corporation Pressure sensitive controls
CN101133385B (zh) * 2005-03-04 2014-05-07 苹果公司 手持电子设备、手持设备及其操作方法
US8265688B2 (en) * 2007-12-31 2012-09-11 Motorola Mobility Llc Wireless communication device and split touch sensitive user input surface

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5708460A (en) 1995-06-02 1998-01-13 Avi Systems, Inc. Touch screen

Also Published As

Publication number Publication date
EP2310930A4 (en) 2016-07-13
EP2310930B1 (en) 2018-07-25
EP2310930A1 (en) 2011-04-20
US20090315834A1 (en) 2009-12-24
CN102067070B (zh) 2019-04-23
US8130207B2 (en) 2012-03-06
WO2009153391A1 (en) 2009-12-23
DK2310930T3 (en) 2018-10-15
KR20110040845A (ko) 2011-04-20
CN102067070A (zh) 2011-05-18

Similar Documents

Publication Publication Date Title
KR101116442B1 (ko) 양면 입력 디바이스를 이용해서 전자 기기를 조작하는 장치, 방법 및 컴퓨터-판독 가능 매체
AU2019338180B2 (en) User interfaces for simulated depth effects
EP2783472B1 (en) Apparatus and method for providing dynamic fiducial markers for devices
US8823749B2 (en) User interface methods providing continuous zoom functionality
EP2630563B1 (en) Apparatus and method for user input for controlling displayed information
EP2407869B1 (en) Mobile terminal and controlling method thereof
CN104932809B (zh) 用于控制显示面板的装置和方法
CN101910983B (zh) 无线通信装置和拼合式触敏用户输入表面
KR20180134668A (ko) 이동 단말기 및 그 제어방법
WO2014066115A1 (en) Camera zoom indicator in mobile devices
KR20100125635A (ko) 이동 통신 단말기에서의 메뉴 실행 방법 및 이를 적용한 이동 통신 단말기
US20120284671A1 (en) Systems and methods for interface mangement
US20120284668A1 (en) Systems and methods for interface management
US10001906B2 (en) Apparatus and method for providing a visual indication of an operation
WO2020055613A1 (en) User interfaces for simulated depth effects
KR20100099587A (ko) 이동 단말기 및 그 제어 방법
US10289293B2 (en) Method and apparatus for adjusting a graphical object according to operator preference
US9338432B1 (en) Mobile device with 3-dimensional user interface
KR101622695B1 (ko) 이동 단말기 및 그것의 제어방법
KR102117450B1 (ko) 디스플레이 장치 및 그 제어 방법
KR101165388B1 (ko) 이종의 입력 장치를 이용하여 화면을 제어하는 방법 및 그 단말장치
EP2796979B1 (en) Method and apparatus for adjusting a graphical object according to operator preference

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150119

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160119

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170119

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180118

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190116

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20200115

Year of fee payment: 9