KR20130108604A - 표시된 정보를 제어하기 위한 사용자 입력 장치 및 방법 - Google Patents

표시된 정보를 제어하기 위한 사용자 입력 장치 및 방법 Download PDF

Info

Publication number
KR20130108604A
KR20130108604A KR1020137012833A KR20137012833A KR20130108604A KR 20130108604 A KR20130108604 A KR 20130108604A KR 1020137012833 A KR1020137012833 A KR 1020137012833A KR 20137012833 A KR20137012833 A KR 20137012833A KR 20130108604 A KR20130108604 A KR 20130108604A
Authority
KR
South Korea
Prior art keywords
virtual layer
input
detected
hovering
input surface
Prior art date
Application number
KR1020137012833A
Other languages
English (en)
Other versions
KR101488121B1 (ko
Inventor
미코 누르미
Original Assignee
노키아 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 노키아 코포레이션 filed Critical 노키아 코포레이션
Publication of KR20130108604A publication Critical patent/KR20130108604A/ko
Application granted granted Critical
Publication of KR101488121B1 publication Critical patent/KR101488121B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

본 발명의 예시적인 실시예에 따르면, 근접도 기반 입력을 위한 방법이 제공되고, 이 방법은 입력면에 근접한 물체의 존재를 검출하는 단계(300), 입력면까지의 물체의 거리에 기초하여 물체와 현재 연관된 표시된 가상 레이어를 검출하는 단계(310), 물체에 의한 호버링 입력을 검출하는 단계(320) 및 디스플레이 동작이 검출된 호버링 입력에 따라 연관된 가상 레이어의 적어도 일부를 이동시키게 하는 단계(330)를 포함한다.

Description

표시된 정보를 제어하기 위한 사용자 입력 장치 및 방법{APPARATUS AND METHOD FOR USER INPUT FOR CONTROLLING DISPLAYED INFORMATION}
본 발명은 표시된 정보를 제어하기 위한 사용자 입력 장치 및 방법에 관한 것이다.
터치 스크린은 예를 들어, PDA(개인 휴대 정보 단말) 디바이스, 테이블탑, 터치 표면 및 모바일 디바이스와 같은 다수의 휴대용 전자 디바이스에 광범위하게 사용된다. 터치 스크린은 포인팅 디바이스(또는 스타일러스)에 의해 및/또는 손가락에 의해 동작 가능하다. 통상적으로, 디바이스는 특정 동작을 위한 통상의 버튼을 또한 포함한다.
입체 이미지를 표시하는 것이 가능한 3D 디스플레이가 또한 휴대용 및 휴대형 디바이스를 위해 또한 개발되어 왔다. 입체 디스플레이는 3차원(3D) 이미지로서 사용자에 의해 인식된 UI 아이템을 표시하는데 사용될 수 있다. 3D 디스플레이의 도입은 또한 사용자 상호 작용 디자인에 대한 새로운 과제 및 가능성을 유도한다.
본 발명의 예의 다양한 양태가 청구범위에 설명되어 있다.
양태에 따르면, 장치가 적어도 하나의 프로세서와, 컴퓨터 프로그램 코드를 포함하는 적어도 하나의 메모리를 포함하고, 적어도 하나의 메모리 및 컴퓨터 프로그램 코드는, 적어도 하나의 프로세서와 함께 상기 장치로 하여금, 적어도 입력면에 근접한 물체의 존재를 검출하고, 입력면까지의 물체의 거리에 기초하여 물체와 현재 연관된 표시된 가상 레이어를 검출하고, 물체에 의한 호버링 입력(hovering input)을 검출하고, 디스플레이 동작이 검출된 호버링 입력에 따라 연관된 가상 레이어의 적어도 일부를 이동하도록 구성된다.
양태에 따르면, 입력면에 근접한 물체의 존재를 검출하는 단계와, 입력면까지의 물체의 거리에 기초하여 물체와 현재 연관된 표시된 가상 레이어를 검출하는 단계와, 물체에 의한 호버링 입력을 검출하는 단계와, 디스플레이 동작이 검출된 호버링 입력에 따라 연관된 가상 레이어의 적어도 일부를 이동시키게 하는 단계를 포함하는 방법이 제공된다.
예시적인 실시예에 따르면, 입력면까지의 레이어의 적어도 일부의 거리는 호버링 입력에 따라 적응된다.
다른 예시적인 실시예에 따르면, 2차원 모드와 3차원 모드 사이의 표시 모드의 변경은 검출된 호버링 입력에 기초하여 검출되고, 2차원 또는 3차원 뷰는 표시는 표시 모드의 검출된 변경에 따라 제어된다.
본 발명 및 본 발명의 다양한 실시예는 이하의 상세한 설명으로부터 명백해질 다수의 장점을 제공한다.
도 1a 및 도 1b는 예시적인 실시예에 따른 가상 레이어의 조작을 도시하는 도면.
도 2는 본 발명의 예시적인 실시예에 따른 장치의 측면도의 개략 블록 다이어그램.
도 3 및 도 4는 본 발명의 예시적인 실시예에 따른 방법을 도시하는 도면.
도 5 및 도 6은 본 발명의 몇몇 예시적인 실시예에 따른 입력 호버링에 기초하는 가상 레이어의 외관 적응의 측면도.
도 7a 및 도 7b는 예시적인 실시예에 따른 가상 레이어의 외관 적응의 평면도.
도 8은 예시적인 실시예에 따른 방법을 도시하는 도면.
도 9, 도 10, 도 11a, 도 11b, 도 12 및 도 13은 몇몇 예시적인 실시예에 따른 입력 호버링에 기초하는 가상 레이어의 외관 적응의 측면도.
도 14는 예시적인 실시예에 따른 방법을 도시하는 도면.
도 15는 본 발명의 예시적인 실시예에 따른 전자 디바이스를 도시하는 도면.
본 발명의 예시적인 실시예의 더 완전한 이해를 위해, 첨부 도면과 관련하여 취한 이하의 상세한 설명을 참조한다.
도 1a는 가상 3차원 공간의 가상 레이어(2a, 2b, 2c)의 디스플레이를 도시한다. 가상 레이어(2a 내지 2c)는 디스플레이 표면(3)의 상부에 위치되는 것으로 나타나도록 입체 디스플레이에 의해 표시될 수 있다. 가상 레이어는 적어도 부분적으로 중첩될 수 있는 층상화된 또는 적층된 3D 레벨 또는 뷰의 세트 중에서, 일반적으로 레벨 또는 뷰라 칭한다. 가상 레이어는 또한 3D 레이어라 칭하고, 표시된 3D 공간 환영에 기여하는 것으로 고려될 수 있다. 가상 레이어는 단지 디스플레이 영역의 부분만을 커버할 수 있고, 개별 가상 레이어는 디스플레이의 상이한 영역을 커버하도록 부착될 수 있다. 가상 레이어는 적어도 부분적으로 투명할 수 있는 복수의 2D 및/또는 3D 그래픽 사용자 인터페이스(GUI) 아이템을 표시할 수 있다. 가상 레이어는 다양한 형태를 가질 수 있고, 몇몇 실시예에서 이들의 형상은 사용자에 의해 수정될 수 있다는 것이 이해될 수 있을 것이다.
예시적인 실시예에서, 호버링이 하나 이상의 가상 레이어(2a 내지 2c)의 외관 및/또는 위치를 제어하는데 사용된다. 호버링은 일반적으로 터치 스크린의 입력면과 같은 입력면(3)에 근접하지만 접촉하지는 않는 손가락 또는 스타일러스와 같은 입력 물체(1)의 도입을 칭한다. 3D 뷰의 표시된 가상 레이어(2a 내지 2c) 중에서, 현재 물체와 연관된 레이어(2a)는 입력면(3)까지의 물체(1)의 거리(4)에 기초하여 검출될 수 있다. 이는 광범위하게 이해되어야 하고, 예를 들어 특정하게 추정된 거리값에 기초하는 또는 물체의 거리에 의존하는 신호값에 기초하는 검출을 포함할 수 있다.
연관 가상 레이어의 적어도 일부의 예시된 이동을 야기하는 표시 동작은 검출된 호버링 입력에 따라 제어될 수 있다. 가상 레이어(2a)와 연관된 호버링 입력은 예를 들어, 가상 레이어와 연관된 입력 물체(1)의 감지된 이동에만 기초하여 검출될 수 있고, 또는 입력 물체에 의한 소정의 다른 특정 제스처가 요구될 수 있다. 이들 특징은 입력면(3) 위의 공간을 이용함으로써 3D 디스플레이 뷰를 조작하기 위한 다수의 직관적인 상호 작용 옵션을 가능하게 한다. 가상 레이어는 사용자의 손가락과 같은 실생활 물체에 반응하도록 시각화될 수 있어, 사용자를 위한 3D 감각을 강화할 수 있게 한다.
도 1b의 예에 지시된 바와 같이, 연관된 레이어(2a)는 예를 들어 연관된 레이어(2a)의 배향을 변경하고 레이어(5)를 다른 레이어(2b)에 근접하게 함으로써, 호버링 입력으로서 검출된 추가의 손가락 이동에 기초하여 조작될 수 있다.
도 2는 호버링 기반 가상 레이어 제어가 제공될 수 있는 예시적인 장치(100)를 도시한다. 장치(100)는 주변 디바이스일 수 있고 또는 전자 디바이스에 일체화될 수도 있다. 전자 디바이스의 예는 컴퓨터, 미디어 플레이어, 무선 통신 단말 디바이스 등과 같은 임의의 소비자 전자 디바이스를 포함한다.
장치(100)는 입력 물체(1)가 입력면(112)에 근접하지만 접촉하지는 않을 때를 검출하도록 구성된 근접도 검출 시스템 또는 유닛(120)을 포함한다. 입력면(112)은 사용자 입력을 검출하는 것이 가능한 장치의 터치 스크린 또는 다른 입력 디바이스의 표면일 수 있다.
호버링 영역이라 또한 칭할 수도 있는 감지 영역(140)은 호버링 입력 물체(1) 및 호버링 입력이 검출되는 근사 영역 및/또는 거리를 예시할 수 있다. 입력면(112)에 접촉하지 않는 입력 물체(1)에 적어도 부분적으로 기초하여 검출된 호버링 영역(140)에서 특정 검출된 제스처와 같은 사용자 입력은 호버링 입력이라 칭할 수 있다. 이러한 호버링 입력은 적어도 하나의 기능, 예를 들어 UI 아이템의 선택, 가상 레이어의 선택, 디스플레이 영역의 주밍, 팝업 메뉴의 활성화, UI 아이템 또는 가상 레이어의 수정 또는 가상 레이어의 이동과 연관된다. 호버링 입력 물체(1) 및 호버링 입력은 사전 규정된 임계값에 부합하는 입력면(112)까지의 입력 물체(1)의 거리(150) 또는 감지 신호에 기초하여 검출될 수 있다. 몇몇 실시예에서, 호버링 영역(140)은 입력면(112)에 터치하지 않고도, 장치(100) 내에 데이터를 입력하고 그리고/또는 액세스하는 것을 또한 가능하게 한다.
몇몇 실시예에서, 검출 시스템(120)은 하나 이상의 근접도 센서(122)에 의해 감지 필드를 생성한다. 일 예시적인 실시예에서, 용량성 근접도 검출 시스템이 적용되고, 이에 의해 센서(122)는 용량성 감지 노드이다. 감지 필드 내의 하나 이상의 입력 물체(100)에 의한 장애가 모니터링되고, 하나 이상의 물체의 존재는 검출된 장애에 기초하여 검출된다. 용량성 검출 회로(120)는 터치 스크린(110)의 표면 위의 캐패시턴스의 변화를 검출한다.
그러나, 본 발명의 특징은 임의의 특정 유형의 근접도 검출의 적용에 제한되지 않는다는 것이 이해될 수 있을 것이다. 근접도 검출 시스템(120)은 적외선 근접도 검출, 광학 섀도우 검출, 음향 방출 검출, 초음파 검출 또는 임의의 다른 적합한 근접도 검출 기술에 기초할 수 있다. 예를 들어, 근접도 검출 시스템(120)이 적외선 검출에 기초할 수 있는 경우에, 시스템은 적외광의 펄스를 송출하는 하나 이상의 이미터를 포함할 것이다. 하나 이상의 검출기는 가까운 물체(100)로부터 이 광의 반사를 검출하기 위해 제공될 것이다. 시스템이 반사광을 검출하면, 입력 물체가 존재하는 것으로 간주된다.
검출 시스템(120)은 입력면(112)으로부터 입력 물체(1)의 거리를 추정(또는 거리의 추정을 가능하게 하는 신호를 제공)하도록 배열될 수 있고, 이는 입력면(112)에 관련한 물체(1)의 위치의 z 좌표 데이터를 제공하는 것을 가능하게 한다. 근접도 검출 시스템(120)은 또한 호버링 입력의 영역 또는 타겟 UI 아이템을 결정하는 것을 가능하게 하기 위해 물체(1)의 x, y 위치에 대한 정보를 생성하도록 배열될 수 있다. x 및 y 방향은 일반적으로 입력면(112)에 실질적으로 평행하고, z 방향은 입력면(112)에 실질적으로 수직이다. 적용된 근접도 검출 기술, 장치(100) 및 입력면(112)의 크기 및 원하는 사용자 상호 작용에 따라, 호버링 영역(140)은 예를 들어 수 밀리미터로부터 심지어 수십 센티미터까지 선택된 거리만큼 입력면(112)으로부터 연장되도록 배열될 수 있다. 근접도 검출 시스템(120)은 또한 사용자의 손의 다른 부분의 검출을 가능하게 할 수 있고, 시스템은 오류 입력을 인식하고 다른 작용을 회피하도록 배열될 수 있다.
가상 레이어는 디스플레이(110)에 의해 호버링 영역(140)에 표시될 수 있다. 몇몇 실시예에서, 근접도 검출 시스템(120)은 터치 스크린 디스플레이를 포함하는 장치에 제공된다. 따라서, 디스플레이(110)는 터치 스크린 입력면에 대한 터치 입력을 감지하기 위한 복수의 터치 감응식 검출기(114)를 포함하는 터치 스크린 디스플레이일 수 있다.
장치(100)는 입체 뷰를 표시하는 것이 가능한 입체 디스플레이를 포함할 수 있다. 입체 디스플레이는 도 1a 및 도 1b에 도시된 바와 같이 가상 레이어(2a 내지 2c)와 같은 하나 이상의 가상 레이어 상에 3D 이미지(들)를 생성하도록 배열될 수 있다. 입체 디스플레이는 상이한 방향에서 이미지의 특정 서브 화소로부터 정보를 지향할 수 있어, 뷰어가 각각의 눈으로 상이한 화상을 볼 수 있게 된다. 화상이 충분히 유사하면, 인간의 두뇌는 뷰어가 단일의 물체를 보는 것으로 간주하고 인식된 단일 물체를 생성하도록 2개의 화상 위의 정합점을 함께 융합할 것이다. 3D 이미지를 위한 데이터는 예를 들어 다중 2차원 이미지를 촬영함으로써 그리고 입체 디스플레이 상에 제시를 위해 단일 이미지의 서브 화소에 이미지의 화소를 조합함으로써 얻어질 수 있다. 일 대안예에서, 서로에 대해 작은 사전 지정된 거리에 배열된 2개의 카메라는 3D 제시를 위한 2차원 이미지를 촬영한다. 각각의 카메라는 캡처된 이미지에 이미지 프로세싱을 적용하는 이미지 체인을 포함할 수 있다. 입체 디스플레이 시스템은 사용자 영상 디바이스 및 눈 위치 추적 기능을 또한 포함할 수 있다. 디스플레이(110)는 특정 2D 및 3D 모드를 가질 수 있고, 시스템은 이들 모드들 사이에서 스위칭이 가능하다. 원하는 구현 및 적용된 입체 디스플레이 기술에 따라, 몇몇 실시예에서 터치 스크린인 디스플레이(110)는 입체 디스플레이 특징을 제공하도록 배열될 수 있고, 또는 입체 디스플레이의 요소는 터치 스크린 디스플레이(110)(도 2에는 구체적으로 도시되지 않음)로부터 적어도 부분적으로 분리될 수 있다. 일 실시예에서, 입체 디스플레이는 무안경 입체 디스플레이이고, 가상 레이어는 무안경 입체 뷰인데, 이는 일반적으로 사용자를 위한 특정 안경을 필요로하지 않는 UI 아이템의 입체 제시라 칭한다. 예를 들어 패럴랙스 배리어 및/또는 렌티큘러 렌즈에 기초하는 또는 홀로그래피 및/또는 눈 추적을 적용하는 무안경 입체 디스플레이와 같은 다양한 무안경 입체 디스플레이가 적용될 수 있다.
근접도 검출 시스템(120)은 제어기(130)에 결합된다. 근접도 검출 시스템(120)은 입력 물체(1)가 호버링 영역(140)에서 검출될 때 제어기(130)에 신호를 제공하도록 구성된다. 이러한 입력 신호에 기초하여, 명령, 선택 및 다른 유형의 동작이 개시될 수 있어, 통상적으로 사용자를 위한 시각, 청각 및/또는 촉각 피드백을 발생시킨다. 터치 감응식 검출기(114)로의 터치 입력은 제어 회로를 경유하여 제어기(130) 또는 다른 제어기로 신호화될 수 있다.
제어기(130)는 또한 3D 디스플레이 특징을 갖는 터치 스크린 디스플레이 및/또는 개별 3D 디스플레이 유닛과 같은 하나 이상의 출력 디바이스에 접속될 수 있다. 제어기(130)는 디스플레이(110) 상의 상이한 애플리케이션 뷰를 제어하도록 구성될 수 있다. 제어기(130)는 근접도 검출 시스템(120) 및 터치 감응식 검출기(114)로부터의 신호에 기초하여 터치 입력 및 호버링 입력을 검출할 수 있다. 제어기(130)는 이어서 검출된 터치 입력 또는 호버링 입력과 연관된 디스플레이 기능을 제어할 수 있다. 또한, 제어기(130)는 호버링 물체(1)와 현재 연관된 가상 레이어를 검출하고, 표시 동작이 검출된 호버링 입력에 따라 연관된 레이어의 적어도 일부를 이동시키게 하도록 배열될 수 있다. 제어기(130)에 의해 적어도 부분적으로 수행될 수 있는 다른 특징의 몇몇 예가 이하에 예시된다. 제어기(130) 기능은 단일 제어 유닛 또는 복수의 제어 유닛에 의해 구현될 수 있다는 것이 이해될 수 있을 것이다.
장치(100)는 본 명세서에 상세히 설명되지 않은 다양한 다른 요소를 포함할 수 있다는 것이 이해될 수 있을 것이다. 장치(100) 및 제어기(130)는 단일 엔티티로서 도시되어 있지만, 상이한 특징이 하나 이상의 물리적 또는 논리적 엔티티에 구현될 수 있다. 예를 들어, 제어기(130)의 제어 특징을 수행하도록 구성된 칩셋 장치가 제공될 수 있다. 예를 들어 도 3, 도 4, 도 8 및 도 14와 관련하여 설명되는 블록들 중 하나 이상을 수행하기 위한, 특정 기능 모듈(들)이 또한 존재할 수도 있다. 일 예시적인 변형예에서, 근접도 검출 시스템(120) 및 입력면(112)은 예를 들어 휴대형 전자 디바이스의 측면 또는 후면(디스플레이의 위치의 견지에서) 상에서 디스플레이(110)로부터 이격하여 위치된다.
도 3은 예시적인 실시예에 따라 호버링에 기초하여 가상 레이어의 조작을 제어하기 위한 방법을 도시한다. 방법은 예를 들어 제어기(130)에 의해 제어 알고리즘으로서 적용될 수 있다.
입력면에 근접한 물체의 존재가 검출된다(300). 입체 디스플레이의 적어도 2개의 가상 레이어 중에서, 물체와 현재 연관된 레이어가 입력면까지의 물체의 거리에 기초하여 검출된다(310).
물체에 의한 호버링 입력이 검출된다(320). 호버링 입력 및 현재 연관된 레이어는 실질적으로 동시에 검출될 수 있고, 또는 사용자는 블록(310) 후에 단지 소정 시간에 호버링 입력을 수행할 수 있다는 것이 이해되어야 한다. 더욱이, 도 3의 일 예시적인 변형예에서, 연관된 레이어는 호버링 입력의 검출(320) 후에 검출된다.
연관된 레이어의 적어도 일부를 이동시키기 위한 표시 동작이 검출된 호버링 입력에 따라 행해진다(330). 도 1의 예를 또한 참조하면, 장치(100)는 따라서 방향 x, y, z의 하나 이상으로 이동하도록 선택된 레이어(2a)를 예시하기 위해 디스플레이를 적용하도록 배열될 수 있다. 예를 들어, 입력면에 대한 레이어(2a)의 적어도 일부의 상대 거리는 호버링 입력에 따라 적응된다. 따라서, 가상 레이어는 손가락 이동에 반응하도록 배열될 수 있고, 사용자는 손가락에 따라 이동하는 레이어의 감각을 구비할 수 있다. 선택된 레이어를 위한 다양한 동작은 방향 x, y, z 중 하나 이상에서 물체(1)의 이동과 연관될 수 있다. 몇몇 추가의 예가 이하에 예시된다.
장치(100)는 호버링 제스처(들)를 검출하도록 구성될 수 있다. 일 예시적인 실시예에서, 장치는 적어도 하나의 가상 레이어(1a)와 연관된 호버링 제스처를 검출하도록 구성된 블록(320) 내에 있다. 레이어의 적어도 일부의 이동의 선택 및/또는 예시는 호버링 제스처에 따라 제어될 수 있다(330). 예를 들어, 장치(100)는 가상 레이어와 연관된 회전 또는 더블 클릭을 검출하도록 배열될 수 있다.
몇몇 예시적인 실시예에서, 도 4에 도시된 바와 같이, 장치(100)는 입력면(3)에 평행한 x, y 방향에서 물체(1)의 측방향 위치를 검출하도록(400) 구성된다. 레이어의 적어도 일부의 이동은 검출된 측방향 위치에 따라 제어될 수 있다(410). 도 1a, 도 1b, 도 5, 도 6, 도 7a 및 도 7b는 물체의 x, y 위치가 연관된 가상 레이어의 시각화된 이동에 영향을 미치는 몇몇 예를 도시한다.
예를 들어, 도 5를 참조하면, 호버링 이동이 레이어(2)의 중앙부(500) 내에서 검출될 때, 전체 레이어가 선택되고 표시 동작은 입력면을 향해 전체 레이어(2)의 이동을 예시하도록(510) 제어된다. 일 실시예에서, 레이어(2a)는 전체 레이어를 선택하는 호버링 동작에 의해 다른 레이어(2b)를 향해 이동될 수 있고, 레이어는 동일한 레벨이 될 수 있다. 장치(100)는 또한 역 호버링 입력에 의해 상이한 레벨로 3D 뷰의 분리를 시각화하도록 배열될 수 있다.
일 예시적인 실시예에서, 도 6, 도 7a 및 도 7b에 도시된 바와 같이, 장치(100)는 레이어(2)의 부분이 입력면에 접근하게 하도록(610, 620) 구성된다. 또한, 틸트 동작(700)이 물체의 검출된 측방향 위치(600)에 기초하여 레이어(2)를 위해 배열될 수 있다. 예를 들어, 레이어(2)는 3D 도시 맵 뷰를 제공할 수 있다. 손가락이 레이어(2)의 일 측면으로부터 입력면을 향해 호버링하는 것에 응답하여, 맵 뷰는 일 측면으로부터 틸트될 수 있고 맵은 수평으로 스크롤될 수 있어, 따라서 사용자가 맵 뷰 배향을 매우 용이하게 변경하고 또한 틸팅이 더 많은 맵 영역을 드러냄에 따라 더 많은 맵을 볼 수 있게 한다.
일부 또는 전체 레이어(2)가 선택되고 시각화되어 입력면(3, 112)으로부터 이격되어 이동하여 후퇴 물체 다음에 레이어의 감각을 용이하게 한다는 것이 이해될 수 있을 것이다.
다른 예시적인 실시예에서, 도 8에 도시된 바와 같이, 장치(100)는 가상 레이어의 부분을 가상으로 터치하기 위해 물체를 검출하도록(800) 구성된다. 푸시 호버링 동작, 즉 가상 터치를 검출한 후에 입력면에 접근하는(810) 물체를 검출하는 것에 응답하여, 장치는 적어도 레이어의 일부의 형태를 적응하도록(820) 구성될 수 있다. 레이어(의 부분)의 형태는 레이어의 적어도 일부를 압박하는 물체에 대한 응답을 모방하도록 적용될 수 있다. 따라서, 레이어는 예를 들어 도 10에 도시된 바와 같이, 입력면을 향해 굴곡되고 부분적으로 후퇴하도록 시각화될 수 있다.
다양한 동작이 전체 또는 부분 가상 레이어(2)의 이동과 연관될 수 있다. 몇몇 다른 예로서, 줌, 회전 또는 신장 동작이 사용자에 의해 호버링된 가상 레이어에 대해 수행될 수 있다. 또 다른 예에서, 가상 레이어(2a 내지 2c)는 전체 레이어를 선택하고 이를 다른 레이어(들)에 관련하여 이동시킴으로써 재정렬될 수 있다.
몇몇 예시적인 실시예에서, 장치(100)는 호버링 영역(140)에서 입력 물체(1)의 이동과 연관된 다른 특성에 기초하여 가상 레이어 표시 동작을 제어하도록(330) 구성된다.
일 다른 예시적인 실시예에서, 장치(100)는 물체(1)의 이동 속도를 추정하고, 검출된 속도에 따라 레이어 외관을 적응시키기 위해(330) 표시 동작을 선택하도록 구성된다. 물체의 이동 속도에 의존하도록 표시 동작의 선택에 영향을 미치는 하나 이상의 임계 파라미터가 존재할 수 있다. 예를 들어, 도 9에서, 손가락(1)은 입력면에 서서히 접근할 수 있고, 이에 의해 디스플레이는 전체 레이어(2)의 이동을 시각화하도록 업데이트된다. 도 10의 예에서, 손가락은 입력면에 더 신속하게(예를 들어, 소정의 속도 임계값을 초과하여) 접근할 수 있고, 레이어(2)는 더 고속의 호버링 동작에 응답하여 굴곡되도록(1000) 시각화될 수 있다.
몇몇 예시적인 실시예에서, 입력면(3) 및 가상 레이어를 표시하는 디스플레이는 휴대형 전자 디바이스의 대향 측면들에 배열된다. 예를 들어, 입력면은 휴대형 전자 디바이스의 후면 커버에 제공될 수 있다. 근접도 검출 시스템은 후면에서 사용자 호버링 입력을 검출하도록 배열될 수 있고, 사용자는 손가락이 3D 뷰를 방해하지 않고 호버링 동작에 의해 가상 레이어를 제어할 수 있다. 다른 예에서, 장치(100)는 심지어 동시에 디바이스의 양면으로부터 호버링 입력을 지원하도록 배열될 수 있다. 예를 들어, 사용자는 따라서 디스플레이 정면에 또한 그 후면에 시각화된 가상 레이어를 제어하기 위해 동시에 디바이스의 양면에 손가락을 사용할 수 있다.
일 예시적인 실시예에서, 가상 레이어는 전자 디바이스의 후면에(디바이스의 정면에서 디스플레이의 뷰 내에) 확장되거나 위치되도록 시각화된다. 도 11a의 예에 도시된 바와 같이, 가상 레이어(2)는 디바이스의 후면에 위치되도록 시각화될 수 있다. 근접도 검출 시스템은 표면(1110) 상의 물체(1100)에 접근하도록 디바이스의 후면 및 가상 레이어에 물체를 검출하도록 배열될 수 있다. 도 11b의 예에 도시된 바와 같이, 표면에 더 접근하는 디바이스에 응답하여, 가상 레이어의 적어도 일부는 이동되고 따라서 가상 레이어의 외관은 가상 레이어에 가상으로 터치하는 물체(1100)에 반응하도록 적용된다. 예를 들어, 물체(1100)의 위치가 검출될 수 있고 가상 레이어(2)의 연관 영역이 굴곡되도록 시각화될 수 있다.
몇몇 예시적인 실시예에서, 레이어(2a 내지 2c)의 적어도 일부의 이동 및/또는 외관은 레이어의 하나 이상의 그래픽 사용자 인터페이스 아이템 또는 레이어와 연관된 하나 이상의 물리적 특성에 따라 제어된다. 일 실시예에서, 상이한 레이어(2a 내지 2c)가 상이한 두께와 연관될 수 있고, 호버링 입력에 대한 시각화된 레이어 적응은 두께에 의존할 수 있다. 예를 들어, 도 12를 참조하면, 더 큰 두께값과 연관된 레이어(2b)를 압박하기 위한 호버링 입력은 그 형태를 변경하지 않고 이동하는 레이어의 예시를 생성한다. 그러나, 도 13의 예에서, 더 작은 두께값을 갖는 레이어(2c)와 연관된 유사한 호버링 입력에 응답하여, 레이어(2c)는 굴곡되도록(1300) 시각화된다.
다른 예시적인 실시예에서, 가상 레이어(2a 내지 2c)는 특정 재료와 연관될 수 있고, 하나 이상의 특성은 재료와 연관된다. 따라서, 가상 레이어는 상이한 비중, 굴곡 특성 및/또는 신장 특성 등과 연관될 수 있다. 도 3의 블록(330)의 표시 동작은 해당 레이어의 특성에 기초하여 선택될 수 있다.
몇몇 예시적인 실시예에서, 2D 모드와 3D 모드 사이의 표시 모드의 변경이 하나 이상의 레이어(2a 내지 2c)와 연관된 호버링 입력에 기초하여 검출된다. 장치(100)는 검출된 호버링 입력에 따라 2D 또는 3D로 표시의 변경을 제어하도록 구성될 수 있다.
일 예시적인 실시예에서, 도 14에 도시된 바와 같이, 장치(100)는 예를 들어 레이어의 중앙부에서 가상으로 터치하는 물체를 검출하는 것에 응답하여, 전체 레이어의 선택을 검출하도록(1400) 구성된다. 터치 스크린과 같은 입력면을 향한(일 실시예에서 후속의 터치) 압박 호버링 동작을 검출하는 것(1410)에 응답하여, 3D 모드로부터 2D 모드로의 표시 모드의 변경이 제어된다(1420). 사용자는 이어서 단지 디스플레이를 터치함으로써 입력을 행할 수 있다. 이는 3D 모드를 스위치 온 또는 오프하기 위한 사용자를 위한 직관적인 방식을 제공한다. 또한, 2D로부터 3D로의 변경은 적어도 부분적으로 호버링 입력에 기초하여 트리거링될 수 있다. 예를 들어, 사용자가 디스플레이 표면에서 그의 손가락을 들어올릴 때, 가상 레이어가 표시된다. 장치(100)가 표면 상에 놓일 때(가상 레이어가 평탄함) 그리고 표면 위에서 들어올려질 때 유사한 표시 동작이 배열될 수 있다.
몇몇 예시적인 실시예에서, 검출된 호버링 입력과 연관된 입력 물체(들)(1)의 특성이 결정되고 이들은 단계 330에서 표시 동작을 제어하기 위해 적용될 수 있다. 예를 들어, 장치(100)는 손바닥이 호버링 영역에 오게 되는지를 검출하도록 배열될 수 있고, 손가락과 연관된 것과 상이한 표시 동작이 제어될 수 있다. 다른 예에서, 가상 레이어는 손바닥이 입력면에 접근하는 것으로 감지될 때에만 제거될 수 있다(그리고 표시 모드는 2D 모드로 변경될 수 있음). 따라서, 물체의 크기는 호버링에 응답하여 가상 레이어의 외관을 적응하기 위해 사용될 수 있다.
근접도 검출 시스템(120)은 2개 이상의 물체(1)의 동시의 또는 조합된 사용을 검출하도록 배열될 수 있다. 일 예시적인 실시예에서, 연관된 레이어 및/또는 호버링 입력은 입력면 위에 호버링하는 2개 이상의 손가락을 검출하는 것에 응답하여 검출된다. 다른 예에서, 가상 레이어(2a 내지 2c)의 외관은 2개 이상의 손가락에 의해 동시에 수정될 수 있다.
일 실시예에서, 상이한 호버링 기능이 (적어도 2개의) 상이한 손가락에 할당된다. 장치(100)는 이어서 예를 들어 근접도 검출 시스템 및/또는 다른 센서(들)로부터 이용 가능한 정보에 기초하여, 손가락 인식을 지원하도록 배열될 수 있다. 예를 들어, 2개의 호버링 손가락은 가상 레이어(2)가 하나의 손가락에 의한 유사한 호버링 이동보다 많이 굴곡되게 할 수 있다. 호버링 영역(140)에서 손가락의 검출된 이동에 기초하여, 장치(100)는 각각의 손가락에 의해 인가된 (가상) 힘을 추정하고, 추정된 힘을 가산하고, 예를 들어 조합된 힘에 따라 가상 레이어를 굴곡시키도록 배열될 수 있다. 예를 들어, 도 3, 도 4 및 도 8과 관련하여 상기에 예시된 특징은 각각의 검출된 손가락 또는 손가락의 조합에 대해 개별적으로 적용될 수도 있다.
추가의 예로서, 검출된 호버링 영역의 크기는 표시 동작을 제어하는 것(330)에 영향을 미치도록 적용될 수 있다. 또 다른 예에서, 장치(100)는 호버링 영역(140)에서 물체(1)의 이동 방향, 즉 호버링 방향을 검출하도록 배열된다. 호버링 방향은 연관된 가상 레이어(들)를 위한 표시 동작의 제어(330)에 영향을 미칠 수도 있다. 상기에 예시된 예시적인 조건의 2개 이상은 표시 동작에 영향을 미치는데 사용될 수 있다는 것이 이해되어야 한다. 예를 들어, 손가락의 이동 속도 및 이동량은 블록 330에서 고려될 수 있다.
상기에 이미 예시된 실시예에 추가하여, 광범위한 추가의 기능이 터치 감응식 검출 및/또는 근접도 검출 시스템(120)에 의해 검출된 입력과 연관되도록 선택을 위해 이용 가능하다. 제어기(130)는 예를 들어 장치(100)의 현재 동작 상태, 사용자 입력 또는 장치(100) 내에 실행된 애플리케이션에 적응하도록 구성될 수 있다. 예를 들어, 연관은 애플리케이션 특정, 메뉴 특정, 뷰 특정 그리고/또는 콘텍스트 특정[장치(100)의 현재 환경 또는 사용으로부터 얻어진 정보에 기초하여 규정될 수 있음]일 수 있다.
도 15는 예시적인 실시예에 따른 전자 디바이스(1500)의 구조의 블록 다이어그램을 도시한다. 전자 디바이스는 장치(100)를 포함할 수 있다. 전자 디바이스(1500)의 일 실시예가 예시되고 예시의 목적으로 이하에 설명될 것이지만, 이들에 한정되는 것은 아니지만 PDA, 호출기, 모바일 컴퓨터, 데스크탑 컴퓨터, 랩탑 컴퓨터, 타블렛 컴퓨터, 미디어 플레이어, 텔레비전, 게임기, 카메라, 비디오 레코더, 위치 확인 디바이스, 전자북, 착용 가능 디바이스, 프로젝터 디바이스, 터치면, 터치 가능화 벽 및 다른 유형의 전자 시스템과 같은 다른 유형의 전자 디바이스가 본 실시예를 채용할 수 있다.
더욱이, 예시적인 실시예의 장치는 전체 전자 디바이스일 필요는 없고, 다른 예시적인 실시예에서 전자 디바이스의 구성 요소 또는 구성 요소의 그룹일 수 있다. 예를 들어, 장치는 도 2의 제어기(130)의 기능과 같은 상기 예시된 기능의 적어도 일부를 수행함으로써 제어하기 위해 칩셋 또는 소정의 다른 종류의 하드웨어 모듈의 형태일 수 있다. 프로세서(1502)는 전자 디바이스(1500)와 연관된 동작을 수행하고 명령을 실행하도록 구성된다. 프로세서(1502)는 예를 들어 도 1 내지 도 14와 관련하여 설명된 기능들 중 하나 이상을 포함하는 다양한 기능을 수행하기 위한 디지털 신호 프로세서 디바이스, 마이크로프로세서 디바이스 및 추가의 회로와 같은 수단을 포함할 수 있다. 프로세서(1502)는 메모리로부터 검색된 명령을 사용함으로써 전자 디바이스(1500)의 구성 요소들 사이의 입력 및 출력 데이터의 수신 및 프로세싱을 제어할 수 있다. 프로세서(1502)는 단일 칩, 다중 칩 또는 다중 전기 구성 요소 상에 구현될 수 있다. 프로세서(1502)를 위해 사용될 수 있는 아키텍처의 몇몇 예는 전용 또는 내장형 프로세서 및 ASIC을 포함한다. 간단화를 위해, 프로세서(1502)는 단일 블록으로서 도 15에 도시되어 있지만, 전자 디바이스(1500)는 I/O 서브 시스템, 애플리케이션 프로세싱 서브 시스템 및 통신 프로토콜 프로세싱 서브 시스템 중 하나 이상과 같은 복수의 제어 서브 시스템을 포함할 수 있고, 이들 각각은 하나 이상의 제어기를 포함할 수 있다는 것이 이해될 수 있을 것이다.
프로세서(1502)는 하나 이상의 컴퓨터 프로그램을 동작시키기 위한 기능을 포함할 수 있다. 컴퓨터 프로그램 코드는 메모리(1504) 내에 저장될 수 있다. 적어도 하나의 메모리 및 컴퓨터 프로그램 코드는 적어도 하나의 프로세서에 의해, 장치가 예를 들어 도 1 내지 도 14와 관련하여 설명된 기능들 중 하나 이상의 제어를 포함하는 적어도 하나의 실시예를 수행할 수 있게 하도록 구성될 수 있다. 예를 들어, 프로세서(1502)는 도 2의 제어기(130)의 기능의 적어도 일부를 수행하도록 배열될 수 있다. 통상적으로, 프로세서(1502)는 컴퓨터 코드를 실행하고 데이터를 생성하여 사용하기 위해 운영 체제와 함께 동작한다.
예로서, 메모리(1504)는 EEPROM, 플래시 메모리 등과 같은 비휘발성 부분과, 데이터의 일시적 저장을 위한 캐시 영역을 포함하는 랜덤 액세스 메모리(RAM)와 같은 휘발성 부분을 포함할 수 있다. 프로세서(802)의 기능을 제어하기 위한 정보는 또한 제거 가능 저장 매체 상에 상주하고 필요할 때 전자 디바이스(1500) 상에 로딩되거나 설치될 수 있다.
전자 디바이스(1500)는 송신기 및 수신기를 포함하는 송수신기 유닛(1506)과 동작가능하게 통신하는 안테나(또는 다수의 안테나)를 포함할 수 있다. 전자 디바이스(1500)는 하나 이상의 공중 인터페이스 표준 및 통신 프로토콜에 따라 동작할 수 있다. 예시로서, 전자 디바이스(1500)는 다수의 1세대, 2세대, 3세대 및/또는 4세대 통신 프로토콜 등 중 임의의 하나에 따라 동작할 수 있다. 예를 들어, 전자 디바이스(1500)는 이더넷 및 디지털 가입자 라인(DSL)과 같은 유선 프로토콜, 모바일 통신을 위한 글로벌 시스템(GSM)과 같은 2세대(2G) 무선 통신 프로토콜, 3세대 파트너쉽 프로젝트(3GPP), CDMA2000, 광대역 CDMA(WCDMA) 및 시분할 동기 CDMA(TD-SCDMA)에 의한 3G 프로토콜과 같은 3세대(3G) 무선 통신 프로토콜, 3GPP 장기 진화(LTE), 802.11과 같은 무선 근거리 네트워크 프로토콜, 블루투스와 같은 802.11 단거리 무선 프로토콜과 같은 4세대(4G) 무선 통신 프로토콜 등에 따라 동작할 수 있다.
전자 디바이스(1500)의 사용자 인터페이스는 스피커와 같은 출력 디바이스(1508), 마이크로폰, 키패드 또는 하나 이상의 버튼 또는 액추에이터와 같은 하나 이상의 입력 디바이스(1510), 및 해당 전자 디바이스(1500)에 적절한 디스플레이 디바이스(1512)를 포함할 수 있다.
입력 디바이스(1510)는 사용자의 터치로부터 입력을 수신하고 이 정보를 프로세서(1502)에 송신하도록 구성된 터치 감지 디바이스를 포함할 수 있다. 이러한 터치 감지 디바이스는 또한 터치 감응식 표면 상의 터치의 위치 및 크기를 인식하도록 구성될 수 있다. 터치 감지 디바이스는 이들에 한정되는 것은 아니지만, 용량성 감지, 저항성 감지, 표면 음성파 감지, 압력 감지, 유도 감지 및 광학 감지를 포함하는 감지 기술에 기초할 수 있다. 더욱이, 터치 감지 디바이스는 단일점 감지 또는 다중점 감지에 기초할 수 있다. 일 실시예에서, 입력 디바이스는 디스플레이(1512)의 정면에 위치된 터치 스크린이다.
전자 디바이스(1500)는 프로세서(1502)에 동작가능하게 결합된 상기에 예시된 시스템(120)과 같은 근접도 검출기(들)를 갖는 근접도 검출 시스템(1514)을 또한 포함한다. 근접도 검출 시스템(1514)은 손가락, 스타일러스 또는 다른 포인팅 디바이스가 예를 들어 하우징 또는 터치 스크린과 같은 I/O 디바이스를 포함하는 컴퓨터 시스템의 소정 구성 요소에 근접하지만 접촉하지 않을 때를 검출하도록 구성된다.
전자 디바이스(1500)는 다른 인터페이스 디바이스, 다른 센서(예를 들어, 가속도계 센서), 배터리, 카메라, 비디오 및/또는 오디오 모듈과 같은 미디어 캡처링 요소, 위치 확인 유닛 및 사용자 식별 모듈과 같은 도 15에 도시되지 않은 다른 유닛 및 요소를 또한 포함할 수 있다.
몇몇 실시예에서, 청각 및/또는 촉각 출력과 같은 추가의 출력이 또한 예를 들어 검출된 호버링 입력에 기초하여 장치(100)에 의해 생성될 수 있다. 따라서, 프로세서(1502)는 이러한 추가의 입력을 제공하기 위해 전자 디바이스(1500) 내의 진동 모터와 같은 촉각 출력 액추에이터 및/또는 스피커를 제어하도록 배열될 수 있다.
본 발명의 실시예는 소프트웨어, 하드웨어, 애플리케이션 로직 또는 소프트웨어, 하드웨어 및 애플리케이션 로직의 조합으로 구현될 수 있다. 예시적인 실시예에서, 애플리케이션 로직, 소프트웨어 또는 명령 세트는 다양한 통상의 컴퓨터 판독 가능 매체의 임의의 하나 상에 유지된다. 본 명세서에 있어서, "컴퓨터 판독 가능 매체"는 컴퓨터와 같은 명령 실행 시스템, 장치 또는 디바이스에 의해 또는 이들과 관련하여 사용을 위한 명령을 포함하고, 저장하고, 통신하고, 전파하거나 전송할 수 있는 임의의 매체 또는 수단일 수 있고, 컴퓨터의 일 예가 도 15에 설명되고 도시되어 있다. 컴퓨터 판독 가능 매체는 컴퓨터와 같은 명령 실행 시스템, 장치 또는 디바이스에 의해 또는 이들과 관련하여 사용을 위한 명령을 포함하거나 저장할 수 있는 임의의 매체 또는 수단일 수 있는 탠저블 및 비일시적 컴퓨터 판독 가능 저장 매체를 포함할 수 있다.
일 예시적인 실시예에서, 상기에 예시된 적어도 몇몇 제어 기능을 제공하도록 구성된 회로 또는 사용자 인터페이스 회로가 존재할 수 있다. 본 출원에 사용될 때, 용어 '회로'는 이하의 모두, (a) 하드웨어 전용 회로 구현예(단지 아날로그 및/또는 디지털 회로에서 구현예와 같은) 및 (b) (적용 가능한 바와 같이) (i) 프로세서(들)의 조합 또는 (ii) 휴대폰 또는 서버와 같은 장치가 다양한 기능을 수행하게 하도록 함께 동작하는 프로세서(들)/소프트웨어의 부분[디지털 신호 프로세서(들)를 포함함], 소프트웨어 및 메모리(들)와 같은 회로와 소프트웨어의 조합(및/또는 펌웨어) 및 (c) 소프트웨어 또는 펌웨어가 물리적으로 존재하지 않더라도, 동작을 위한 소프트웨어 또는 펌웨어를 필요로 하는 마이크로프로세서(들) 또는 마이크로프로세서(들)의 부분과 같은 회로를 칭한다. 이 '회로'의 정의는 임의의 청구범위를 포함하여, 본 출원에서 이 용어의 모든 사용에 적용한다. 다른 예로서, 본 출원에 사용될 때, 용어 "회로"는 단지 프로세서(또는 다수의 프로세서들) 또는 프로세서의 부분 및 그(또는 이들의) 수반 소프트웨어 및/또는 펌웨어를 커버할 것이다.
원한다면, 본 명세서에 설명된 상이한 기능의 적어도 일부는 상이한 순서로 그리고/또는 서로 동시에 수행될 수 있다. 더욱이, 원한다면, 전술된 기능의 하나 이상은 선택적이고 또는 조합될 수도 있다.
본 발명의 다양한 양태가 독립 청구항에 설명되어 있지만, 본 발명의 다른 양태는 청구범위에 명시적으로 설명된 조합만이 아니라, 설명된 실시예 및/또는 독립 청구항의 특징을 갖는 종속 청구항으로부터의 특징의 다른 조합을 포함한다.
상기에는 본 발명의 예시적인 실시예를 설명하였지만, 이들 설명은 한정의 개념으로 고려되어서는 안된다는 것이 또한 본 명세서에 주지된다. 오히려, 첨부된 청구범위에 정의된 바와 같은 본 발명의 범주로부터 벗어나지 않고 이루어질 수 있는 다수의 변형 및 수정이 존재한다.
1: 물체 2a, 2b, 2c: 가상 레이어
3: 입력면 100: 장치
112: 입력면 120: 근접도 검출 시스템
130: 제어기 140: 호버링 영역
1502: 프로세서 1504: 메모리
1512: 디스플레이 1514: 근접도 검출기(들)

Claims (26)

  1. 장치로서,
    적어도 하나의 프로세서와,
    컴퓨터 프로그램 코드를 포함하는 적어도 하나의 메모리를 포함하고,
    상기 적어도 하나의 메모리 및 컴퓨터 프로그램 코드는, 적어도 하나의 프로세서와 함께, 상기 장치로 하여금 적어도,
    입력면에 근접한 물체의 존재를 검출하고,
    상기 입력면까지의 물체의 거리에 기초하여 상기 물체와 현재 연관된 표시된 가상 레이어를 검출하고,
    상기 물체에 의한 호버링 입력(hovering input)을 검출하고,
    디스플레이 동작이 상기 검출된 호버링 입력에 따라 상기 연관된 가상 레이어의 적어도 일부를 이동시키게 하도록 구성되는
    장치.
  2. 입력면에 근접한 입력 물체의 존재를 검출하기 위한 적어도 하나의 근접도 검출기를 갖는 근접도 검출 시스템과,
    상기 근접도 검출 시스템에 동작가능하게 접속되는 제어기를 포함하고,
    상기 제어기는
    입력면에 근접한 물체의 존재를 검출하고,
    상기 입력면까지의 물체의 거리에 기초하여 상기 물체와 현재 연관된 표시된 가상 레이어를 검출하고,
    상기 물체에 의한 호버링 입력을 검출하고,
    디스플레이 동작이 상기 검출된 호버링 입력에 따라 상기 연관된 가상 레이어의 적어도 일부를 이동시키게 하도록 구성되는
    장치.
  3. 입력면에 근접한 물체의 존재를 검출하기 위한 수단과,
    상기 입력면까지의 물체의 거리에 기초하여 상기 물체와 현재 연관된 표시된 가상 레이어를 검출하기 위한 수단과,
    상기 물체에 의한 호버링 입력을 검출하기 위한 수단과,
    디스플레이 동작이 상기 검출된 호버링 입력에 따라 상기 연관된 가상 레이어의 적어도 일부를 이동시키게 하기 위한 수단을 포함하는
    장치.
  4. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
    상기 장치는 상기 호버링 입력에 따라 상기 입력면까지의 상기 가상 레이어의 적어도 일부의 거리를 적응시키도록 구성되는
    장치.
  5. 제 1 항 내지 제 4 항 중 어느 한 항에 있어서,
    상기 장치는 상기 검출된 호버링 입력에 기초하여 2차원 모드와 3차원 모드 사이의 표시 모드의 변경을 검출하도록 구성되고,
    상기 장치는 표시 모드의 검출된 변경에 따라 2차원 또는 3차원 뷰의 표시를 제어하도록 구성되는
    장치.
  6. 제 5 항에 있어서,
    상기 장치는 전체 가상 레이어를 선택하기 위한 호버링 물체의 검출 및 상기 전체 가상 레이어의 선택 후에 상기 입력면을 터치하기 위한 상기 물체의 검출에 기초하여 상기 3차원 모드로부터 상기 2차원 모드로의 표시 모드의 변경을 검출하도록 구성되는
    장치.
  7. 제 1 항 내지 제 6 항 중 어느 한 항에 있어서,
    상기 장치는 상기 입력면에 평행한 x, y 방향에서 물체의 측방향 위치를 검출하도록 구성되고,
    상기 장치는 상기 검출된 측방향 위치에 따라 상기 가상 레이어의 적어도 일부의 이동을 제어하도록 구성되는
    장치.
  8. 제 7 항에 있어서,
    상기 장치는 상기 물체의 검출된 측방향 위치에 기초하여 상기 가상 레이어를 위한 틸트 동작을 야기하도록 구성되는
    장치.
  9. 제 1 항 내지 제 8 항 중 어느 한 항에 있어서,
    상기 장치는 상기 물체의 이동 속도를 검출하고, 상기 검출된 이동 속도에 따라 상기 가상 레이어를 위한 표시 동작을 선택하도록 구성되는
    장치.
  10. 제 1 항 내지 제 9 항 중 어느 한 항에 있어서,
    상기 장치는 상기 입력면 위에 호버링하는 2개 이상의 손가락을 검출하는 것에 응답하여 상기 연관된 가상 레이어 및/또는 상기 호버링 입력을 검출하도록 구성되는
    장치.
  11. 제 1 항 내지 제 10 항 중 어느 한 항에 있어서,
    상기 장치는 상기 가상 레이어의 부분을 가상으로 터치하기 위해 상기 물체를 검출하도록 구성되고,
    상기 가상 터치를 검출한 후에 상기 입력면에 더 접근하는 물체의 검출에 응답하여, 상기 장치는 압박 물체(pushing object)로의 반응을 모방하기 위해 상기 가상 레이어의 부분의 형태를 적응하도록 구성되는
    장치.
  12. 제 1 항 내지 제 11 항 중 어느 한 항에 있어서,
    상기 장치는 상기 가상 레이어와 연관된 하나 이상의 물리적 특성 또는 상기 가상 레이어의 하나 이상의 그래픽 사용자 인터페이스 아이템에 따라 상기 가상 레이어의 적어도 일부의 이동 및/또는 외관을 제어하도록 구성되는
    장치.
  13. 제 1 항 내지 제 12 항 중 어느 한 항에 있어서,
    상기 입력면 및 상기 가상 레이어를 표시하는 디스플레이는 휴대형 전자 디바이스의 대향 측면들에 배열되는
    장치.
  14. 제 1 항 내지 제 13 항 중 어느 한 항에 있어서,
    상기 장치는 터치 스크린을 포함하는 모바일 통신 디바이스인
    장치.
  15. 입력면에 근접한 물체의 존재를 검출하는 단계와,
    상기 입력면까지의 물체의 거리에 기초하여 상기 물체와 현재 연관된 표시된 가상 레이어를 검출하는 단계와,
    상기 물체에 의한 호버링 입력을 검출하는 단계와,
    디스플레이 동작이 상기 검출된 호버링 입력에 따라 상기 연관된 가상 레이어의 적어도 일부를 이동시키게 하는 단계를 포함하는
    방법.
  16. 제 15 항에 있어서,
    상기 입력면까지의 상기 가상 레이어의 적어도 일부의 거리는 상기 호버링 입력에 따라 적응되는
    방법.
  17. 제 15 항 또는 제 16 항에 있어서,
    2차원 모드와 3차원 모드 사이의 표시 모드의 변경은 상기 검출된 호버링 입력에 기초하여 검출되고,
    2차원 또는 3차원 뷰는 상기 표시 모드의 검출된 변경에 따라 제어되는
    방법.
  18. 제 15 항 내지 제 17 항 중 어느 한 항에 있어서,
    3차원 모드로부터 2차원 모드로의 표시 모드의 변경은 전체 가상 레이어를 선택하기 위한 호버링 물체의 검출 및 상기 전체 가상 레이어의 선택 후에 상기 입력면을 터치하기 위한 상기 물체의 검출에 기초하여 검출되는
    방법.
  19. 제 15 항 내지 제 18 항 중 어느 한 항에 있어서,
    상기 입력면에 평행한 x, y 방향에서 물체의 측방향 위치가 검출되고,
    상기 가상 레이어의 적어도 일부의 이동은 상기 검출된 측방향 위치에 따라 제어되는
    방법.
  20. 제 15 항 내지 제 19 항 중 어느 한 항에 있어서,
    상기 가상 레이어를 위한 틸트 동작은 상기 물체의 검출된 측방향 위치에 기초하여 야기되는
    방법.
  21. 제 15 항 내지 제 20 항 중 어느 한 항에 있어서,
    상기 물체의 이동 속도가 검출되고,
    상기 가상 레이어를 위한 표시 동작은 상기 검출된 이동 속도에 따라 선택되는
    방법.
  22. 제 15 항 내지 제 21 항 중 어느 한 항에 있어서,
    상기 연관된 가상 레이어 및/또는 상기 호버링 입력은 상기 입력면 위에 호버링하는 2개 이상의 손가락을 검출하는 것에 응답하여 검출되는
    방법.
  23. 제 15 항 내지 제 22 항 중 어느 한 항에 있어서,
    상기 물체는 상기 가상 레이어의 부분을 가상으로 터치하기 위해 검출되고,
    상기 가상 터치를 검출한 후에 상기 입력면에 더 접근하는 물체의 검출에 응답하여, 상기 가상 레이어의 부분의 형태는 압박 물체로의 반응을 모방하기 위해 적응되는
    방법.
  24. 제 15 항 내지 제 23 항 중 어느 한 항에 있어서,
    상기 가상 레이어의 적어도 일부의 이동 및/또는 외관은 상기 가상 레이어와 연관된 하나 이상의 물리적 특성 또는 상기 가상 레이어의 하나 이상의 그래픽 사용자 인터페이스 아이템에 따라 제어되는
    방법.
  25. 입력면에 근접한 입력 물체의 존재를 검출하기 위한 근접도 검출 시스템을 포함하는 전자 디바이스용 사용자 인터페이스에 있어서,
    상기 사용자 인터페이스는
    상기 입력면까지의 물체의 거리에 기초하여 상기 물체와 현재 연관된 표시된 가상 레이어를 검출하고,
    상기 물체에 의한 호버링 입력을 검출하고,
    디스플레이 동작이 상기 검출된 호버링 입력에 따라 상기 연관된 가상 레이어의 적어도 일부를 이동시키게 하도록 구성되는
    사용자 인터페이스.
  26. 컴퓨터와 함께 사용을 위한 컴퓨터 프로그램 코드가 그 내부에 내장되어 있는 컴퓨터 판독 가능 매체를 포함하는 컴퓨터 프로그램 제품에 있어서,
    상기 컴퓨터 프로그램 코드는 컴퓨터가 제 15 항 내지 제 24 항 중 어느 한 항의 방법을 수행하게 하기 위한 코드를 포함하는
    컴퓨터 프로그램 제품.
KR1020137012833A 2010-10-21 2011-10-07 표시된 정보를 제어하기 위한 사용자 입력 장치 및 방법 KR101488121B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/909,499 2010-10-21
US12/909,499 US9043732B2 (en) 2010-10-21 2010-10-21 Apparatus and method for user input for controlling displayed information
PCT/FI2011/050866 WO2012052612A1 (en) 2010-10-21 2011-10-07 Apparatus and method for user input for controlling displayed information

Publications (2)

Publication Number Publication Date
KR20130108604A true KR20130108604A (ko) 2013-10-04
KR101488121B1 KR101488121B1 (ko) 2015-01-29

Family

ID=45974054

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020137012833A KR101488121B1 (ko) 2010-10-21 2011-10-07 표시된 정보를 제어하기 위한 사용자 입력 장치 및 방법

Country Status (7)

Country Link
US (1) US9043732B2 (ko)
EP (1) EP2630563B1 (ko)
KR (1) KR101488121B1 (ko)
CN (1) CN103261997B (ko)
RU (1) RU2558620C2 (ko)
TW (1) TW201220159A (ko)
WO (1) WO2012052612A1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101518786B1 (ko) * 2013-11-29 2015-05-15 주식회사 하이딥 터치의 압력 레벨에 따른 피드백 방법 및 이를 수행하는 터치 스크린을 포함하는 장치
KR20150100470A (ko) * 2014-02-24 2015-09-02 삼성전자주식회사 컨텐츠 표시 방법 및 장치
US9652097B2 (en) 2013-11-29 2017-05-16 Hideep Inc. Feedback method according to touch level and touch input device performing the same
US10168892B2 (en) 2014-09-19 2019-01-01 Samsung Electronics Co., Ltd Device for handling touch input and method thereof

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120120002A1 (en) * 2010-11-17 2012-05-17 Sony Corporation System and method for display proximity based control of a touch screen user interface
US9417696B2 (en) * 2011-01-27 2016-08-16 Blackberry Limited Portable electronic device and method therefor
US20120249461A1 (en) * 2011-04-01 2012-10-04 Analog Devices, Inc. Dedicated user interface controller for feedback responses
GB2490108B (en) * 2011-04-13 2018-01-17 Nokia Technologies Oy A method, apparatus and computer program for user control of a state of an apparatus
US20120317516A1 (en) * 2011-06-09 2012-12-13 Casio Computer Co., Ltd. Information processing device, information processing method, and recording medium
JP5915651B2 (ja) * 2011-07-04 2016-05-11 日本電気株式会社 画像処理装置、画像処理方法及びプログラム
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US20130162624A1 (en) * 2011-12-22 2013-06-27 Research In Motion Limited Method and apparatus pertaining to modification of a three-dimensional presentation of a user-interaction opportunity
US9052414B2 (en) 2012-02-07 2015-06-09 Microsoft Technology Licensing, Llc Virtual image device
US9594499B2 (en) * 2012-02-21 2017-03-14 Nokia Technologies Oy Method and apparatus for hover-based spatial searches on mobile maps
US9075566B2 (en) 2012-03-02 2015-07-07 Microsoft Technoogy Licensing, LLC Flexible hinge spine
US9134807B2 (en) 2012-03-02 2015-09-15 Microsoft Technology Licensing, Llc Pressure sensitive key normalization
US9870066B2 (en) 2012-03-02 2018-01-16 Microsoft Technology Licensing, Llc Method of manufacturing an input device
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
KR101956082B1 (ko) 2012-05-09 2019-03-11 애플 인크. 사용자 인터페이스 객체를 선택하는 디바이스, 방법, 및 그래픽 사용자 인터페이스
DE202013012233U1 (de) 2012-05-09 2016-01-18 Apple Inc. Vorrichtung und grafische Benutzerschnittstelle zum Anzeigen zusätzlicher Informationen in Antwort auf einen Benutzerkontakt
CN104471521B (zh) 2012-05-09 2018-10-23 苹果公司 用于针对改变用户界面对象的激活状态来提供反馈的设备、方法和图形用户界面
DE112013002387T5 (de) 2012-05-09 2015-02-12 Apple Inc. Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bereitstellung taktiler Rückkopplung für Operationen in einer Benutzerschnittstelle
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
KR101823288B1 (ko) 2012-05-09 2018-01-29 애플 인크. 제스처에 응답하여 디스플레이 상태들 사이를 전이하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
US20130300590A1 (en) 2012-05-14 2013-11-14 Paul Henry Dietz Audio Feedback
US10031556B2 (en) 2012-06-08 2018-07-24 Microsoft Technology Licensing, Llc User experience adaptation
US9019615B2 (en) 2012-06-12 2015-04-28 Microsoft Technology Licensing, Llc Wide field-of-view virtual image projector
US9829996B2 (en) * 2012-06-25 2017-11-28 Zspace, Inc. Operations in a three dimensional display system
US8947385B2 (en) 2012-07-06 2015-02-03 Google Technology Holdings LLC Method and device for interactive stereoscopic display
US20140009461A1 (en) * 2012-07-06 2014-01-09 Motorola Mobility Llc Method and Device for Movement of Objects in a Stereoscopic Display
US9355345B2 (en) 2012-07-23 2016-05-31 Microsoft Technology Licensing, Llc Transparent tags with encoded data
JP6012068B2 (ja) * 2012-08-28 2016-10-25 日本電気株式会社 電子機器、その制御方法及びプログラム
KR102091710B1 (ko) * 2012-08-28 2020-04-14 삼성전자주식회사 좌표 측정 장치 및 그 제어 방법
US9152173B2 (en) * 2012-10-09 2015-10-06 Microsoft Technology Licensing, Llc Transparent display device
US9513748B2 (en) 2012-12-13 2016-12-06 Microsoft Technology Licensing, Llc Combined display panel circuit
US9638835B2 (en) 2013-03-05 2017-05-02 Microsoft Technology Licensing, Llc Asymmetric aberration correcting lens
KR20150103240A (ko) * 2013-03-14 2015-09-09 인텔 코포레이션 깊이 기반 사용자 인터페이스 제스처 제어
CN104077013B (zh) * 2013-03-28 2019-02-05 联想(北京)有限公司 指令识别方法和电子设备
KR102056316B1 (ko) 2013-05-03 2020-01-22 삼성전자주식회사 터치 스크린 동작 방법 및 그 전자 장치
KR102157078B1 (ko) * 2013-06-27 2020-09-17 삼성전자 주식회사 휴대 단말기에서 전자문서 작성 방법 및 장치
EP2818985B1 (en) * 2013-06-28 2021-05-12 Nokia Technologies Oy A hovering input field
EP2818986A1 (en) * 2013-06-28 2014-12-31 Nokia Corporation A hovering field
KR102140811B1 (ko) * 2013-07-23 2020-08-03 삼성전자주식회사 디바이스의 사용자 인터페이스 제공 방법 및 그 디바이스
US9967546B2 (en) 2013-10-29 2018-05-08 Vefxi Corporation Method and apparatus for converting 2D-images and videos to 3D for consumer, commercial and professional applications
US20150116458A1 (en) 2013-10-30 2015-04-30 Barkatech Consulting, LLC Method and apparatus for generating enhanced 3d-effects for real-time and offline appplications
US9262012B2 (en) * 2014-01-03 2016-02-16 Microsoft Corporation Hover angle
WO2015126098A1 (en) * 2014-02-24 2015-08-27 Samsung Electronics Co., Ltd. Method and apparatus for displaying content using proximity information
US10158847B2 (en) 2014-06-19 2018-12-18 Vefxi Corporation Real—time stereo 3D and autostereoscopic 3D video and image editing
US9535495B2 (en) 2014-09-26 2017-01-03 International Business Machines Corporation Interacting with a display positioning system
KR102380228B1 (ko) * 2014-11-14 2022-03-30 삼성전자주식회사 디바이스를 제어하는 방법 및 그 디바이스
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
CN110456957B (zh) * 2019-08-09 2022-05-03 北京字节跳动网络技术有限公司 显示交互方法、装置、设备、存储介质
US11237641B2 (en) * 2020-03-27 2022-02-01 Lenovo (Singapore) Pte. Ltd. Palm based object position adjustment

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9701793D0 (en) * 1997-01-29 1997-03-19 Gay Geoffrey N W Means for inputting characters or commands into a computer
JP2004280496A (ja) 2003-03-17 2004-10-07 Kyocera Mita Corp 操作パネル装置
US7508377B2 (en) 2004-03-05 2009-03-24 Nokia Corporation Control and a control arrangement
US8531396B2 (en) * 2006-02-08 2013-09-10 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US8537111B2 (en) * 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US8681098B2 (en) * 2008-04-24 2014-03-25 Oblong Industries, Inc. Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes
US8537112B2 (en) * 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
WO2007097225A1 (ja) 2006-02-21 2007-08-30 Pioneer Corporation 画像表示装置
US8334841B2 (en) 2006-03-13 2012-12-18 Navisense Virtual user interface method and system thereof
KR100783552B1 (ko) * 2006-10-11 2007-12-07 삼성전자주식회사 휴대 단말기의 입력 제어 방법 및 장치
US20080120568A1 (en) 2006-11-20 2008-05-22 Motorola, Inc. Method and device for entering data using a three dimensional position of a pointer
JP2008219788A (ja) 2007-03-07 2008-09-18 Toshiba Corp 立体画像表示装置、方法およびプログラム
EP2144448B1 (en) 2007-03-30 2019-01-09 National Institute of Information and Communications Technology Floating Image Interaction Device
WO2009024971A2 (en) 2007-08-19 2009-02-26 Saar Shai Finger-worn devices and related methods of use
US8432365B2 (en) * 2007-08-30 2013-04-30 Lg Electronics Inc. Apparatus and method for providing feedback for three-dimensional touchscreen
EP2034399B1 (en) * 2007-09-04 2019-06-05 LG Electronics Inc. Scrolling method of mobile terminal
WO2009044437A1 (ja) 2007-10-01 2009-04-09 Pioneer Corporation 画像表示装置
JP2009140368A (ja) 2007-12-07 2009-06-25 Sony Corp 入力装置、表示装置、入力方法、表示方法及びプログラム
TW200928892A (en) * 2007-12-28 2009-07-01 Wistron Corp Electronic apparatus and operation method thereof
US8265688B2 (en) * 2007-12-31 2012-09-11 Motorola Mobility Llc Wireless communication device and split touch sensitive user input surface
KR101467513B1 (ko) * 2008-02-11 2014-12-01 삼성전자 주식회사 모바일 단말 제어장치 및 그 방법
KR101474429B1 (ko) * 2008-03-11 2014-12-19 엘지전자 주식회사 이동단말기 및 그의 표시 방법
KR101486345B1 (ko) * 2008-03-21 2015-01-26 엘지전자 주식회사 이동 단말기 및 이동 단말기의 화면 표시 방법
US8723811B2 (en) * 2008-03-21 2014-05-13 Lg Electronics Inc. Mobile terminal and screen displaying method thereof
US8949743B2 (en) 2008-04-22 2015-02-03 Apple Inc. Language input interface on a device
US8169414B2 (en) * 2008-07-12 2012-05-01 Lim Seung E Control of electronic games via finger angle using a high dimensional touchpad (HDTP) touch user interface
US9658765B2 (en) 2008-07-31 2017-05-23 Northrop Grumman Systems Corporation Image magnification system for computer interface
KR100969790B1 (ko) * 2008-09-02 2010-07-15 엘지전자 주식회사 이동단말기 및 그 컨텐츠 합성방법
US20100053151A1 (en) 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
KR101592296B1 (ko) * 2008-09-03 2016-02-05 엘지전자 주식회사 이동 단말기 및 그의 객체 선택과 실행 방법
KR20100041006A (ko) 2008-10-13 2010-04-22 엘지전자 주식회사 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법
KR101587087B1 (ko) * 2008-10-14 2016-02-02 엘지전자 주식회사 휴대 단말기
KR101504210B1 (ko) * 2008-10-17 2015-03-19 엘지전자 주식회사 단말기 및 그 제어 방법
KR101545582B1 (ko) * 2008-10-29 2015-08-19 엘지전자 주식회사 단말기 및 그 제어 방법
KR20100064873A (ko) * 2008-12-05 2010-06-15 엘지전자 주식회사 단말기 및 그 제어 방법
KR101521932B1 (ko) * 2009-01-19 2015-05-20 엘지전자 주식회사 단말기 및 그 제어 방법
KR101609388B1 (ko) 2009-03-04 2016-04-05 엘지전자 주식회사 3차원 메뉴를 표시하는 이동 단말기 및 이동 단말기의 제어방법
US20100315413A1 (en) * 2009-06-16 2010-12-16 Microsoft Corporation Surface Computer User Interaction
JP5563250B2 (ja) * 2009-06-30 2014-07-30 株式会社ジャパンディスプレイ 立体画像表示装置
KR20110014040A (ko) * 2009-08-04 2011-02-10 엘지전자 주식회사 이동 단말기 및 그의 아이콘 충돌 제어방법
KR101558207B1 (ko) * 2009-09-14 2015-10-07 엘지전자 주식회사 이동 단말기 및 이동 단말기의 아이템 설정 방법
KR101623008B1 (ko) * 2009-10-23 2016-05-31 엘지전자 주식회사 이동 단말기
JP5535585B2 (ja) * 2009-11-10 2014-07-02 株式会社ソニー・コンピュータエンタテインメント プログラム、情報記憶媒体、情報入力装置、及びその制御方法
US8232990B2 (en) * 2010-01-05 2012-07-31 Apple Inc. Working with 3D objects
US10007393B2 (en) * 2010-01-19 2018-06-26 Apple Inc. 3D view of file structure
US8508347B2 (en) 2010-06-24 2013-08-13 Nokia Corporation Apparatus and method for proximity based input

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101518786B1 (ko) * 2013-11-29 2015-05-15 주식회사 하이딥 터치의 압력 레벨에 따른 피드백 방법 및 이를 수행하는 터치 스크린을 포함하는 장치
US9652097B2 (en) 2013-11-29 2017-05-16 Hideep Inc. Feedback method according to touch level and touch input device performing the same
US10331337B2 (en) 2013-11-29 2019-06-25 Hideep Inc. Feedback method according to touch level and touch input device performing the same
KR20150100470A (ko) * 2014-02-24 2015-09-02 삼성전자주식회사 컨텐츠 표시 방법 및 장치
US10168892B2 (en) 2014-09-19 2019-01-01 Samsung Electronics Co., Ltd Device for handling touch input and method thereof

Also Published As

Publication number Publication date
RU2013123025A (ru) 2014-11-27
US20120102436A1 (en) 2012-04-26
WO2012052612A1 (en) 2012-04-26
KR101488121B1 (ko) 2015-01-29
EP2630563A4 (en) 2014-04-16
US9043732B2 (en) 2015-05-26
CN103261997A (zh) 2013-08-21
EP2630563A1 (en) 2013-08-28
TW201220159A (en) 2012-05-16
EP2630563B1 (en) 2018-01-17
RU2558620C2 (ru) 2015-08-10
CN103261997B (zh) 2017-02-15

Similar Documents

Publication Publication Date Title
KR101488121B1 (ko) 표시된 정보를 제어하기 위한 사용자 입력 장치 및 방법
EP2638461B1 (en) Apparatus and method for user input for controlling displayed information
EP2585900B1 (en) Apparatus and method for proximity based input
CN110476142B (zh) 显示虚拟内容的计算设备、方法和头戴式显示器设备
US10101874B2 (en) Apparatus and method for controlling user interface to select object within image and image input device
CN108431734B (zh) 用于非触摸式表面交互的触觉反馈
EP2457143A1 (en) Display to determine gestures
JP5694883B2 (ja) 表示機器
US20120120029A1 (en) Display to determine gestures
JP2013524311A (ja) 近接性に基づく入力のための装置および方法
JP2015519644A (ja) 容量制御表面を実装する装置と相互作用する方法、この方法を実装する、インターフェース及び装置
EP2558924B1 (en) Apparatus, method and computer program for user input using a camera
JP2013011960A (ja) 表示機器
TWI484386B (zh) 具光學感測器之顯示器(一)
KR101873746B1 (ko) 이동 단말기 및 그 제어방법
US20160104322A1 (en) Apparatus for generating a display control signal and a method thereof
WO2016102948A1 (en) Coherent touchless interaction with stereoscopic 3d images
US9898183B1 (en) Motions for object rendering and selection
KR101833826B1 (ko) 이동 단말기 및 그 제어방법
KR20150122013A (ko) 카메라의 수중 조작방법
KR20140117957A (ko) 이중 디스플레이 장치
JP2016042391A (ja) 表示機器

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20171219

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190103

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20200103

Year of fee payment: 6