KR102067295B1 - 전자 장치, 표시 제어 방법, 및 기록 매체 - Google Patents

전자 장치, 표시 제어 방법, 및 기록 매체 Download PDF

Info

Publication number
KR102067295B1
KR102067295B1 KR1020137021868A KR20137021868A KR102067295B1 KR 102067295 B1 KR102067295 B1 KR 102067295B1 KR 1020137021868 A KR1020137021868 A KR 1020137021868A KR 20137021868 A KR20137021868 A KR 20137021868A KR 102067295 B1 KR102067295 B1 KR 102067295B1
Authority
KR
South Korea
Prior art keywords
operation screen
user
display
electronic device
button
Prior art date
Application number
KR1020137021868A
Other languages
English (en)
Other versions
KR20140006893A (ko
Inventor
겐조 니시카와
다카시 누노마키
료코 아마노
료 다카오카
리츠코 가노
도모야 나리타
슌이치 가사하라
?이치 가사하라
Original Assignee
소니 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 주식회사 filed Critical 소니 주식회사
Publication of KR20140006893A publication Critical patent/KR20140006893A/ko
Application granted granted Critical
Publication of KR102067295B1 publication Critical patent/KR102067295B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

장치는 오브젝트 접근 판정 유닛 및 표시 제어 유닛을 포함한다. 오브젝트 접근 판정 유닛은 수신된 데이터에 기초하여 오브젝트의 접근을 판정하도록 구성된다. 표시 제어 유닛은 복수의 선택가능한 아이콘을 표시하기 위해 디스플레이를 제어하도록 구성된다. 표시 제어 유닛은, 오브젝트 접근 판정 유닛이 오브젝트가 디스플레이에 가깝다고 판정할 때, 복수의 선택가능한 아이콘 중 일부만을 표시하기 위해 복수의 선택가능한 아이콘의 표시를 변경하도록 디스플레이를 제어하도록 구성된다.

Description

전자 장치, 표시 제어 방법, 및 기록 매체{ELECTRONIC APPARATUS, DISPLAY CONTROL METHOD, AND RECORDING MEDIUM}
관련 출원의 상호 참조
본 출원은 2011년 2월 28일자로 일본 특허청에 출원된 일본 우선권 특허 출원 제2011-042909호에 기초하고 35 U.S.C. §119에 의거하여 그 우선권의 이익을 주장하며, 그 전체 내용은 본 명세서에 참조로서 원용된다.
기술 분야
본 개시는 전자 장치, 표시 방법, 및 프로그램에 관한 것으로, 특히, 터치 패널이 적층되어 설치된 디스플레이 유닛에 유저 인터페이스를 표시할 경우에 사용하기에 적합한 전자 장치, 표시 방법, 및 프로그램에 관한 것이다.
종래로부터, 터치 패널이 적층된 디스플레이 유닛 상에 유저로부터의 조작을 접수하기 위한 유저 인터페이스를 표시하도록 구성된 다양한 타입의 전자 장치가 존재한다. 구체적으로, 그러한 전자 장치는, 예를 들어, 퍼스널 컴퓨터, 스마트 폰, 자동차 내비게이션 장치, 및 ATM(Automated teller machines: 자동 인출기) 등에 적용된다.
또한, 터치 패널은, 유저의 손가락 등의 접촉을 검출할 뿐만 아니라, 유저의 손가락 등의 접근도 검출할 수 있다(정전 용량 타입의 터치 패널).
유저의 손가락 등의 접근을 검출할 수 있는 터치 패널로서, 예를 들어, 자동차 내비게이션 장치 등에 이용되는 터치 패널이 제안되어 있고, 터치 패널은 통상적으로 화면 상에 지도를 표시하고, 유저의 손가락 등이 그것에 접근할 때, 화면 상의 소정의 위치에 조작 입력용의 버튼을 표시한다(특허문헌 1 참조).
[선행기술문헌]
[특허문헌]
[특허문헌 1] JP-A-2002-358162
터치 패널이 적층된 디스플레이 유닛을 구비하는 전자 장치는 유저 인터페이스를 용이하게 변경할 수 있다. 예를 들어, 옵션으로서 복수의 버튼을 표시할 경우에, 동시에 표시되는 버튼의 수에 따라 버튼의 크기를 바꿀 수 있다.
그러나, 동시에 표시되는 버튼의 수가 많을 때에는, 각 버튼의 크기를 감소시키고, 버튼 간의 간격을 좁힌다. 그러한 경우에, 때때로, 유저가 원하는 버튼을 선택(접촉)하지 못할 때 유발되는 오조작 등의 조작성의 문제가 있을 수 있다.
본 개시는 상기의 상황을 감안하여 이루어진 것이며, 디스플레이 유닛에 터치 패널을 적층시켜 형성되는 유저 인터페이스의 조작성을 향상시키는 것을 목적으로 한다.
본 발명은 대체로 장치, 방법, 및 방법을 프로세서에 수행시키는 프로그램으로 인코딩된 컴퓨터 판독가능 매체를 포함한다. 일 실시 형태에서, 장치는 오브젝트 접근 판정 유닛 및 표시 제어 유닛을 포함한다. 오브젝트 접근 판정 유닛은 수신된 데이터에 기초하여 오브젝트의 접근을 판정하도록 구성된다. 표시 제어 유닛은 복수의 선택가능한 아이콘을 표시하기 위해 디스플레이를 제어하도록 구성된다. 표시 제어 유닛은, 오브젝트 접근 판정 유닛이 오브젝트가 디스플레이에 가깝다고 판정할 때, 복수의 선택가능한 아이콘 중 일부만을 표시하기 위해 복수의 선택가능한 아이콘의 표시를 변경하도록 디스플레이를 제어하도록 구성된다.
본 개시의 양태에 따르면, 디스플레이 유닛 상에 터치 패널을 적층시킴으로써 형성되는 유저 인터페이스의 조작성을 향상시킬 수 있다.
도 1은 실시 형태에 따른 전자 장치의 구성 예를 도시하는 블록도이다.
도 2는 도 1의 제어부의 기능 블록을 도시하는 도면이다.
도 3은 적응적 버튼 표시 처리를 설명하는 흐름도이다.
도 4a 내지 도 4c는 적응적 버튼 표시 처리에 있어서의 제1 표시 예를 도시하는 도면이다.
도 5a 내지 도 5c는 적응적 버튼 표시 처리에 있어서의 제2 표시 예를 도시하는 도면이다.
도 6a 내지 도 6c는 적응적 버튼 표시 처리에 있어서의 제3 표시 예를 도시하는 도면이다.
도 7a 내지 도 7c는 적응적 버튼 표시 처리에 있어서의 제4 표시 예를 도시하는 도면이다.
이하, 발명을 실시하기 위한 최적의 모드(best modes)(이하, 실시 형태라고 칭해짐)에 대해서 첨부 도면을 참조하여 상세하게 설명한다.
<1. 실시 형태>
[전자 장치의 구성 예]
도 1은 실시 형태에 따른 전자 장치의 구성 예를 나타내는 블록도이다. 전자 장치(10)는, 디스플레이 유닛에 터치 패널을 적층시켜 형성된 유저 인터페이스를 구비하며, 예를 들어, 퍼스널 컴퓨터, 스마트 폰, 디지털 스틸 카메라, 디지털 비디오 카메라, 또는 내비게이션 장치 등에 상당한다. 또한, 본 발명이 다른 전자 장치에 적용될 수 있다는 것은 자명하다.
전자 장치(10)는 버스(15)를 통해 그에 접속되는 터치 패널(11), 디스플레이 유닛(12), 기록부(13), 및 제어부(14)를 포함한다.
터치 패널(11)은 디스플레이 유닛(12)의 화면 표시를 투과할 수 있고, 유저의 손가락 등의 접촉뿐만 아니라 그것의 접근(손가락이 그것을 접촉하지 않고 소정의 거리까지 그것에 접근한다는 것을 의미함)도 검출할 수 있다. 여기서, 유저의 손가락 등은 유저의 손가락뿐만 아니라 신체의 다른 부분, 또는 터치 패널(11)과 호환가능한 스타일러스(stylus)(펜 형상을 갖는 지시 막대) 등도 나타낸다. 이하, 간단히 유저의 손가락 등은 간단히 유저의 손가락이라고 칭해지지만, 신체의 다른 부분 또는 스타일러스를 포함하는 것으로 정의된다.
터치 패널(11)로서, 예를 들어, 정전 용량 타입이 채택될 수 있다. 또한, 유저의 손가락의 접촉뿐만 아니라 그것의 접근도 검출할 수 있는 것이라면, 임의의 타입이 이용될 수 있다. 터치 패널(11)은 유저의 손가락의 접촉 또는 접근의 검출 결과를 나타내는 검출 정보를 버스(15)를 통해 제어부(14)에 통지한다.
디스플레이 유닛(12)은, 예를 들어, LCD 또는 유기 EL 디스플레이 등으로서 형성되고, 버스(15)를 통해 제어부(14)로부터 공급되는 화면 화상을 표시한다. 기록부(13)는 제어부(14)에서 실행되는 제어용 프로그램을 저장한다. 또한, 기록부(13)는 당해 전자 장치(10)의 처리 대상으로서의 각종 콘텐츠(화상 데이터, 오디오 데이터, 비디오 데이터, 및 애플리케이션 프로그램 등)를 저장한다.
제어부(14)는 기록부(13)에 저장되어 있는 제어용 프로그램을 실행함으로써, 전자 장치(10)의 전체를 제어한다.
또한, 전술한 구성에 추가하여, 역학적으로 눌러지는 버튼 등이 유저 인터페이스로서 설치될 수 있다.
도 2는 제어부(14)가 제어용 프로그램을 실행함으로써 실현되는 기능 블록을 도시한다.
조작 판정부(21)는 터치 패널(11)로부터 보내진 검출 정보에 기초하여 유저 조작을 판정한다. 구체적으로는, 접근에 의해 유발되는 손가락의 좌표의 변화에 기초하여, 조작 판정부는 디스플레이 유닛(12)의 선택 영역(41)(도 4a 내지 도 4c)에 손가락이 진입하는지 여부를 판정할 수 있거나, 또는 접근 방향 또는 이동 궤적을 판정할 수 있다. 또한, 조작 판정부(21)는 접촉의 좌표를 판정할 수 있다.
화면 화상 생성부(22)는 화상(디스플레이 유닛(12)에 표시될 유저 인터페이스 등으로서 기능하는 버튼 등을 포함하고, 이하, 화면 화상이라고 칭해짐)을 생성하고, 생성된 화면 화상을 버스(15)를 통해 디스플레이 유닛(12)에 공급한다. 또한, 화면 화상 생성부(22)는 판별된 유저 조작에 따라, 화면 화상에 있어서의 버튼의 위치를 유저가 버튼을 조작하기 쉬운 위치로 변경한다(그 상세한 설명은 적응적 버튼 표시 처리에서 후술함). 실행부(23)는 접촉된 버튼에 대응하는 처리를 실행한다.
[동작 설명]
다음에, 전자 장치(10)에 의해 수행되는 적응적 버튼 표시 처리에 대해서 설명한다. 도 3은 전자 장치(10)에 의해 수행되는 적응적 버튼 표시 처리를 설명하는 흐름도이다.
단계 S1에 있어서, 화면 화상 생성부(22)는 유저 인터페이스의 옵션으로서의 버튼이 초기 위치에 배치된 화면 화상을 생성하고, 버스(15)를 통해 화면 화상을 디스플레이 유닛(12)에 공급한다. 디스플레이 유닛(12)은 공급된 화면 화상을 표시한다.
단계 S2에 있어서, 조작 판정부(21)는 터치 패널(11)로부터 보내진 검출 정보에 기초하여, 유저의 손가락이 터치 패널(11) 근처에 가까운 상태에서 디스플레이 유닛(12)에 표시되어 있는 모든 버튼을 포함하는 선택 영역에 손가락이 진입하는지의 여부를 판정한다. 그리고, 조작 판정부는 손가락이 그 영역 내로 진입한다고 판정될 때까지 대기한다. 유저가 손가락을 디스플레이 유닛(12)의 화면에 접근시킬 때, 손가락이 선택 영역 내로 진입한다고 판정되고, 그런 다음 처리가 단계 S3으로 진행된다.
단계 S3에 있어서, 조작 판정부(21)는, 터치 패널(11)로부터 보내진 검출 정보에 기초하여, 유저의 손가락의 이동 방향을 판정한다. 단계 S4에 있어서, 화면 화상 생성부(22)는 조작 판정부(21)에 의해 판정된 유저의 손가락의 이동 방향에 따라 화면 화상에 있어서의 버튼의 배치를 변경한다. 즉, 화면 화상은 갱신되어 디스플레이 유닛(12)에 공급된다. 이에 의해, 디스플레이 유닛(12)의 화면에 있어서의 버튼의 배치가 변경된다.
단계 S5에 있어서, 조작 판정부(21)는 터치 패널(11)로부터 보내진 검출 정보에 기초하여, 유저의 손가락이 버튼을 접촉하는지의 여부(실제로는, 손가락이 터치 패널(11)을 접촉하는지의 여부)를 판정한다. 버튼이 접촉되지 않는다고 판정되면, 처리는 단계 S2로 복귀되어서, 그 이후의 처리를 반복한다.
유저의 손가락이 버튼을 접촉했다고 판정되면, 처리는 단계 S6으로 진행된다. 단계 S6에 있어서, 조작 판정부(21)는 유저의 손가락이 접촉한 터치 패널(11) 상의 좌표를 검출한다. 실행부(23)는 검출된 터치 패널(11) 상의 좌표에 기초하여 유저에 의해 접촉된 버튼을 특정한다. 또한, 실행부(23)는 접촉된 버튼에 대응하는 처리를 수행한다. 이상, 적응적 버튼 표시 처리를 설명했다.
다음에, 적응적 버튼 표시 처리에 있어서의 구체적인 제1 내지 제4 표시 예에 대해서 도 4a 내지 도 7c를 참조하여 설명한다.
도 4a 내지 도 4c는 적응적 버튼 표시 처리에 있어서의 제1 표시 예를 도시하는 도면이다. 제1 표시 예에서는, 유저의 손가락의 접근 방향에 따라 옵션이 선택된다.
첫번째 단계에 있어서, 디스플레이 유닛(12)의 화면(40) 상에는, 예를 들어, 도 4a에 도시된 바와 같이, 옵션에 각각 대응하는 복수의 버튼(42)이 배치된다. 또한, 화면(40) 상에는, 유저의 손가락의 접근 방향을 나타내는 화살표(43)와, 그에 따라 옵션을 선택하는 조건으로서 기능하는 카테고리가 표시된다. 또한, 선택 영역(41)은 유저에게 가시적이지 않지만, 시인되도록 구성될 수도 있다.
도 4a의 경우에, 옵션으로서, 버튼(42)이 표시되는데, 버튼은, 음악 카테고리에 속하는 락, 클래식, 및 재즈, 스포츠 카테고리에 속하는 테니스, 야구, 및 수영, 및 과일 카테고리에 속하는 레몬 및 바나나에 각각 대응한다. 또한, 좌측으로부터 진입하는 화살표(43-1)와 그것에 대응하는 카테고리로서 음악의 문자열, 하측으로부터 진입하는 화살표(43-2)와 그것에 대응하는 카테고리로서 스포츠의 문자열, 및 우측으로부터 진입하는 화살표(43-3)와 그것에 대응하는 카테고리로서 과일의 문자열이 표시된다.
예를 들어, 유저가 그의 손가락이 터치 패널(11) 근처에 가까운 상태에서 손가락을 좌측으로부터 선택 영역(41) 내로 이동할 때, 도 4b에 도시된 바와 같이, 디스플레이 유닛(12)의 화면(40) 상에서는 음악 카테고리에 속하는 옵션에 대응하는 버튼(44)만으로 변경된다. 그러한 경우에, 음악 카테고리에 속하는 락, 클래식, 및 재즈에 각각 대응하는 버튼(44)만으로 옵션을 좁혀서 표시된다.
또한, 예를 들어, 유저가 그의 손가락이 터치 패널(11) 근처에 가까운 상태에서 손가락을 우측으로부터 선택 영역(41) 내로 이동할 때, 도 4c에 도시된 바와 같이, 디스플레이 유닛(12)의 화면(40) 상에서는 과일 카테고리에 속하는 옵션에 대응하는 버튼(45)만으로 변경된다. 그러한 경우에, 과일 카테고리에 속하는 레몬 및 바나나에 각각 대응하는 버튼(45)만으로 옵션을 좁혀서 표시된다.
또한, 도면에 도시되지는 않았지만, 유저가 그의 손가락이 터치 패널(11) 근처에 가까운 상태에서 손가락을 하측으로부터 선택 영역(41) 내로 이동할 때, 디스플레이 유닛(12)의 화면(40) 상에서는 스포츠 카테고리에 속하는 테니스, 야구, 및 수영에 각각 대응하는 버튼만으로 변경된다.
또한, 도 4b와 도 4c에 도시된 바와 같이, 버튼(44, 45)의 간격과 크기는 도 4a의 버튼(32)의 것보다 커지도록 확대될 수 있다.
도 4a 내지 도 4c에 도시된 제1 표시 예에 따르면, 유저의 손가락의 접근 방향에 따라 표시되는 버튼의 수를 감소시킬 수 있으므로, 이것은 유저가 버튼을 누르기 쉽게 도와준다. 따라서, 유저의 조작성을 향상시킬 수 있다.
도 5a 내지 도 5c는 적응적 버튼 표시 처리에 있어서의 제2 표시 예를 도시한다. 제2 표시 예에서는, 유저의 손가락의 접근 방향에 따라 옵션으로서 기능하는 버튼의 배치 방향이 변경된다.
첫번째 단계에 있어서, 디스플레이 유닛(12)의 화면(50)에는, 예를 들어, 도5a에 도시된 바와 같이, 옵션에 각각 대응하는 복수의 버튼(51)이 매트릭스 형상으로 배치된다.
도 5a의 경우에, 4개의 옵션에 각각 대응하는 A, B, C, 및 D의 버튼(51)이 2×2의 매트릭스 형상으로 배치된다.
예를 들어, 유저가 그의 손가락이 터치 패널(11) 근처에 가까운 상태에서 손가락을 좌측으로부터 선택 영역(41) 내로 이동할 때, 도 5b에 도시된 바와 같이, 화면(50) 상의 복수의 버튼(51)의 배치가 그 접근 방향에 대하여 수직인 방향, 즉, 상하 방향으로 변경된다. 또한, 유저가 그의 손가락이 터치 패널(11) 근처에 가까운 상태에서 손가락을 우측으로부터 선택 영역(41) 내로 이동할 경우에도 마찬가지이다.
또한, 예를 들어, 유저가 그의 손가락이 터치 패널(11) 근처에 가까운 상태에서 손가락을 하측으로부터 선택 영역(41) 내로 이동할 때, 도 5c에 도시된 바와 같이, 화면(50) 상의 복수의 버튼(51)의 배치가 접근 방향에 대하여 수직인 방향, 즉, 좌우 방향으로 변경된다. 또한, 유저가 그의 손가락이 터치 패널(11) 근처에 가까운 상태에서 손가락을 상측으로부터 선택 영역(41) 내로 이동할 경우에도 마찬가지이다.
도 5a 내지 도 5c에 도시된 제2 표시 예에 따르면, 유저의 손가락의 접근 방향에 대하여 수직이 되도록 버튼의 배치 방향이 변경되므로, 이것은 버튼이 매트릭스 형상으로 배치되는 경우에 비해 유저가 버튼을 누르기 쉽게 도와준다. 따라서, 유저의 조작성을 향상시킬 수 있다.
도 6a 내지 도 6c는 적응적 버튼 표시 처리에 있어서의 제3 표시 예를 도시한다. 제3 표시 예에서는, 유저의 손가락의 이동 궤적에 따라 옵션으로서 기능하는 버튼의 배치 방향이 변경된다.
첫번째 단계에 있어서, 디스플레이 유닛(12)의 화면(60)에는, 예를 들어, 도6a에 도시된 바와 같이, 옵션에 각각 대응하는 복수의 버튼(61)이 서로 중첩하도록 배치된다.
도 6a의 경우에, 4개의 옵션에 각각 대응하는 A, B, C, 및 D의 버튼(61)이 서로 중첩하도록 배치된다.
예를 들어, 유저가 그의 손가락이 터치 패널(11) 근처에 가까운 상태에서 손가락을 하 우측에서부터 상 좌측 방향으로 선택 영역(41)에서 이동할 때, 도 6b에 도시된 바와 같이, 화면(60) 상의 복수의 버튼(61)의 배치가 그 이동 궤적에 따라 변경된다.
마찬가지로, 유저가 그의 손가락이 터치 패널(11) 근처에 가까운 상태에서 손가락을 하 중앙측에서부터 상 우측 방향으로 선택 영역(41)에서 이동할 때, 도 6c에 도시된 바와 같이, 화면(60) 상의 복수의 버튼(61)의 배치가 그 이동 궤적을 따라 변경된다.
도 6a 내지 도 6c에 도시된 제3 표시 예에 따르면, 유저는 그의 손가락을 이동함으로써 버튼의 배치를 임의로 변경할 수 있으므로, 이것은 유저가 버튼을 누르기 쉽게 도와준다. 따라서, 유저의 조작성을 향상시킬 수 있다.
도 7a 내지 도 7c는 적응적 버튼 표시 처리에 있어서의 제4 표시 예를 도시한다. 제4 표시 예에서는, 유저의 손가락의 접근 방향에 따라 옵션으로서 기능하는 버튼의 배치 방향이 변경된다.
첫번째 단계에 있어서, 디스플레이 유닛(12)의 화면(70) 상에는, 도 7a에 도시된 바와 같이, 옵션에 각각 대응하는 복수의 버튼(72)이 배경 화상에 중첩하도록 매트릭스 형상으로 배치된다.
도 7a의 경우에, 배경은 오브젝트(71)를 포함하고, A 내지 P의 버튼(72)이 오브젝트(71)에 중첩하도록 4×4의 매트릭스 형상으로 배치된다.
예를 들어, 유저가 그의 손가락을 오브젝트(71)에 접근시킬 때, 도 7b 또는 도 7c에 도시된 바와 같이, 화면(70) 상의 복수의 버튼(72)의 배치가 손가락을 피하도록 변경된다.
도 7a 내지 도 7c에 도시된 제4 표시 예에 따르면, 유저는 그의 손가락을 이동함으로써 표시되어 있는 버튼을 치울 수 있다. 따라서, 배경의 오브젝트(71)를 시인하기 쉽게 할 수 있다. 또한, 오브젝트(71)를 확인한 후에 버튼을 누를 수 있다. 따라서, 유저의 조작성을 향상시킬 수 있다.
단, 전술한 일련의 처리는 하드웨어에 의해 실행될 수도 있고, 소프트웨어에 의해 실행될 수도 있다.
또한, 컴퓨터에 의해 실행되는 프로그램은 본 명세서의 설명 순서로 처리를 시계열적으로 수행하는 프로그램일 수 있고, 처리를 병렬적으로 또는 호출 타이밍 등의 필요한 타이밍에 수행하는 프로그램일 수 있다.
또한, 프로그램은 한대의 컴퓨터에 의해 처리될 수 있고, 복수의 컴퓨터에 의해 분산 처리될 수 있다. 또한, 프로그램은 원격 컴퓨터에 전송될 수 있고, 거기서 실행될 수 있다.
또한, 본 개시의 실시 형태는, 전술한 실시 형태에 한정되지 않고, 본 발명의 기술적 범위를 일탈하지 않으면서 다양한 형태로 변경될 수 있다.
본 개시는 또한 하기의 구성을 취할 수 있다는 것을 유의한다.
[1] 전자 장치로서,
유저에 의해 선택가능한 복수의 옵션에 각각 대응하는 버튼을 포함하는 조작 화면을 생성하는 생성부,
생성된 상기 조작 화면을 표시하는 표시부, 및
상기 유저의 지시부의 상기 표시부에 대한 접근을 검출하는 검출부를 포함하고,
상기 생성부는 검출된 상기 지시부의 접근 위치에 기초하여, 상기 조작 화면에 있어서의 상기 버튼의 배치를 변경하는, 전자 장치.
[2] 제1항에 있어서,
상기 생성부는 검출된 상기 지시부의 접근 위치의 이동 궤적 또는 이동 방향에 기초하여, 상기 조작 화면에 있어서의 상기 버튼의 배치를 변경하는, 전자 장치.
[3] 제2항에 있어서,
상기 생성부는 검출된 상기 지시부의 접근 위치의 이동 방향에 따라, 상기 조작 화면에 있어서의 복수의 버튼을 선택하는, 전자 장치.
[4] 제3항에 있어서,
상기 생성부는 상기 복수의 버튼을 선택하기 위한 선택 조건이 상기 지시부의 접근 위치의 이동 방향과 연관지어진 정보를 포함하는 상기 조작 화면을 생성하는, 전자 장치.
[5] 제2항에 있어서,
상기 생성부는 검출된 상기 지시부의 접근 위치의 이동 방향에 수직한 방향으로 상기 조작 화면에 있어서의 상기 복수의 버튼의 배치를 변경하는, 전자 장치.
[6] 제2항에 있어서,
상기 생성부는 검출된 상기 지시부의 접근 위치의 이동 궤적에 기초하여, 상기 조작 화면에 있어서의 상기 버튼의 배치를 상기 이동 궤적에 따라 변경하는, 전자 장치.
[7] 제1항에 있어서,
상기 생성부는 검출된 상기 지시부의 접근 위치를 피하도록 상기 조작 화면에 있어서의 상기 버튼의 배치를 변경하는, 전자 장치.
[8] 제1항에 있어서,
상기 검출부는 상기 표시부에 적층되고, 상기 표시부에 표시되는 상기 조작 화면을 투과함으로써, 생성된 상기 조작 화면을 표시하도록 하는, 전자 장치.
[9] 전자 장치의 표시 제어 방법으로서,
전자 장치는,
조작 화면을 생성하는 생성부,
생성된 상기 조작 화면을 표시하는 표시부, 및
유저의 지시부의 상기 표시부에 대한 접근을 검출하는 검출부를 갖고,
상기 방법은, 상기 생성부가
유저에 의해 선택가능한 복수의 옵션에 각각 대응하는 버튼을 포함하는 조작 화면을 생성하고,
검출된 상기 지시부의 접근 위치에 기초하여, 상기 조작 화면에 있어서의 상기 버튼의 배치를 변경하도록 하는 단계를 포함하는, 전자 장치의 표시 제어 방법.
[10] 컴퓨터 프로그램으로서,
상기 컴퓨터는,
생성된 조작 화면을 표시하는 표시부, 및
유저의 지시부의 상기 표시부에 대한 접근을 검출하는 검출부를 포함하고,
상기 프로그램은, 상기 컴퓨터가
유저에 의해 선택가능한 복수의 옵션에 각각 대응하는 버튼을 포함하는 조작 화면을 생성하는 생성 단계, 및
검출된 상기 지시부의 접근 위치에 기초하여, 상기 조작 화면에 있어서의 상기 버튼의 배치를 변경하는 변경 단계를 포함하는 처리를 실행하도록 하는, 컴퓨터 프로그램.

Claims (12)

  1. 유저에게 선택시키는 복수의 선택지에 각각 대응하는 버튼을 포함하는 조작 화면을 생성하는 생성부와,
    생성된 상기 조작 화면을 표시하는 표시부에 대한 상기 유저의 지시 부위의 접근을 검지하는 검지부
    를 포함하고,
    상기 생성부는, 상기 검지부에 의해 상기 유저의 상기 지시 부위의 접근이 검지된 경우, 상기 조작 화면에 표시되어 있는 복수의 상기 버튼 중, 검지된 상기 지시 부위의 이동 방향에 따른 장르에 속하는 상기 버튼만을 선발하여 상기 조작 화면을 재생성하는, 전자 장치.
  2. 제1항에 있어서, 상기 생성부는, 상기 지시 부위의 이동 방향과, 상기 장르를 대응지은 정보를 포함하는 상기 조작 화면을 생성하는, 전자 장치.
  3. 제2항에 있어서, 상기 대응지은 정보에는 장르의 명칭이 포함되는, 전자 장치.
  4. 제2항 또는 제3항에 있어서, 상기 대응지은 정보에는, 지시 부위의 이동 방향을 나타내는 표시가 포함되는, 전자 장치.
  5. 제3항에 있어서, 상기 장르의 명칭에는, 적어도 음악을 나타내는 문언이 포함되는, 전자 장치.
  6. 제1항 내지 제3항 및 제5항 중 어느 한 항에 있어서, 재생성된 상기 조작 화면에 있어서의 선택지로서의 버튼은, 재생성 이전의 상기 조작 화면에 있어서의 선택지로서의 버튼보다 표시 면적이 큰, 전자 장치.
  7. 제1항 내지 제3항 및 제5항 중 어느 한 항에 있어서, 상기 조작 화면에는, 유저에 대하여 선택 조작을 재촉하기 위한 표시가 행해지는, 전자 장치.
  8. 제1항 내지 제3항 및 제5항 중 어느 한 항에 있어서, 상기 지시 부위의 이동 방향에는, 상기 조작 화면의 수평 방향 또는 수직 방향을 포함하는, 전자 장치.
  9. 제1항 내지 제3항 및 제5항 중 어느 한 항에 있어서, 상기 검지부는, 상기 표시부에 적층되고, 상기 표시부에 표시되는 상기 조작 화면을 투과하는, 전자 장치.
  10. 조작 화면을 생성하는 생성부와,
    생성된 상기 조작 화면을 표시하는 표시부에 대한 유저의 지시 부위의 접근을 검지하는 검지부
    를 구비하는 전자 장치의 표시 제어 방법에 있어서,
    상기 생성부에 의한,
    유저에게 선택시키는 복수의 선택지에 각각 대응하는 버튼을 포함하는 상기 조작 화면을 생성하는 생성 스텝과,
    상기 검지부에 의해 상기 유저의 상기 지시 부위의 접근이 검지된 경우, 상기 조작 화면에 표시되어 있는 복수의 상기 버튼 중, 검지된 상기 지시 부위의 이동 방향에 따른 장르에 속하는 상기 버튼만을 선발하여 상기 조작 화면을 재생성하는 재생성 스텝
    을 포함하는, 표시 제어 방법.
  11. 생성된 조작 화면을 표시하는 표시부에 대한 유저의 지시 부위의 접근을 검지하는 검지부를 구비하는 컴퓨터에,
    유저에게 선택시키는 복수의 선택지에 각각 대응하는 버튼을 포함하는 상기 조작 화면을 생성하는 생성 스텝과,
    상기 검지부에 의해 상기 유저의 상기 지시 부위의 접근이 검지된 경우, 상기 조작 화면에 표시되어 있는 복수의 상기 버튼 중, 검지된 상기 지시 부위의 이동 방향에 따른 장르에 속하는 상기 버튼만을 선발하여 상기 조작 화면을 재생성하는 재생성 스텝
    을 포함하는 처리를 실행시키는 프로그램을 기록한 컴퓨터 판독가능한 기록 매체.
  12. 삭제
KR1020137021868A 2011-02-28 2012-02-21 전자 장치, 표시 제어 방법, 및 기록 매체 KR102067295B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011042909A JP5810554B2 (ja) 2011-02-28 2011-02-28 電子装置、表示方法、およびプログラム
JPJP-P-2011-042909 2011-02-28
PCT/JP2012/001143 WO2012117690A1 (en) 2011-02-28 2012-02-21 Electronic apparatus, display method, and program

Publications (2)

Publication Number Publication Date
KR20140006893A KR20140006893A (ko) 2014-01-16
KR102067295B1 true KR102067295B1 (ko) 2020-01-16

Family

ID=46757635

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020137021868A KR102067295B1 (ko) 2011-02-28 2012-02-21 전자 장치, 표시 제어 방법, 및 기록 매체

Country Status (9)

Country Link
US (2) US20140123069A1 (ko)
EP (1) EP2681646B1 (ko)
JP (1) JP5810554B2 (ko)
KR (1) KR102067295B1 (ko)
CN (1) CN103380410B (ko)
BR (1) BR112013021383A2 (ko)
RU (1) RU2013139024A (ko)
TW (1) TW201246019A (ko)
WO (1) WO2012117690A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI478046B (zh) * 2012-12-28 2015-03-21 Qisda Corp 數位相機操作方法以及使用此方法之數位相機
US9501163B2 (en) * 2014-05-06 2016-11-22 Symbol Technologies, Llc Apparatus and method for activating a trigger mechanism
USD774518S1 (en) * 2015-02-13 2016-12-20 Shenzhen Free Interactive Inc. Display screen with graphical user interface

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010128685A (ja) * 2008-11-26 2010-06-10 Fujitsu Ten Ltd 電子機器

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1139093A (ja) * 1997-07-15 1999-02-12 Toshiba Corp 情報処理装置およびポインティング装置
JP2002297283A (ja) * 2001-03-30 2002-10-11 Just Syst Corp ボタン制御方法およびボタン制御装置
JP2002358162A (ja) 2001-06-01 2002-12-13 Sony Corp 画像表示装置
JP4220408B2 (ja) * 2004-02-13 2009-02-04 株式会社日立製作所 テーブル型情報端末
JP4325449B2 (ja) * 2004-03-19 2009-09-02 ソニー株式会社 表示制御装置,表示制御方法,記録媒体
US20050278656A1 (en) * 2004-06-10 2005-12-15 Microsoft Corporation User control for dynamically adjusting the scope of a data set
US7653883B2 (en) * 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
WO2007124161A1 (en) 2006-04-21 2007-11-01 Abbott Laboratories Guidewire placement device
CA2646015C (en) * 2006-04-21 2015-01-20 Anand Agarawala System for organizing and visualizing display objects
US8316324B2 (en) * 2006-09-05 2012-11-20 Navisense Method and apparatus for touchless control of a device
US8284165B2 (en) * 2006-10-13 2012-10-09 Sony Corporation Information display apparatus with proximity detection performance and information display method using the same
JP4220555B2 (ja) * 2007-02-09 2009-02-04 株式会社日立製作所 テーブル型情報端末
JP4991458B2 (ja) * 2007-09-04 2012-08-01 キヤノン株式会社 画像表示装置及びその制御方法
KR101570368B1 (ko) * 2008-08-22 2015-11-20 엘지전자 주식회사 이동 단말기 및 그 메뉴 표시 방법
WO2009067224A1 (en) * 2007-11-19 2009-05-28 Cirque Corporation Touchpad combined with a display and having proximity and touch sensing capabilities
KR101387527B1 (ko) * 2007-12-06 2014-04-23 엘지전자 주식회사 단말기 및 그 메뉴 아이콘 디스플레이 방법
KR101499546B1 (ko) * 2008-01-17 2015-03-09 삼성전자주식회사 터치 스크린 장치의 디스플레이 영역 제어 방법, 장치, 및기록매체
KR101513023B1 (ko) * 2008-03-25 2015-04-22 엘지전자 주식회사 단말기 및 이것의 정보 디스플레이 방법
US8576181B2 (en) * 2008-05-20 2013-11-05 Lg Electronics Inc. Mobile terminal using proximity touch and wallpaper controlling method thereof
US8279241B2 (en) * 2008-09-09 2012-10-02 Microsoft Corporation Zooming graphical user interface
EP3654141A1 (en) * 2008-10-06 2020-05-20 Samsung Electronics Co., Ltd. Method and apparatus for displaying graphical user interface depending on a user's contact pattern
KR101528262B1 (ko) * 2008-11-26 2015-06-11 삼성전자 주식회사 휴대 단말기 잠금 모드 해제 방법 및 장치
CN102239465A (zh) * 2008-12-04 2011-11-09 三菱电机株式会社 显示输入装置
JP2010262415A (ja) * 2009-04-30 2010-11-18 Brother Ind Ltd 処理装置
KR101387270B1 (ko) * 2009-07-14 2014-04-18 주식회사 팬택 터치 궤적에 따라 메뉴 정보를 표시하는 이동 단말기
CN102934065B (zh) * 2010-04-09 2016-03-16 索尼电脑娱乐公司 信息处理装置
US20110265039A1 (en) * 2010-04-22 2011-10-27 Palm, Inc. Category-based list navigation on touch sensitive screen
JP2012003742A (ja) * 2010-05-18 2012-01-05 Panasonic Corp 入力装置、入力方法、プログラム及び記録媒体
US20110296351A1 (en) * 2010-05-26 2011-12-01 T-Mobile Usa, Inc. User Interface with Z-axis Interaction and Multiple Stacks
JP2012014459A (ja) * 2010-06-30 2012-01-19 Brother Ind Ltd 表示装置、画像表示方法、および画像表示プログラム
JP2012032852A (ja) * 2010-07-28 2012-02-16 Sony Corp 情報処理装置、情報処理方法およびコンピュータプログラム
US20120059647A1 (en) * 2010-09-08 2012-03-08 International Business Machines Corporation Touchless Texting Exercise

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010128685A (ja) * 2008-11-26 2010-06-10 Fujitsu Ten Ltd 電子機器

Also Published As

Publication number Publication date
BR112013021383A2 (pt) 2016-10-18
RU2013139024A (ru) 2015-02-27
JP5810554B2 (ja) 2015-11-11
WO2012117690A1 (en) 2012-09-07
CN103380410A (zh) 2013-10-30
CN103380410B (zh) 2016-10-19
TW201246019A (en) 2012-11-16
JP2012181613A (ja) 2012-09-20
KR20140006893A (ko) 2014-01-16
EP2681646B1 (en) 2019-02-13
EP2681646A1 (en) 2014-01-08
US20140123069A1 (en) 2014-05-01
EP2681646A4 (en) 2016-07-06
US20200356226A1 (en) 2020-11-12

Similar Documents

Publication Publication Date Title
US10444989B2 (en) Information processing apparatus, and input control method and program of information processing apparatus
US9092058B2 (en) Information processing apparatus, information processing method, and program
US9939951B2 (en) Electronic device operating according to pressure state of touch input and method thereof
US9552095B2 (en) Touch screen controller and method for controlling thereof
US9864499B2 (en) Display control apparatus and control method for the same
EP2332023B1 (en) Two-thumb qwerty keyboard
US8581869B2 (en) Information processing apparatus, information processing method, and computer program
US10198163B2 (en) Electronic device and controlling method and program therefor
EP2763023A2 (en) Method and apparatus for multitasking
JP5630160B2 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
US9740364B2 (en) Computer with graphical user interface for interaction
US20130332892A1 (en) User interface device enabling input motions by finger touch in different modes, and method and program for recognizing input motion
JP4818036B2 (ja) タッチパネル制御装置およびタッチパネル制御方法
US20100124946A1 (en) Portable terminal with touch screen and method for displaying tags in the portable terminal
US20200356226A1 (en) Electronic apparatus and display method for touch proximity detection
JP6004716B2 (ja) 情報処理装置およびその制御方法、コンピュータプログラム
KR102205283B1 (ko) 적어도 하나의 어플리케이션을 실행하는 전자 장치 및 그 제어 방법
US20110025718A1 (en) Information input device and information input method
US20120218274A1 (en) Electronic device, operation control method, and storage medium storing operation control program
US10303295B2 (en) Modifying an on-screen keyboard based on asymmetric touch drift
US20140157118A1 (en) Information processing apparatuses, non-transitory computer readable medium, and information processing method
US20100245266A1 (en) Handwriting processing apparatus, computer program product, and method
JP6028375B2 (ja) タッチパネル装置及びプログラム。
JP2013114540A (ja) 電子機器、その制御方法及びプログラム
JP5841023B2 (ja) 情報処理装置、情報処理方法、プログラム及び情報記憶媒体

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL NUMBER: 2018101003352; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20180810

Effective date: 20190930

S901 Examination by remand of revocation
GRNO Decision to grant (after opposition)