KR20140068024A - 정보 처리 장치, 정보 처리 방법 및 프로그램 - Google Patents

정보 처리 장치, 정보 처리 방법 및 프로그램 Download PDF

Info

Publication number
KR20140068024A
KR20140068024A KR1020147004212A KR20147004212A KR20140068024A KR 20140068024 A KR20140068024 A KR 20140068024A KR 1020147004212 A KR1020147004212 A KR 1020147004212A KR 20147004212 A KR20147004212 A KR 20147004212A KR 20140068024 A KR20140068024 A KR 20140068024A
Authority
KR
South Korea
Prior art keywords
displayed
user interface
display
information processing
input
Prior art date
Application number
KR1020147004212A
Other languages
English (en)
Inventor
와타루 가와마타
Original Assignee
소니 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 주식회사 filed Critical 소니 주식회사
Publication of KR20140068024A publication Critical patent/KR20140068024A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

정보 처리 장치는, 제1 오브젝트를 표시하도록 유저 인터페이스를 제어하는 표시 제어기; 및 상기 유저 인터페이스에서 수신된 입력을 검출하는 검출부를 포함하는데, 상기 표시 제어기는, 표시된 제1 오브젝트에 대응하는 소정의 동작을, 상기 제1 오브젝트가 표시되는 제1 위치에서 검출된 제1 입력과, 오브젝트가 표시되지 않는 제2 위치에서 검출된 제2 입력에 기초하여 수행한다.

Description

정보 처리 장치, 정보 처리 방법 및 프로그램{INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM}
본 개시는 정보 처리 장치, 정보 처리 방법 및 프로그램에 관한 것이다.
최근, 입력 장치가 다양화되고, 따라서 유저에 의한 정보 처리 장치의 조작 방법이 많이 고안되어 있다. 예를 들어, 포인팅 장치에 있어서, 종래에는 동시에 입력되는 좌표 위치의 수는 1개이었다. 그러나, 예를 들어, 특허문헌 1에도 기재된 바와 같이, 복수의 좌표 위치를 동시에 입력할 수 있는 멀티 포인팅 장치가 등장했다.
일본 특허 공개 제2008-70968호의 공보
따라서, 입력 장치가 다양화됨에 따라, 조작성이 향상된 유저 인터페이스가 요구되고 있다. 따라서, 조작성을 향상시킬 수 있는, 신규이면서도 개량된 정보 처리 장치, 정보 처리 방법 및 프로그램을 제안하는 것이 바람직하다.
본 개시에 의하면, 제1 오브젝트를 표시하도록 유저 인터페이스를 제어하는 표시 제어기; 및 상기 유저 인터페이스에서 수신된 입력을 검출하는 검출부를 포함하되, 상기 표시 제어기가 상기 표시된 제1 오브젝트에 대응하는 소정의 조작을, 상기 제1 오브젝트가 표시되는 제1 위치에서 검출된 제1 입력과, 상기 오브젝트가 표시되지 않는 제2 위치에서 검출된 제2 입력에 기초하여, 수행하는 정보 처리 장치가 제공된다.
본 개시에 의하면, 제1 오브젝트를 표시하도록 유저 인터페이스를 제어하는 단계; 상기 유저 인터페이스에서 수신된 입력을 검출하는 단계; 및 상기 표시된 제1 오브젝트에 대응하는 소정의 조작을, 상기 제1 오브젝트가 표시되는 제1 위치에서 검출된 제1 입력과, 상기 오브젝트가 표시되지 않는 제2 위치에서 검출된 제2 입력에 기초하여, 수행하는 단계를 포함하는 정보 처리 방법이 제공된다.
본 개시에 의하면, 정보 처리 장치에 의해 실행될 때, 제1 오브젝트를 표시하도록 유저 인터페이스를 제어하는 단계; 상기 유저 인터페이스에서 수신된 입력을 검출하는 단계; 및 상기 표시된 제1 오브젝트에 대응하는 소정의 조작을, 상기 제1 오브젝트가 표시되는 제1 위치에서 검출된 제1 입력과, 상기 오브젝트가 표시되지 않는 제2 위치에서 검출된 제2 입력에 기초하여, 수행하는 단계를 포함하는 정보 처리 방법을, 상기 정보 처리 장치가 수행하게 하는 컴퓨터 프로그램 명령을 포함하는 비-일시적 컴퓨터 판독가능 매체가 제공된다.
상술한 본 개시에 의하면, 조작성을 향상시킬 수 있다.
도 1은 본 개시의 제1 실시 형태에 관한 정보 처리 장치의 기능 구성을 도시하는 블록도이다.
도 2는 제1 실시 형태에 관한 정보 처리 장치에서 인식된 오브젝트의 선택 조작을 도시하는 도면이다.
도 3은 제1 실시 형태에 관한 정보 처리 장치에 있어서의 대상 오브젝트의 확대 조작을 도시하는 도면이다.
도 4는 제1 실시 형태에 관한 정보 처리 장치가 표시한 대상 오브젝트의 표시 위치를 도시하는 도면이다.
도 5는 제1 실시 형태에 관한 정보 처리 장치가 표시한 대상 오브젝트의 확대 중심의 이동을 도시하는 도면이다.
도 6은 중요 영역이 포함되는 경우에, 제1 실시 형태에 관한 정보 처리 장치가 표시한 대상 오브젝트의 표시 위치를 도시하는 도면이다.
도 7은 제1 실시 형태에 관한 정보 처리 장치의 확대 조작에 있어서의 추가 기능의 표시를 도시하는 도면이다.
도 8은 제1 실시 형태에 관한 정보 처리 장치에 있어서의 대상 오브젝트의 선택 범위의 확대 조작을 도시하는 도면이다.
도 9는 제1 실시 형태에 관한 정보 처리 장치에 있어서 복수의 대상 오브젝트가 선택되어 있을 때의 확대 조작을 도시하는 도면이다.
도 10은 제1 실시 형태에 관한 정보 처리 장치에 있어서의 오브젝트의 효과의 변경 조작을 도시하는 도면이다.
도 11은 제1 실시 형태에 관한 정보 처리 장치에 있어서의 대상 오브젝트의 회전 조작을 도시하는 도면이다.
도 12는 본 개시의 제2 실시 형태에 관한 정보 처리 장치의 기능 구성을 도시하는 블록도이다.
도 13은 본 개시의 제1 및 제2 실시 형태에 관한 정보 처리 장치의 하드웨어 구성예를 도시하는 블록도이다.
이하, 첨부 도면을 참조하여, 본 개시의 양호한 실시 형태에 대해서 상세하게 설명한다. 본 명세서 및 도면 전반에 걸쳐서, 실질적으로 동일한 기능 구성을 갖는 구성 요소에 대해서는 동일한 부호를 부여하고, 그에 대한 설명은 생략한다.
본 명세서 및 도면에 있어서, 실질적으로 동일한 기능 구성을 갖는 복수의 구성 요소를 서로 구별하기 위해서는, 동일한 부호의 끝에 다른 알파벳을 부여하는 경우도 있다. 예를 들어, 실질적으로 동일한 기능 구성을 갖는 복수의 구성 요소는, 필요에 따라 오브젝트(5A 및 5B)와 같이 구별된다. 그러나, 실질적으로 동일한 기능 구성을 갖는 복수의 구성 요소를 서로 구별할 필요가 없을 경우에, 구성 요소에는 동일 부호만이 부여된다. 예를 들어, 오브젝트(5A 및 5B)를 서로 구별할 필요가 없는 경우에는, 오브젝트(5A 및 5B)는 간단히 오브젝트(5)라고 불린다.
본 명세서 및 도면에 있어서, 실질적으로 동일한 기능 구성을 갖는 복수의 구성 요소를 서로 구별하기 위해서는, 동일한 부호의 끝에 하이픈을 통해서 다른 부호를 부여하는 경우도 있다. 예를 들어, 실질적으로 동일한 기능 구성을 갖는 복수의 구성 요소는, 필요에 따라 오브젝트(5C-1 및 5C-2)와 같이 구별된다. 그러나, 실질적으로 동일한 기능 구성을 갖는 복수의 구성 요소를 서로 구별할 필요가 없을 경우에는, 동일 부호만을 구성 요소에 부여한다. 예를 들어, 오브젝트(5C-1 및 5C-2)를 서로 구별할 필요가 없는 경우에는, 오브젝트(5C-1 및 5C-2)는 간단히 오브젝트(5C)라고 불린다.
설명은 이하의 순서로 행해진다.
1. 제1 실시 형태
1-1: 기능 구성
1-2: 확대 조작
1-3: 표시 위치의 이동
1-4: 추가 기능의 표시
1-5: 선택 범위의 확대 조작
1-6: 효과의 변경 조작
1-7: 회전 조작
2. 제2 실시 형태
3. 하드웨어 구성예
<1. 제1 실시 형태>
(1-1. 기능 구성)
우선, 도 1을 참조하면서, 본 개시의 한 실시 형태에 관한 정보 처리 장치의 기능 구성에 대해서 설명한다. 도 1은, 본 개시의 한 실시 형태에 관한 정보 처리 장치의 기능 구성을 도시하는 블록도이다.
도 1에 도시되는 정보 처리 장치(100a)는, 동시에 입력되는 복수의 좌표 위치를 인식할 수 있는 장치이다. 정보 처리 장치(100a)의 예는, 휴대 전화, 퍼스널 컴퓨터(PC), 영상 처리 장치, 게임 기기, 가전 기기 및 음악 재생 장치를 포함한다.
정보 처리 장치(100a)는, 표시부(101), 검출부(103), 조작 인식부(105) 및 표시 제어부(107)를 포함한다.
(표시부(101))
표시부(101)는 유저에 표시 화면을 제공하는 기능을 갖는다. 표시부(101)는, 액정 표시(LCD) 장치 또는 유기 발광 다이오드(OLED) 표시 장치 등의 표시 장치일 수 있다.
(검출부(103))
검출부(103)는, 표시 화면 위의 조작체의 위치를 검출하는 기능을 갖는다. 검출부(103)는, 표시 화면 위의 복수의 손가락 F의 위치를 검출할 수 있다. 검출부(103)의 기능은, 예를 들어 터치 센서, 촬상 장치 또는 그 밖의 센서를 사용해서 실현된다. 조작체의 일례로서는, 손가락, 팔 또는 발 등 유저의 신체, 및 스타일러스 펜을 들 수 있다. 본 실시 형태에 있어서, 검출부(103)는, 표시부(101) 위로 중첩되는 터치 센서이며, 조작체는 유저의 손가락 F인 것으로 한다. 여기에서 사용되는 터치 센서는, 예를 들어 표시 화면을 접촉하는 손가락 F의 위치를 검출하는 접촉식의 터치 센서일 수 있다. 대안적으로, 여기에서 사용되는 터치 센서는, 표시 화면 위의 손가락 F의 위치를 비접촉식으로 검출하는 비접촉식의 터치 센서일 수 있다. 대안적으로, 여기에서 사용되는 터치 센서는, 표시 화면에 대한 유저의 압입(pushing) 조작을 검출할 수 있다.
(조작 인식부(105))
조작 인식부(105)는, 유저에 의해 입력된 조작 패턴이 나타낸 처리를 인식하는 기능을 갖는다. 이 조작 패턴은, 조작체의 위치에 기초해서 판단된다. 구체적으로, 이 조작 패턴은, 조작체의 위치의 검출 타이밍, 및 조작체의 위치의 변화 패턴 등 여러 가지 조건에 기초해서 판단된다. 조작 인식부(105)는, 이 조작 패턴을 판단하여, 조작 패턴과 미리 연관된 처리를 인식한다.
(표시 제어부(107))
표시 제어부(107)는, 표시부(101)에의 표시 화면의 표시를 제어하는 기능을 갖는다. 표시 제어부(107)는, 조작 인식부(105)에 의해 인식된 처리에 기초하여 표시 화면을 생성하고, 이 표시 화면을 표시부(101)에 표시할 수 있다. 예를 들어, 표시 제어부(107)는, 조작 인식부(105)가, 유저에 의해 입력된 조작 패턴이 오브젝트의 확대 조작인 것으로 인식했을 경우에는, 대상 오브젝트를 확대한 표시 화면을 표시할 수 있다.
표시 제어부(107)는, 오브젝트를 표시 화면에 표시할 수 있다. 예를 들어, 표시 제어부(107)는, 복수의 오브젝트를 랜덤하게 표시 화면에 표시할 수 있다. 표시 제어부(107)는, 이 오브젝트 중 어느 하나가 선택되면, 선택된 오브젝트(이하, 조작될 오브젝트를 의미하는 대상 오브젝트라고도 칭함)를 다른 오브젝트와는 다르게 표시할 수 있다. 표시 제어부(107)가 행하는 제어의 상세에 대해서는, 후에 각각의 상황에 따라서 상세하게 설명한다.
이상, 본 실시 형태에 관한 정보 처리 장치(100a)의 기능의 일례를 나타냈다. 상기의 구성 요소는, 범용적인 부재나 회로를 사용해서 구성될 수 있거나, 구성 요소의 기능에 특화된 하드웨어에 의해 구성될 수도 있다. 또한, 구성 요소의 기능은, 중앙 처리 장치(CPU) 등의 연산 장치가 이들 기능을 실현하는 처리 수순을 기술한 제어 프로그램을 기억하고 있는, 판독 전용 메모리(ROM) 또는 랜덤 액세스 메모리(RAM) 등의 기억 매체로부터 제어 프로그램을 판독하고, 그 제어 프로그램을 해석해서 그 제어 프로그램을 실행함으로써 수행될 수 있다. 따라서, 본 실시 형태를 실현하는 기술 레벨에 따라, 이용하는 구성을 적절히 변경할 수 있다.
상술한 실시 형태에 관한 정보 처리 장치(100a)의 기능을 실현하기 위한 컴퓨터 프로그램이 작성되어, 퍼스널 컴퓨터 등에 실장될 수 있다. 또한, 이러한 컴퓨터 프로그램을 저장하는 컴퓨터 판독가능 기록 매체도 제공될 수 있다. 기록 매체의 예는, 자기 디스크, 광 디스크, 광자기 디스크 및 플래시 메모리를 포함한다. 또한, 상기 컴퓨터 프로그램은, 기록 매체를 사용하지 않고, 네트워크 등을 통해서 전달될 수 있다.
(1-2. 확대 조작)
이어서, 도 2 및 도 3을 참조하면서, 본 실시 형태에 관한 정보 처리 장치의 확대 조작에 대해서 설명한다. 도 2는, 제1 실시 형태에 관한 정보 처리 장치에서 인식된 오브젝트의 선택 조작을 도시하는 도면이다. 도 3은, 제1 실시 형태에 관한 정보 처리 장치에 있어서의 대상 오브젝트의 확대 조작을 도시하는 도면이다.
우선, 표시 제어부(107)는, (상태 1)에 도시된 바와 같이, 랜덤하게 배치된 복수의 오브젝트(5)를 표시 화면 위에 표시할 수 있다. 여기에서는, 4개의 오브젝트(5), 즉 오브젝트(5A), 오브젝트(5B), 오브젝트(5C) 및 오브젝트(5D)가 나타난다. 이러한 상태에 있어서, 유저가 손가락 F1으로 오브젝트(5) 중에서 조작될 대상 오브젝트를 선택한다(상태 2). 여기서, 손가락 F1은, 제1 조작체의 일례이다. 예를 들어, 조작 인식부(105)는, 오브젝트(5) 중 어느 하나 위에서 손가락 F1의 위치가 검출되면, 오브젝트(5) 중에서 조작될 대상 오브젝트를 선택하는 제1 조작을 인식할 수 있다. 보다 구체적으로는, 조작 인식부(105)는, 손가락 F1의 위치가 검출되면, 손가락 F1 밑에 위치하는 오브젝트(5C)를 선택하는 제1 조작을 인식할 수 있다. 표시 제어부(107)는, 선택된 오브젝트(5C)를 다른 오브젝트(5)와는 다르게 표시할 수 있다. 선택된 오브젝트(5C) 위로 다른 오브젝트(5)가 겹쳐서 표시되어 있는 경우에는, 표시 제어부(107)는, 선택된 오브젝트(5C)가 최상부에 표시되도록 제어할 수 있다.
따라서, 대상 오브젝트(5C)가 선택되면, 손가락 F2로 표시 화면 위의 어느 한 위치를 가리킨다(상태 3). 손가락 F2은, 제2 조작체의 일례이다. 이 손가락 F2은, 손가락 F1과 같은 손의 다른 손가락일 수 있다. 대안적으로, 이 손가락 F2은, 동일한 유저의 다른 손의 손가락 중 하나일 수 있다. 대안적으로, 이 손가락 F2은, 다른 유저의 손가락일 수 있다. 조작 인식부(105)는, 이 손가락 F1의 위치 P1과, 손가락 F2의 위치 P2 간의 상대 위치의 변화에 기초하여, 대상 오브젝트(5C)에 대한 제2 조작을 인식할 수 있다.
여기서, 도 3을 참조하여, 제2 조작의 일례로서 확대 조작이 설명된다. 상태 3에서의 손가락 F2의 위치는 P2-1로 한다. 유저는, 상태 4에 도시된 바와 같이, 위치 P2-1로부터 위치 P2-2로 손가락 F2을 이동시킨다. 여기서, 위치 P1과 위치 P2-1 사이의 거리와, 위치 P1과 위치 P2-2 사이의 거리가 변화했을 때, 조작 인식부(105)는 제2 조작이, 선택된 오브젝트(5)의 크기 변경 조작인 것으로 인식할 수 있다. 보다 구체적으로는, 위치 P1과 위치 P2-2 사이의 거리가, 위치 P1과 위치 P2-1 사이의 거리보다도 길 때에는, 조작 인식부(105)는, 이 제2 조작을 확대 조작이라고 인식할 수 있다. 반대로, 위치 P1과 위치 P2-2 사이의 거리가, 위치 P1과 위치 P2-1 사이의 거리보다도 짧을 때에는, 조작 인식부(105)는, 이 제2 조작을 축소 조작이라고 인식할 수 있다. 상태 4에 있어서는, 조작 인식부(105)가 제2 조작이 확대 조작이라고 인식하면, 표시 제어부(107)는, 대상 오브젝트(5C)를 확대해서 표시한다.
이상 설명한 바와 같이, 유저는, 정보 처리 장치(100a)가 제공하는 표시 화면 위의 복수의 오브젝트 중 어느 하나에 대하여 조작(제2 조작)을 행하고 싶을 때, 손가락 F1으로 선택 조작(제1 조작)을 행한 다음, 제2 조작을 행함으로써, 선택된 오브젝트(5)에 대하여 선택적으로 제2 조작을 행할 수 있다. 상술한 특허문헌 1에는, 동시에 검출된 2점 간의 상대 거리에 기초하여 확대 또는 축소 처리를 행하는 기술이 기재되어 있다(소위, 핀치-인 및 핀치-아웃). 그러나, 2개의 손가락으로 대상 오브젝트를 특정할 경우에는, 대상 오브젝트의 특정 정밀도가 1개의 손가락으로 대상 오브젝트를 특정하는 경우에 비해 저하된다. 따라서, 정보 처리 장치(100a)는, 대상 오브젝트를 고정밀도로 특정한 다음, 선택된 오브젝트에 대하여 제2 조작을 행할 수 있도록 구성된다. 특히, 도 2에 도시된 것과 같이, 조작될 오브젝트(5)가 복수개 표시되어 있을 때, 이러한 정보 처리 장치(100a)의 구성은 유효하다.
여기에서는 도시되지 않았지만, 대상 오브젝트(5C)가 손가락 F1에 의해 대상 오브젝트로서 선택된 다음, 손가락 F1의 위치가 변화하면, 표시 제어부(107)는, 이 손가락 F1의 변화된 위치를 추종해서 대상 오브젝트(5C)를 이동시킬 수 있다(제3 조작). 이 제3 조작은, 제2 조작의 전후로 행해질 수 있거나, 제2 조작과 동시에 행해질 수 있다.
(1-3. 표시 위치의 이동)
여기서, 도 4 내지 도 6을 참조하여, 대상 오브젝트의 표시 위치의 이동에 대해서 설명한다. 도 4는, 본 실시 형태에 관한 정보 처리 장치가 표시한 대상 오브젝트의 표시 위치를 도시하는 도면이다. 도 5는, 본 실시 형태에 관한 정보 처리 장치가 표시한 대상 오브젝트의 확대 중심의 이동을 도시하는 도면이다. 도 6은, 중요 영역이 포함되는 경우에 있어서, 본 실시 형태에 관한 정보 처리 장치가 표시한 대상 오브젝트의 표시 위치를 도시하는 도면이다.
상술한 바와 같이, 정보 처리 장치(100a)는, 손가락 F1에 의해 오브젝트(5)를 선택한 다음, 이 선택된 오브젝트(5) 위에 손가락 F1을 놓고 제2 조작을 행한다. 그 다음, 제2 조작을 행할 때, 유저는 오브젝트를 거의 볼 수 없는 상황이 발생할 수 있다. 따라서, 정보 처리 장치(100a)의 표시 제어부(107)는, 대상 오브젝트(5)의 표시 위치를, 유저가 대상 오브젝트를 쉽게 볼 수 있는 위치로 이동시킬 수 있다. 도 4에 도시된 바와 같이, 표시 제어부(107)는, 손가락 F1의 위치 P1이 상기 선택된 오브젝트(5)를 벗어나지 않는 범위 내에서 상기 선택된 오브젝트(5)의 표시 위치를 이동시킬 수 있다.
또한, 표시 제어부(107)는, 손가락 F1의 위치 P1과 손가락 F2의 위치 P2 간의 위치 관계에 따라서 상기 선택된 오브젝트(5)의 표시 위치를 이동시킬 수 있다. 도 3에 있어서는, 오브젝트(5C)의 중심점이 확대 중심인 경우에 대해서 설명되었다. 그러나, 본 기술은 이에 한정되지 않는다. 예를 들어, 제2 조작이 확대 조작일 때에, 표시 제어부(107)는, 도 5에 도시된 바와 같이, 오브젝트(5C)가 손가락 F2의 방향으로 확대되도록 표시를 제어할 수 있다. 이때, 확대 중심은, 손가락 F1의 위치 P1이 오브젝트(5C)로부터 벗어나지 않는 범위 내에서 손가락 F2의 반대 방향으로 이동된다. 따라서, 대상 오브젝트(5C)가 손가락 F1에 의해 덮이지 않고, 제2 조작이 보기 쉽게 시야를 확보하면서 행해질 수 있다.
이러한 표시 위치의 이동은, 예를 들어 제2 조작과 동시에 행해질 수 있다. 대안적으로, 이러한 표시 위치의 이동은, 손가락 F2의 위치 P2이 검출된 후에 행해질 수 있다. 특히, 오브젝트(5)가 화상일 경우에, 유저는 때때로는 오브젝트(5)의 표시를 보면서 조작을 행할 수 있다. 이 경우에, 이러한 구성이 유효하다.
오브젝트(5)가 화상일 때, 예를 들어 도 6에 도시된 바와 같이, 오브젝트(5) 내에는 소정 영역(51)(예를 들어, 중요 영역)이 포함되는 경우가 있다. 이 소정 영역(51)은, 예를 들어 피사체의 얼굴에 대응하는 영역일 수 있다. 대안적으로, 이 소정 영역(51)은, 예를 들어 오브젝트의 일부일 수 있다. 이 소정 영역은, 예를 들어 화상 오브젝트인 오브젝트(5)의 화상 해석 결과에 기초하여 설정되는 영역일 수 있다. 표시 제어부(107)는, 대상 오브젝트 내에 포함되는 소정 영역과, 제1 조작체의 위치에 따라서 정해지고 조악한 표시 화면 위의 위치인 조작 검출 위치에 따라, 대상 오브젝트의 표시 위치를 변화시킬 수 있다. 예를 들어, 표시 제어부(107)는, 대상 오브젝트의 소정 영역 내에 제1 조작 위치가 포함되는 것이 검출된 경우, 조작 검출 위치가 소정 영역 내에 포함되지 않도록 대상 오브젝트의 표시 위치를 변화시킬 수 있다. 표시 제어부(107)는, 표시 위치의 이동 시에, 소정 영역(51)이 손가락 F1의 위치 P1과 겹치지 않도록 오브젝트(5)의 표시 위치를 이동시킬 수 있다. 이러한 구성으로 인해, 특히 오브젝트(5) 내에서 소정 영역(51)이 잘 보이지 않는 상황을 피할 수 있다.
(1-4. 추가 기능의 표시)
이어서, 도 7을 참조하여, 본 실시 형태에 관한 정보 처리 장치의 확대 조작에 있어서의 추가 기능의 표시에 대해서 설명한다. 도 7은, 본 실시 형태에 관한 정보 처리 장치의 확대 조작에 있어서의 추가 기능의 표시를 도시하는 도면이다.
제2 조작이, 선택된 오브젝트(5)의 크기를 변경하는 크기 변경 조작일 때, 표시 제어부(107)는, 선택된 대상 오브젝트(5)의 크기에 따라, 대상 오브젝트(5)에 대한 추가 기능 오브젝트(6)를 표시 화면 위에 표시할 수 있다.
예를 들어, 도 7에 도시된 바와 같이, 복수의 오브젝트(5)가 표시되어 있는 표시 화면 위에는 손가락 F1의 위치 P1과 손가락 F2의 위치 P2이 검출된다(상태 6). 상태 6은, 상태 3과 마찬가지로, 손가락 F1의 위치 P1과 손가락 F2의 위치 P2이 검출된 상태이지만, 손가락 F2의 위치는 상이하다. 이 상태에서 나타난 바와 같이, 손가락 F2의 위치는, 오브젝트(5)가 표시되어 있지 않은 부분일 수 있거나, 오브젝트(5) 위의 위치일 수 있다. 상태 7에 도시된 바와 같이, 유저가 확대 조작을 행하면, 표시 제어부(107)는, 확대된 대상 오브젝트(5C)의 크기에 따라, 추가 기능 오브젝트(6A)를 표시한다.
상태 8에 도시된 바와 같이, 유저가 확대 조작을 더 행하면, 또 다른 추가 기능 오브젝트(6B 및 6C)가 표시된다. 여기서 표시된 추가 기능 오브젝트(6)는, 대상 오브젝트에 대한 추가의 처리를 행하는 추가 기능을 실행시키기 위해 사용된 오브젝트이다. 예를 들어, 검출부(103)가 추가 기능 오브젝트(6A) 위에서 손가락 F의 위치를 검출하면, 조작 인식부(105)는, 대상 오브젝트(5C)를 재생하는 재생 조작을 인식할 수 있다. 또한, 검출부(103)가 추가 기능 오브젝트(6B) 위에서 손가락 F의 위치를 검출하면, 조작 인식부(105)는, 대상 오브젝트(5C)를 삭제하는 삭제 조작을 인식할 수 있다. 추가 기능 오브젝트(6C)는, 대상 오브젝트(5C)의 촬영 일자를 나타낼 수 있다.
(1-5. 선택 범위의 확대 조작)
이어서, 도 8 및 도 9를 참조하여, 본 실시 형태에 관한 정보 처리 장치에 있어서의 대상 오브젝트의 선택 범위를 확대하는 확대 조작에 대해서 설명한다. 도 8은, 본 실시 형태에 관한 정보 처리 장치에 있어서의 대상 오브젝트의 선택 범위를 확대하는 확대 조작을 도시하는 도면이다. 도 9는, 본 실시 형태에 관한 정보 처리 장치에 있어서 복수의 대상 오브젝트가 선택되어 있을 때의 확대 조작을 도시하는 도면이다.
상태 9에 있어서, 표시 제어부(107)는, 7개의 오브젝트(5), 즉 오브젝트(5A 내지 5G)를 표시하고 있다. 여기서, 손가락 F1으로 오브젝트(5C)를 선택한다. 이 상태에서, 손가락 F2으로 탭 조작을 행한다. 그 다음, 상태 10에 도시된 바와 같이, 대상 오브젝트의 선택 범위가 확대된다. 여기에서, 조작 인식부(105)는, 손가락 F2으로 수행된 탭 조작을, 상태 9에서 선택된 오브젝트(5C)와 인접하는 오브젝트(5)(오브젝트(5A, 5B 및 5D))까지 선택 범위를 확대하는 조작으로서 인식할 수 있다. 선택 범위를 확대하는 확대 조작은, 사전에 선택된 오브젝트(5)와 인접하는 오브젝트(5)로의 확대에 제한되지 않는다. 예를 들어, 손가락 F1의 위치 P1로부터 소정 거리 이내에 표시된 복수의 오브젝트(5)까지 선택 범위가 확대될 수 있다.
선택 범위를 확대하는 확대 조작을 통해 복수의 오브젝트(5)가 대상 오브젝트로서 선택되고, 도 9에 도시된 바와 같이 유저가 손가락 F2의 위치 P2를 이동시켜서 확대 조작을 수행하면, 조작 인식부(105)는, 대상 오브젝트로서 선택되어 있는 복수의 오브젝트(5)(오브젝트(5A 내지 5D))를 확대하는 확대 조작으로서의 확대 조작을 인식할 수 있다. 이때, 표시 제어부(107)는, 오브젝트(5A 내지 5D)를 확대해서 표시할 수 있다. 예를 들어, 이때, 확대 중심으로서, 복수의 오브젝트(5)의 무게 중심이 설정될 수 있다.
선택 범위를 확대하는 확대 조작은, 손가락 F2에 의한 탭 조작으로서 수행되었지만, 본 기술의 예는 이에 한정되지 않는다. 예를 들어, 선택 범위를 확대하는 확대 조작은, 손가락 F2과는 다른 손가락 F에 의해 행해질 수 있다. 또한, 선택 범위를 확대하는 확대 조작은, 더블 탭 조작일 수 있다. 또한, 선택 범위를 확대하는 확대 조작은, 복수의 손가락으로 수행되는 탭 조작일 수 있다.
(1-6. 효과의 변경 조작)
이어서, 도 10을 참조하여, 본 실시 형태에 관한 정보 처리 장치에 있어서의 대상 오브젝트의 효과를 변경하는 조작에 대해서 설명한다. 도 10은, 본 실시 형태에 관한 정보 처리 장치에 있어서의 오브젝트의 효과를 변경하는 조작을 도시하는 도면이다.
표시 화면에 표시되어 있는 오브젝트(5)가 화상 오브젝트일 때, 조작 인식부(105)는, 오브젝트(5)의 효과를 변경하는 조작을 인식할 수 있다. 예를 들어, 조작 인식부(105)는, 손가락 F1 및 F2과는 다른 손가락 F3으로 수행된 탭 조작을 효과 변경 조작으로서 인식할 수 있다. 예를 들어, 표시 제어부(107)는, 손가락 F3으로 수행된 탭 조작이 인식될 때, 오브젝트(5C)의 효과를 변경할 수 있다. 예를 들어, 이하에서는 효과의 변경이 오브젝트(5C)의 프레임에서의 변경일 경우에 대해서 설명한다. 상태 12에 있어서는, 손가락 F1의 위치 P1에서 오브젝트(5C)가 대상 오브젝트로서 선택된다. 여기서, 손가락 F2의 위치 P2이 검출되고, 유저가 손가락 F3으로 탭 조작을 행하면, 오브젝트(5C1)의 프레임에 프레임이 중첩되는 오브젝트(5C2)가 표시된다(상태 13). 여기에서, 다시 유저가 손가락 F3으로 탭 조작을 행하면, 오브젝트(5C2)의 프레임과는 상이한 프레임이 오브젝트(5C1)와 중첩되는 오브젝트(5C3)가 표시된다.
여기에서는 프레임의 변경에 대해서 설명되었지만, 본 기술은 이에 한정되지 않는다. 예를 들어, 효과의 변경은, 화상의 색조 변경(흑백, 세피아 등), 배경의 변경, 광의 방향의 변경, 오브젝트(5) 간의 중첩 상태의 변경, 콘트라스트의 변경 등일 수 있다.
(1-7. 회전 조작)
이어서, 도 11을 참조하여, 본 실시 형태에 관한 정보 처리 장치에 있어서의 대상 오브젝트의 회전 조작에 대해서 설명한다. 도 11은, 본 실시 형태에 관한 정보 처리 장치에 있어서의 대상 오브젝트의 회전 조작을 도시하는 도면이다.
지금까지는, 제2 조작이 대상 오브젝트의 크기를 변경하는 조작인 경우에 대해서 설명해 왔다. 그러나, 제2 조작은 대상 오브젝트의 회전 조작일 수 있다. 조작 인식부(105)가, 손가락 F1의 위치 P1과 손가락 F2의 위치 P2 사이의 거리가 거의 일정하게 되어 있는 위치 P1과 위치 P2 간의 상대 위치에서의 변화를 인식하면, 표시 제어부(107)는, 손가락 F1에 의해 선택된 대상 오브젝트(5C)를 표시 각도로 회전시킬 수 있다.
예를 들어, 도 11에 도시된 바와 같이, 손가락 F1에 의해 선택된 오브젝트(5C)는, 손가락 F1의 위치 P1을 중심으로 해서 손가락 F2의 위치 P2를 위치 P2-1로부터 위치 P2-2로 시계 방향으로 회전시키면, 오브젝트(5C-1)의 상태로부터 오브젝트(5C-2)의 상태로 될 때까지 시계 방향으로 회전될 수 있다(상태 16).
<2. 제2 실시 형태>
이어서, 도 12를 참조하여, 본 개시의 제2 실시 형태에 관한 정보 처리 장치의 기능 구성에 대해서 설명한다. 도 12는, 본 개시의 제2 실시 형태에 관한 정보 처리 장치의 기능 구성을 도시하는 블록도이다.
본 개시의 제2 실시 형태에 관한 정보 처리 장치(100b)는, 검출 정보 취득부(104), 조작 인식부(105) 및 표시 제어부(107)를 주요 부품으로서 포함한다. 본 개시의 제1 실시 형태에 관한 정보 처리 장치(100a)와 비교하면, 정보 처리 장치(100b)는, 표시부(101) 및 검출부(103)를 정보 처리 장치(100b)가 포함하지 않는다는 점에 있어서 정보 처리 장치(100a)와 상이하다. 따라서, 정보 처리 장치(100b)는, 외부의 검출부(103)로부터 검출 정보를 취득하는 검출 정보 취득부(104)를 포함한다. 이하, 제1 실시 형태에 관한 정보 처리 장치(100a)와 정보 처리 장치(100b) 간의 차이 부분에 대해서만 설명하고, 공통되는 구성 요소의 설명은 여기에서는 생략한다.
(검출 정보 취득부(104))
검출 정보 취득부(104)는, 검출부(103)가 조작체의 위치를 검출할 때 생성되는 검출 정보를 취득하는 기능을 갖는다. 검출 정보 취득부(104)는, 취득한 검출 정보를 조작 인식부(105)에 입력할 수 있다.
<3. 하드웨어 구성예>
이어서, 도 13을 참조하여, 본 개시의 제1 및 제2 실시 형태에 관한 정보 처리 장치의 하드웨어 구성의 일례에 대해서 설명한다. 도 17은, 본 개시의 제1 및 제2 실시 형태에 관한 정보 처리 장치의 하드웨어 구성예를 도시하는 블록도이다.
예를 들어, 정보 처리 장치(100)는, GPS 안테나(821), GPS 처리부(823), 통신 안테나(825), 통신 처리부(827), 지자기 센서(829), 가속도 센서(831), 자이로 센서(833), 기압 센서(835), 촬상부(837), 중앙 처리 장치(CPU)(839), 판독 전용 메모리(ROM)(841), 랜덤 액세스 메모리(RAM)(843), 조작부(847), 표시부(849), 디코더(851), 스피커(853), 인코더(855), 마이크(857) 및 기억부(859)를 포함한다.
(GPS 안테나(821))
GPS 안테나(821)는, 측위 위성으로부터의 신호를 수신하는 안테나의 일례이다. GPS 안테나(821)는, 복수의 GPS 위성으로부터의 GPS 신호를 수신할 수 있고, 수신한 GPS 신호를 GPS 처리부(823)에 입력한다.
(GPS 처리부(823))
GPS 처리부(823)는, 측위 위성으로부터 수신된 신호에 기초하여 위치 정보를 산출하는 산출부의 일례이다. GPS 처리부(823)는, GPS 안테나(821)로부터 입력된 복수의 GPS 신호에 기초해서 현재의 위치 정보를 산출하고, 산출한 위치 정보를 출력한다. 구체적으로, GPS 처리부(823)는, GPS 위성의 궤도 데이터에 기초해서 각각의 GPS 위성의 위치를 산출하고, GPS 신호의 송신 시각과 수신 시각 간의 차에 기초하여, 각 GPS 위성과 단말 장치(100) 간의 거리를 산출한다. 그 다음, 각 GPS 위성의 산출된 위치와, 각 GPS 위성과 단말 장치(100) 간의 거리에 기초하여, 현재의 3차원 위치를 산출할 수 있다. 또한, 여기에서 사용되는 GPS 위성의 궤도 데이터는, 예를 들어 GPS 신호에 포함될 수 있다. 대안적으로, GPS 위성의 궤도 데이터는, 통신 안테나(825)를 통해서 외부의 서버로부터 취득될 수 있다.
(통신 안테나(825))
통신 안테나(825)는, 예를 들어 휴대 통신망이나 무선 LAN(Local Area Network) 통신망을 통해서 통신 신호를 수신하는 기능을 갖는 안테나이다. 통신 안테나(825)는, 수신한 신호를 통신 처리부(827)에 공급할 수 있다.
(통신 처리부(827))
통신 처리부(827)는, 통신 안테나(825)로부터 공급된 신호에 대해 각종 신호 처리를 행하는 기능을 갖는다. 통신 처리부(827)는, 공급된 아날로그 신호로부터 생성한 디지털 신호를 CPU(839)에 공급할 수 있다.
(지자기 센서(829))
지자기 센서(829)는, 지자기를 전압 값으로서 검출하는 센서이다. 지자기 센서(829)는, X축 방향, Y축 방향 및 Z축 방향으로의 각각의 지자기를 검출하는 3축 지자기 센서일 수 있다. 지자기 센서(829)는, 검출한 지자기 데이터를 CPU(839)에 공급할 수 있다.
(가속도 센서(831))
가속도 센서(831)는, 가속도를 전압 값으로서 검출하는 센서이다. 가속도 센서(831)는, X축 방향으로의 가속도, Y축 방향으로의 가속도 및 Z축 방향으로의 가속도를 각각 검출하는 3축 가속도 센서일 수 있다. 가속도 센서(831)는, 검출한 가속도 데이터를 CPU(839)에 공급할 수 있다.
(자이로 센서(833))
자이로 센서(833)는, 오브젝트의 각도나 각속도를 검출하는 계측기의 한 종류이다. 자이로 센서(833)는, X축, Y축 및 Z축 주위의 회전각의 변화하는 각도(각속도)를 전압 값으로서 검출하는 3축 자이로 센서일 수 있다. 자이로 센서(833)는, 검출한 각속도 데이터를 CPU(839)에 공급할 수 있다.
(기압 센서(835))
기압 센서(835)는, 주위의 기압을 전압 값으로서 검출하는 센서이다. 기압 센서(835)는, 기압을 소정의 샘플링 주파수로서 검출하고, 검출한 기압 데이터를 CPU(839)에 공급할 수 있다.
(촬상부(837))
촬상부(837)는, CPU(839)의 제어에 따라, 렌즈를 통해서 정지 화상 또는 동화상을 촬영하는 기능을 갖는다. 촬상부(837)는, 촬영한 화상을 기억부(859)에 기억시킬 수 있다.
(CPU(839))
CPU(839)는, 연산 처리 장치 및 제어 장치로서 기능하여, 각종 프로그램에 따라서 정보 처리 장치(100) 내의 모든 처리를 제어한다. CPU(839)는 마이크로프로세서일 수 있다. CPU(839)는, 각종 프로그램에 따라서 각종 기능을 실현할 수 있다.
(ROM(841) 및 RAM(843))
ROM(841)은, CPU(839)가 사용하는 프로그램, 연산 파라미터 등을 기억할 수 있다. RAM(843)은, CPU(839)의 실행 시에 사용된 프로그램, 또는 그 실행에서 적절히 변화된 파라미터 등을 일시 기억할 수 있다.
(조작부(847))
조작부(847)는, 원하는 조작을 유저가 행하는데 사용된 입력 신호를 생성하는 기능을 갖는다. 조작부(847)는, 터치 센서, 마우스, 키보드, 버튼, 마이크, 스위치 또는 레버 등의 유저가 정보를 입력하기 위한 입력부와, 유저의 입력에 기초하여 입력 신호를 생성하고, 이 입력 신호를 CPU(839)에 출력하는 입력 제어 회로를 포함할 수 있다.
(표시부(849))
표시부(849)는, 출력 장치의 일례이며, 액정 표시(LCD) 장치, 유기 발광 다이오드(OLED) 표시 장치 등의 표시 장치일 수 있다. 표시부(849)는, 유저에 대하여 화면을 표시함으로써 정보를 제공할 수 있다.
(디코더(851) 및 스피커(853))
디코더(851)는, CPU(839)의 제어에 따라, 입력된 데이터에 대해 디코딩 및 아날로그 변환 등을 행하는 기능을 갖는다. 디코더(851)는, 예를 들어 통신 안테나(825) 및 통신 처리부(827)를 통해서 입력된 음성 데이터에 대해 디코딩 및 아날로그 변환 등을 행하고, 음성 신호를 스피커(853)에 출력한다. 스피커(853)는, 디코더(851)로부터 공급된 음성 신호에 기초하여 음성을 출력할 수 있다.
(인코더(855) 및 마이크(857))
인코더(855)는, CPU(839)의 제어에 따라, 입력된 데이터에 대해 디지털 변환, 인코딩 등을 행하는 기능을 갖는다. 인코더(855)는, 마이크(857)로부터 입력된 음성 신호에 대해 디지털 변환, 인코딩 등을 행하고, 음성 데이터를 출력할 수 있다. 마이크(857)는, 음성을 집음하고, 이 음성을 음성 신호로서 출력할 수 있다.
(기억부(859))
기억부(859)는, 데이터 저장용의 장치이며, 기억 매체, 기억 매체에 데이터를 기록하는 기록 장치, 기억 매체로부터 데이터를 판독하는 판독 장치, 및 기억 매체에 기록된 데이터를 삭제하는 삭제 장치를 포함할 수 있다. 여기서, 예를 들어, 기억 매체로서는, 플래시 메모리, 자기 저항 랜덤 액세스 메모리(MRAM), 강유전체 랜덤 액세스 메모리(FeRAM), 상 변화 랜덤 액세스 메모리(PRAM), 및 전자적으로 소거 및 프로그램 가능한 판독 전용 메모리(EEPROM) 등의 불휘발성 메모리, 또는 하드 디스크 드라이브(HDD) 등의 자기 기록 매체가 사용될 수 있다.
이상, 첨부 도면을 참조하면서 본 개시의 양호한 실시 형태에 대해서 상세하게 설명했지만, 본 개시의 기술적 범위는 이에 한정되지 않는다. 본 개시의 기술 분야에 있어서의 통상의 지식을 가진 자에게, 특허 청구 범위에 기재된 기술적 사상의 범주 내에서 각종 형태로 변형 또는 수정된다는 것은 명확하고, 이들 변형 및 수정이, 당연히 본 개시의 기술적 범위에 속하는 것이라고 이해된다.
예를 들어, 상기 실시 형태에서, 유저는 우선, 손가락 F1으로 대상 오브젝트를 선택하고 난 다음, 손가락 F2으로 표시 화면 위에서 조작을 행하지만, 본 기술은 이에 한정되지 않는다. 예를 들어, 유저는 손가락 F2으로 표시 화면 위의 공백 부분(오브젝트가 표시되어 있지 않은 부분)을 터치한 다음, 손가락 F1으로 대상 오브젝트를 선택할 수 있다.
이하와 같은 구성도 본 개시의 기술적 범위에 속한다.
(1) 제1 오브젝트를 표시하도록 유저 인터페이스를 제어하는 표시 제어기; 및 상기 유저 인터페이스에서 수신된 입력을 검출하는 검출부를 포함하고, 상기 표시 제어기가, 표시된 제1 오브젝트에 대응하는 소정의 조작을, 상기 제1 오브젝트가 표시되는 제1 위치에서 검출된 제1 입력과, 상기 제1 오브젝트가 표시되지 않는 제2 위치에서 검출된 제2 입력의 상대적 관계에 기초하여, 수행하는 정보 처리 장치.
(2) 오브젝트를 표시하도록 상기 표시 제어기에 의해 제어되는 상기 유저 인터페이스를 더 포함하는 (1)의 정보 처리 장치.
(3) 상기 정보 처리 장치가, 휴대 전화기, 퍼스널 컴퓨터, 영상 처리 장치, 게임기, 가정용 기기 및 음악 재생 장치 중 하나인 (1) 내지 (2)의 정보 처리 장치.
(4) 상기 검출부가, 상기 유저 인터페이스에서 수신된 터치 입력을 검출하는 상기 유저 인터페이스의 표면 위에 배치된 터치 센서인 (1) 내지 (3)의 정보 처리 장치.
(5) 상기 표시 제어기가, 상기 제1 오브젝트를 포함하는 복수의 오브젝트를 표시하도록 상기 유저 인터페이스를 제어하는 (1) 내지 (4)의 정보 처리 장치.
(6) 상기 표시 제어기가, 검출된 제1 입력에 기초하여, 상기 제1 오브젝트를, 다른 복수의 오브젝트와는 다르게 표시하도록 상기 유저 인터페이스를 제어하는 (5)의 정보 처리 장치.
(7) 상기 소정의 조작이, 상기 표시된 제1 오브젝트의 사이즈를 변경하는 조작인 (1) 내지 (6)의 정보 처리 장치.
(8) 상기 검출부가, 상기 제2 입력의 위치 변화를 검출하고, 상기 표시 제어부가, 검출된 위치 변화에 기초하여, 상기 표시된 제1 오브젝트의 상기 사이즈를 변경하도록 상기 유저 인터페이스를 제어하는 (7)의 정보 처리 장치.
(9) 상기 검출부가, 상기 제2 위치로부터 상기 제2 위치보다 상기 제1 위치로부터 더 먼 거리인 제3 위치까지 상기 제2 입력의 위치 변화를 검출하고, 상기 표시 제어기가, 검출된 위치 변화에 기초하여, 상기 표시된 제1 오브젝트의 상기 사이즈를 증가시키도록 상기 유저 인터페이스를 제어하는 (7) 및 (8)의 정보 처리 장치.
(10) 상기 표시 제어기가, 상기 검출된 위치 변화에 대응하는 방향으로 상기 표시된 제1 오브젝트의 상기 사이즈를 증가시키도록 상기 유저 인터페이스를 제어하는 (9)의 정보 처리 장치.
(11) 상기 표시 제어기가, 상기 표시된 제1 오브젝트의 상기 사이즈가 소정의 사이즈를 초과할 때, 상기 제1 오브젝트에 대응하는 추가 기능을 표시하도록 상기 유저 인터페이스를 제어하는 (9) 및 (10)의 정보 처리 장치.
(12) 상기 검출부가, 상기 제2 위치로부터 상기 제2 위치보다 상기 제1 위치로부터 더 짧은 거리인 제3 위치까지 상기 제2 입력의 위치 변화를 검출하고, 상기 표시 제어기가, 검출된 위치 변화에 기초하여, 상기 표시된 제1 오브젝트의 상기 사이즈를 감소시키도록 상기 유저 인터페이스를 제어하는 (7) 내지 (11)의 정보 처리 장치.
(13) 상기 표시 제어기가, 상기 검출된 위치 변화에 대응하는 방향으로 상기 표시된 제1 오브젝트의 상기 사이즈를 감소시키도록 상기 유저 인터페이스를 제어하는 (12)의 정보 처리 장치.
(14) 상기 검출부가, 복수의 개별적인 입력을 상기 제2 입력으로서 검출하고, 상기 표시 제어기가, 상기 복수의 개별적인 입력에 기초하여, 상기 제1 오브젝트와, 상기 복수의 오브젝트의 서브-세트를, 나머지 복수의 오브젝트와는 다르게 표시하도록 상기 유저 인터페이스를 제어하는 (5) 내지 (13)의 정보 처리 장치.
(15) 상기 검출부가, 상기 제2 위치로부터 상기 제2 위치보다 상기 제1 위치로부터 더 먼 거리인 제3 위치까지 상기 제2 입력의 위치 변화를 검출하고, 상기 표시 제어기가, 검출된 위치 변화에 기초하여, 상기 표시된 제1 오브젝트와, 상기 복수의 오브젝트의 상기 서브-세트의 사이즈를 증가시키도록 상기 유저 인터페이스를 제어하는 (14)의 정보 처리 장치.
(16) 상기 검출부가, 상기 제2 입력으로서, 복수의 개별적인 입력을 검출하고, 상기 표시 제어부가, 상기 복수의 개별적인 입력에 기초하여, 상기 제1 오브젝트에 대한 소정의 효과를 표시하도록 상기 유저 인터페이스를 제어하는 (1) 내지 (15)의 정보 처리 장치.
(17) 상기 소정의 조작이, 상기 표시된 제1 오브젝트의 회전 조작인 (1) 내지 (16)의 정보 처리 장치.
(18) 상기 검출부가, 상기 제2 입력의 위치 변화를 검출하고, 상기 표시 제어부가, 검출된 위치 변화에 대응하는 방향으로 상기 표시된 제1 오브젝트를 회전시키도록 상기 유저 인터페이스를 제어하는 (17)의 정보 처리 장치.
(19) 정보 처리 장치에 수행된 정보 처리 방법으로서, 제1 오브젝트를 표시하도록 유저 인터페이스를 제어하는 단계; 상기 유저 인터페이스에서 수신된 입력을 검출하는 단계; 및 상기 제1 오브젝트가 표시되는 제1 위치에서 검출된 제1 입력과, 상기 오브젝트가 표시되지 않는 제2 위치에서 검출된 제2 입력에 기초하여, 표시된 제1 오브젝트에 대응하는 소정의 조작을 수행하는 단계를 포함하는 정보 처리 방법.
(20) 정보 처리 장치에 의해 실행될 때, 상기 정보 처리 장치가 방법을 수행하게 하는 컴퓨터 프로그램 명령을 포함하는 비-일시적 컴퓨터 판독가능 매체로서, 상기 방법이, 제1 오브젝트를 표시하도록 유저 인터페이스를 제어하는 단계; 상기 유저 인터페이스에서 수신된 입력을 검출하는 단계; 및 상기 제1 오브젝트가 표시되는 제1 위치에서 검출된 제1 입력과, 상기 오브젝트가 표시되지 않는 제2 위치에서 검출된 제2 입력에 기초하여, 표시된 제1 오브젝트에 대응하는 소정의 조작을 수행하는 단계를 포함하는 비-일시적 컴퓨터 판독가능 매체.
100: 정보 처리 장치
101: 표시부
103: 검출부
104: 검출 정보 취득부
105: 조작 인식부
107: 표시 제어부

Claims (20)

  1. 정보 처리 장치로서,
    제1 오브젝트를 표시하도록 유저 인터페이스를 제어하는 표시 제어기; 및
    상기 유저 인터페이스에서 수신된 입력을 검출하는 검출부를 포함하고,
    상기 표시 제어기가, 표시된 제1 오브젝트에 대응하는 소정의 조작을, 상기 제1 오브젝트가 표시되는 제1 위치에서 검출된 제1 입력과, 상기 제1 오브젝트가 표시되지 않는 제2 위치에서 검출된 제2 입력의 상대적 관계에 기초하여, 수행하는, 정보 처리 장치.
  2. 제1항에 있어서,
    오브젝트를 표시하도록 상기 표시 제어기에 의해 제어되는 상기 유저 인터페이스를 더 포함하는, 정보 처리 장치.
  3. 제1항에 있어서,
    상기 정보 처리 장치가, 휴대 전화기, 퍼스널 컴퓨터, 영상 처리 장치, 게임기, 가정용 기기 및 음악 재생 장치 중 하나인, 정보 처리 장치.
  4. 제1항에 있어서,
    상기 검출부가, 상기 유저 인터페이스에서 수신된 터치 입력을 검출하는 상기 유저 인터페이스의 표면 위에 배치된 터치 센서, 정보 처리 장치.
  5. 제1항에 있어서,
    상기 표시 제어기가, 상기 제1 오브젝트를 포함하는 복수의 오브젝트를 표시하도록 상기 유저 인터페이스를 제어하는, 정보 처리 장치.
  6. 제5항에 있어서,
    상기 표시 제어기가, 검출된 제1 입력에 기초하여, 상기 제1 오브젝트를, 다른 복수의 오브젝트와는 다르게 표시하도록 상기 유저 인터페이스를 제어하는, 정보 처리 장치.
  7. 제1항에 있어서,
    상기 소정의 조작이, 상기 표시된 제1 오브젝트의 사이즈를 변경하는 조작인, 정보 처리 장치.
  8. 제7항에 있어서,
    상기 검출부가, 상기 제2 입력의 위치 변화를 검출하고, 상기 표시 제어부가, 검출된 위치 변화에 기초하여, 상기 표시된 제1 오브젝트의 상기 사이즈를 변경하도록 상기 유저 인터페이스를 제어하는, 정보 처리 장치.
  9. 제7항에 있어서,
    상기 검출부가, 상기 제2 위치로부터 상기 제2 위치보다 상기 제1 위치로부터 더 먼 거리인 제3 위치까지 상기 제2 입력의 위치 변화를 검출하고, 상기 표시 제어기가, 검출된 위치 변화에 기초하여, 상기 표시된 제1 오브젝트의 상기 사이즈를 증가시키도록 상기 유저 인터페이스를 제어하는, 정보 처리 장치.
  10. 제9항에 있어서,
    상기 표시 제어기가, 상기 검출된 위치 변화에 대응하는 방향으로 상기 표시된 제1 오브젝트의 상기 사이즈를 증가시키도록 상기 유저 인터페이스를 제어하는, 정보 처리 장치.
  11. 제9항에 있어서,
    상기 표시 제어기가, 상기 표시된 제1 오브젝트의 상기 사이즈가 소정의 사이즈를 초과할 때, 상기 제1 오브젝트에 대응하는 추가 기능을 표시하도록 상기 유저 인터페이스를 제어하는, 정보 처리 장치.
  12. 제7항에 있어서,
    상기 검출부가, 상기 제2 위치로부터 상기 제2 위치보다 상기 제1 위치로부터 더 짧은 거리인 제3 위치까지 상기 제2 입력의 위치 변화를 검출하고, 상기 표시 제어기가, 검출된 위치 변화에 기초하여, 상기 표시된 제1 오브젝트의 상기 사이즈를 감소시키도록 상기 유저 인터페이스를 제어하는, 정보 처리 장치.
  13. 제12항에 있어서,
    상기 표시 제어기가, 상기 검출된 위치 변화에 대응하는 방향으로 상기 표시된 제1 오브젝트의 상기 사이즈를 감소시키도록 상기 유저 인터페이스를 제어하는, 정보 처리 장치.
  14. 제5항에 있어서,
    상기 검출부가, 복수의 개별적인 입력을 상기 제2 입력으로서 검출하고, 상기 표시 제어기가, 상기 복수의 개별적인 입력에 기초하여, 상기 제1 오브젝트와, 상기 복수의 오브젝트의 서브-세트를, 나머지 복수의 오브젝트와는 다르게 표시하도록 상기 유저 인터페이스를 제어하는, 정보 처리 장치.
  15. 제14항에 있어서,
    상기 검출부가, 상기 제2 위치로부터 상기 제2 위치보다 상기 제1 위치로부터 더 먼 거리인 제3 위치까지 상기 제2 입력의 위치 변화를 검출하고, 상기 표시 제어기가, 검출된 위치 변화에 기초하여, 상기 표시된 제1 오브젝트와, 상기 복수의 오브젝트의 상기 서브-세트의 사이즈를 증가시키도록 상기 유저 인터페이스를 제어하는, 정보 처리 장치.
  16. 제1항에 있어서,
    상기 검출부가, 상기 제2 입력으로서, 복수의 개별적인 입력을 검출하고, 상기 표시 제어부가, 상기 복수의 개별적인 입력에 기초하여, 상기 제1 오브젝트에 대한 소정의 효과를 표시하도록 상기 유저 인터페이스를 제어하는, 정보 처리 장치.
  17. 제1항에 있어서,
    상기 소정의 조작이, 상기 표시된 제1 오브젝트의 회전 조작인, 정보 처리 장치.
  18. 제17항에 있어서,
    상기 검출부가, 상기 제2 입력의 위치 변화를 검출하고, 상기 표시 제어부가, 검출된 위치 변화에 대응하는 방향으로 상기 표시된 제1 오브젝트를 회전시키도록 상기 유저 인터페이스를 제어하는, 정보 처리 장치.
  19. 정보 처리 장치에 수행된 정보 처리 방법으로서,
    제1 오브젝트를 표시하도록 유저 인터페이스를 제어하는 단계;
    상기 유저 인터페이스에서 수신된 입력을 검출하는 단계; 및
    상기 제1 오브젝트가 표시되는 제1 위치에서 검출된 제1 입력과, 상기 오브젝트가 표시되지 않는 제2 위치에서 검출된 제2 입력에 기초하여, 표시된 제1 오브젝트에 대응하는 소정의 조작을 수행하는 단계
    를 포함하는, 정보 처리 방법.
  20. 정보 처리 장치에 의해 실행될 때, 상기 정보 처리 장치가 방법을 수행하게 하는 컴퓨터 프로그램 명령을 포함하는 비-일시적 컴퓨터 판독가능 매체로서,
    상기 방법이,
    제1 오브젝트를 표시하도록 유저 인터페이스를 제어하는 단계;
    상기 유저 인터페이스에서 수신된 입력을 검출하는 단계; 및
    상기 제1 오브젝트가 표시되는 제1 위치에서 검출된 제1 입력과, 상기 오브젝트가 표시되지 않는 제2 위치에서 검출된 제2 입력에 기초하여, 표시된 제1 오브젝트에 대응하는 소정의 조작을 수행하는 단계
    를 포함하는, 비-일시적 컴퓨터 판독가능 매체.
KR1020147004212A 2011-09-01 2012-08-21 정보 처리 장치, 정보 처리 방법 및 프로그램 KR20140068024A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011191144A JP2013054470A (ja) 2011-09-01 2011-09-01 情報処理装置、情報処理方法、及びプログラム
JPJP-P-2011-191144 2011-09-01
PCT/JP2012/005233 WO2013031134A1 (en) 2011-09-01 2012-08-21 Information processing apparatus, information processing method, and program

Publications (1)

Publication Number Publication Date
KR20140068024A true KR20140068024A (ko) 2014-06-05

Family

ID=47755665

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020147004212A KR20140068024A (ko) 2011-09-01 2012-08-21 정보 처리 장치, 정보 처리 방법 및 프로그램

Country Status (9)

Country Link
US (1) US10140002B2 (ko)
EP (1) EP2751654A4 (ko)
JP (1) JP2013054470A (ko)
KR (1) KR20140068024A (ko)
CN (1) CN103765362B (ko)
BR (1) BR112014004048A2 (ko)
RU (1) RU2014106495A (ko)
TW (1) TW201319922A (ko)
WO (1) WO2013031134A1 (ko)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9202297B1 (en) * 2011-07-12 2015-12-01 Domo, Inc. Dynamic expansion of data visualizations
US9792017B1 (en) 2011-07-12 2017-10-17 Domo, Inc. Automatic creation of drill paths
JP6197559B2 (ja) * 2013-10-10 2017-09-20 コニカミノルタ株式会社 オブジェクト操作システム及びオブジェクト操作制御プログラム並びにオブジェクト操作制御方法
US9965173B2 (en) * 2015-02-13 2018-05-08 Samsung Electronics Co., Ltd. Apparatus and method for precise multi-touch input
JP6466736B2 (ja) * 2015-02-26 2019-02-06 株式会社コーエーテクモゲームス 情報処理装置、情報処理方法、ならびに、プログラム
JP6477096B2 (ja) * 2015-03-20 2019-03-06 ヤマハ株式会社 入力装置、および音合成装置
US9652125B2 (en) * 2015-06-18 2017-05-16 Apple Inc. Device, method, and graphical user interface for navigating media content
JP2017027422A (ja) * 2015-07-24 2017-02-02 アルパイン株式会社 表示装置及び表示処理方法
US11922006B2 (en) 2018-06-03 2024-03-05 Apple Inc. Media control for screensavers on an electronic device

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5481710A (en) * 1992-09-16 1996-01-02 International Business Machines Corporation Method of and system for providing application programs with an undo/redo function
US20070177804A1 (en) 2006-01-30 2007-08-02 Apple Computer, Inc. Multi-touch gesture dictionary
JP4803883B2 (ja) * 2000-01-31 2011-10-26 キヤノン株式会社 位置情報処理装置及びその方法及びそのプログラム。
US7138983B2 (en) 2000-01-31 2006-11-21 Canon Kabushiki Kaisha Method and apparatus for detecting and interpreting path of designated position
WO2002101534A1 (en) * 2001-06-12 2002-12-19 Idelix Software Inc. Graphical user interface with zoom for detail-in-context presentations
CA2393887A1 (en) * 2002-07-17 2004-01-17 Idelix Software Inc. Enhancements to user interface for detail-in-context data presentation
JP3874737B2 (ja) * 2003-03-31 2007-01-31 株式会社東芝 表示装置
US7743348B2 (en) * 2004-06-30 2010-06-22 Microsoft Corporation Using physical objects to adjust attributes of an interactive display application
JP5210497B2 (ja) 2006-04-12 2013-06-12 クラリオン株式会社 ナビゲーション装置
JP2008070968A (ja) 2006-09-12 2008-03-27 Funai Electric Co Ltd 表示処理装置
US20110069018A1 (en) 2007-05-11 2011-03-24 Rpo Pty Limited Double Touch Inputs
US8130211B2 (en) * 2007-09-24 2012-03-06 Microsoft Corporation One-touch rotation of virtual objects in virtual workspace
JP2008209915A (ja) * 2008-01-29 2008-09-11 Fujitsu Ten Ltd 表示装置
US8504945B2 (en) * 2008-02-01 2013-08-06 Gabriel Jakobson Method and system for associating content with map zoom function
JP2009271689A (ja) * 2008-05-07 2009-11-19 Seiko Epson Corp 表示装置、および、表示装置における表示方法
US8400477B1 (en) * 2008-05-20 2013-03-19 Google Inc. Object resizing
JP5108747B2 (ja) * 2008-12-26 2012-12-26 富士フイルム株式会社 情報表示装置、方法およびプログラム
JP2010176330A (ja) 2009-01-28 2010-08-12 Sony Corp 情報処理装置、及び表示制御方法
JP2011022964A (ja) * 2009-07-21 2011-02-03 Panasonic Corp タッチパネル及び入力表示システム
WO2011031492A1 (en) * 2009-08-25 2011-03-17 Google Inc. Direct manipulation gestures
JP2011053770A (ja) * 2009-08-31 2011-03-17 Nifty Corp 情報処理装置及び入力処理方法
US8619100B2 (en) 2009-09-25 2013-12-31 Apple Inc. Device, method, and graphical user interface for touch-based gestural input on an electronic canvas
US8766928B2 (en) * 2009-09-25 2014-07-01 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
US8347238B2 (en) * 2009-12-16 2013-01-01 Apple Inc. Device, method, and graphical user interface for managing user interface content and user interface elements by dynamic snapping of user interface elements to alignment guides
US8209630B2 (en) * 2010-01-26 2012-06-26 Apple Inc. Device, method, and graphical user interface for resizing user interface content
US8677268B2 (en) 2010-01-26 2014-03-18 Apple Inc. Device, method, and graphical user interface for resizing objects
US8479117B2 (en) * 2010-06-04 2013-07-02 Lenovo (Singapore) Pte. Ltd. Intelligent window sizing for graphical user interfaces
US9207096B2 (en) * 2011-06-09 2015-12-08 Blackberry Limited Map magnifier
US9146660B2 (en) * 2011-08-22 2015-09-29 Trimble Navigation Limited Multi-function affine tool for computer-aided design
US8176435B1 (en) * 2011-09-08 2012-05-08 Google Inc. Pinch to adjust
US20130117711A1 (en) * 2011-11-05 2013-05-09 International Business Machines Corporation Resize handle activation for resizable portions of a user interface

Also Published As

Publication number Publication date
US10140002B2 (en) 2018-11-27
TW201319922A (zh) 2013-05-16
CN103765362A (zh) 2014-04-30
BR112014004048A2 (pt) 2017-03-07
EP2751654A1 (en) 2014-07-09
EP2751654A4 (en) 2015-04-08
RU2014106495A (ru) 2015-08-27
JP2013054470A (ja) 2013-03-21
US20140189581A1 (en) 2014-07-03
CN103765362B (zh) 2018-06-05
WO2013031134A1 (en) 2013-03-07

Similar Documents

Publication Publication Date Title
KR20140068024A (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
JP6421670B2 (ja) 表示制御方法、表示制御プログラム、及び情報処理装置
US8059094B2 (en) Apparatus and method for navigation in three-dimensional graphical user interface
JP5315111B2 (ja) 端末装置、情報提示システム及び端末画面表示方法
EP2593848B1 (en) Methods and systems for interacting with projected user interface
US8830184B2 (en) Image displaying device, image displaying method, and program for displaying images
US10416785B2 (en) Information processing apparatus, information processing method, and program
US9460535B2 (en) Information processing device, information processing method, and program
JP5429060B2 (ja) 表示制御装置、表示制御方法、表示制御プログラム並びにこの表示制御プログラムが記録された記録媒体
KR20170057326A (ko) 개량된 디스플레이 회전
US20070120846A1 (en) Three-dimensional motion graphic user interface and apparatus and method for providing three-dimensional motion graphic user interface
JP5935267B2 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2012007745A2 (en) User interactions
US9628706B2 (en) Method for capturing and displaying preview image and electronic device thereof
JPWO2017022031A1 (ja) 情報端末装置
JP2016115067A (ja) 画像表示端末、画像表示システム及び画像表示プログラム
KR20150009199A (ko) 객체 편집을 위한 전자 장치 및 방법
JP6362110B2 (ja) 表示制御装置、その制御方法、プログラム、及び記録媒体
JP2019096305A (ja) 電子機器およびその制御方法およびプログラムおよび記録媒体
WO2019102885A1 (ja) 画像の表示部分を変更可能な電子機器
CN113010005A (zh) 用于设置虚拟对象在空间中的位置的方法和电子设备

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination