KR20140048933A - 정보 처리 장치, 정보 처리 방법 및 프로그램 - Google Patents

정보 처리 장치, 정보 처리 방법 및 프로그램 Download PDF

Info

Publication number
KR20140048933A
KR20140048933A KR1020147000456A KR20147000456A KR20140048933A KR 20140048933 A KR20140048933 A KR 20140048933A KR 1020147000456 A KR1020147000456 A KR 1020147000456A KR 20147000456 A KR20147000456 A KR 20147000456A KR 20140048933 A KR20140048933 A KR 20140048933A
Authority
KR
South Korea
Prior art keywords
display
information processing
layer data
processing apparatus
movement
Prior art date
Application number
KR1020147000456A
Other languages
English (en)
Inventor
레이코 미야자키
야스시 오쿠무라
Original Assignee
소니 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 주식회사 filed Critical 소니 주식회사
Publication of KR20140048933A publication Critical patent/KR20140048933A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42202Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] environmental sensors, e.g. for detecting temperature, luminosity, pressure, earthquakes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/4222Remote control device emulator integrated into a non-television apparatus, e.g. a PDA, media center or smart toy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42224Touch pad or touch panel provided on the remote control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43615Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72415User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories for remote control of appliances
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42222Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Ecology (AREA)
  • Emergency Management (AREA)
  • Environmental & Geological Engineering (AREA)
  • Environmental Sciences (AREA)
  • Remote Sensing (AREA)
  • Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Databases & Information Systems (AREA)

Abstract

제1 계층 데이터를 표시하는 디스플레이를 제어하는 정보 처리 장치는, 정보 처리 장치의 움직임을 검출하고, 검출부에 의해 검출된 동작에 기초하여 제1 계층 데이터와 함께 제1 계층 데이터에 대응하는 제2 계층 데이터를 표시하도록 디스플레이를 제어한다.

Description

정보 처리 장치, 정보 처리 방법 및 프로그램{INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM}
본 개시는, 정보 처리 장치, 정보 처리 방법 및 프로그램에 관한 것이다.
정보 처리 장치의 조작에 있어서는, 계층 구조의 선택 항목이 순차적으로 선택되어, 정보 처리 장치의 동작을 결정한다. 예를 들어, 특허문헌 1에는, 터치 패널을 사용해서 계층 구조의 선택 항목을 조작하는 정보 처리 장치가 개시되어 있다. 이 정보 처리 장치는, 터치 패널에 대한 스크롤 조작에 의해 원하는 선택 항목을 표시하고, 표시된 선택 항목에 대한 터치 조작에 의해 선택 항목을 선택하고, 선택된 선택 항목에 대한 푸시 조작에 의해 선택 항목의 선택을 결정하는 것이 기재되어 있다.
일본 특허 공개 제2011-59820호 공보
그러나, 정보 처리 장치를 조작하는 방법은 다양화하고 있어, 또 다른 조작성의 향상이 요구되고 있다. 따라서, 본 개시에서는, 계층 구조의 선택 항목을 선택하는 조작에 있어서의 조작성을 향상시킬 수 있는, 새롭고 개량된 정보 처리 장치, 정보 처리 방법 및 프로그램을 제안한다.
본 개시는 정보 처리 장치를 제공하는데, 상기 정보 처리 장치는,
제1 계층 데이터를 표시하도록 디스플레이를 제어하는 프로세서; 및
상기 정보 처리 장치의 움직임을 검출하는 검출부를 포함하고,
상기 프로세서는 상기 검출부에 의해 검출된 움직임에 기초하여 상기 제1 계층 데이터와 함께 상기 제1 계층 데이터에 대응하는 제2 계층 데이터를 표시하도록 상기 디스플레이를 제어한다.
이러한 구성에 의하면, 검출부는 상기 정보 처리 장치의 틸트 움직임을 검출하는 틸트 검출부이다.
또한, 본 개시는 정보 처리 장치에 의해 수행되는 방법을 제공하는데, 상기 방법은,
상기 정보 처리 장치의 프로세서에 의해, 제1 계층 데이터를 표시하도록 디스플레이를 제어하는 단계;
상기 정보 처리 장치의 검출부에 의해, 상기 정보 처리 장치의 움직임을 검출하는 단계; 및
상기 프로세서에 의해, 검출된 움직임에 기초하여 상기 제1 계층 데이터와 함께 상기 제1 계층 데이터에 대응하는 제2 계층 데이터를 표시하도록 상기 디스플레이를 제어하는 단계를 포함한다.
또한, 본 개시는, 정보 처리 장치에 의해 실행될 때, 상기 정보 처리 장치가 방법을 수행하게 하는, 컴퓨터 프로그램 명령을 포함하는 비일시적 컴퓨터 판독 가능 매체를 제공하는데, 상기 방법이,
제1 계층 데이터를 표시하도록 디스플레이를 제어하는 단계;
상기 정보 처리 장치의 움직임을 검출하는 단계; 및
검출된 움직임에 기초하여 상기 제1 계층 데이터와 함께 상기 제1 계층 데이터에 대응하는 제2 계층 데이터를 표시하도록 상기 디스플레이를 제어하는 단계를 포함한다.
이상 설명한 바와 같이 본 개시에 의하면, 계층 구조의 선택 항목을 선택하는 조작에 있어서의 조작성을 향상할 수 있다.
도 1은 본 개시의 한 실시 형태에 관한 정보 처리 장치의 외관 예를 도시하는 설명도이다.
도 2는 본 개시의 제1 실시 형태에 관한 정보 처리 장치의 기능 블록도이다.
도 3은 계층 구조의 선택 항목과 동일한 실시 형태에 관한 정보 처리 장치의 조작에 관한 설명도이다.
도 4는 동일한 실시 형태에서 사용되는 틸트 조작에 관한 설명도이다.
도 5는 동일한 실시 형태에서 사용되는 틸트 조작과 틸트 각도 간의 관계에 관한 설명도이다.
도 6은 동일한 실시 형태에서 사용되는 스윙 조작에 관한 설명도이다.
도 7a는 동일한 실시 형태에서 이동될 콘텐츠를 선택하는 조작에 관한 설명도이다.
도 7b는 동일한 실시 형태에 있어서 외부의 장치에 콘텐츠를 송신할 때의 조작에 관한 설명도이다.
도 7c는 재생 리스트에 콘텐츠를 추가할 때의 조작에 관한 설명도이다.
도 8은 계층 구조의 선택 항목과, 동일한 실시 형태에 관한 정보 처리 장치가 틸트 정도에 따라 단계적으로 선택 항목을 표시할 때의 조작에 관한 설명도이다.
도 9는 동일한 실시 형태에 관한 정보 처리 장치가 단계적으로 선택 항목을 표시하는 표시 화면의 일례이다.
도 10은 동일한 실시 형태에 관한 정보 처리 장치의 콘텐츠 이동처를 결정하는 조작에 있어서의 동작예를 나타내는 흐름도이다.
도 11은 동일한 실시 형태에 있어서 송신처 디바이스로부터의 거리에 따라 디바이스 썸네일을 배치할 때의 동작예를 나타내는 흐름도이다.
도 12는 동일한 실시 형태에 있어서 표시된 표시 화면 상의 오브젝트의 배치를 설명하기 위한 설명도이다.
도 13은 본 개시의 제2 실시 형태에 관한 정보 처리 장치의 기능 블록도이다.
도 14는 동일한 실시 형태에 관한 정보 처리 장치의 선택 항목의 선택 조작의 동작예를 나타내는 흐름도이다.
도 15는 본 개시의 제3 실시 형태에 관한 정보 처리 장치의 기능 블록도이다.
도 16은 동일한 실시 형태에 관한 정보 처리 장치가 표시한 표시 화면의 일례를 나타내는 설명도이다.
도 17은 본 개시의 제1 내지 제3 실시 형태에 관한 정보 처리 장치의 하드웨어 구성의 일례를 도시하는 블록도이다.
이하에 첨부 도면을 참조하면서, 본 개시의 양호한 실시 형태에 대해서 상세하게 설명한다. 또한, 본 명세서 및 도면에 있어서, 실질적으로 동일한 기능 구성을 갖는 구성 요소에 대해서는, 동일한 번호를 부여하며, 그에 대한 설명을 반복하지 않는다.
또한, 설명은 이하의 순서로 행한다.
1. 제1 실시 형태
1-1. 구성예
1-2. 동작예
1-3. 틸트 정도를 사용한 조작예(거리에 따라 송신처 디바이스를 배치하는 예)
1-4. 표시 화면의 예
2. 제2 실시 형태(일반화한 적용예)
2-1. 구성예
2-2. 동작예
3. 제3 실시 형태(촬상 기능에의 적용예)
3-1. 구성예
4. 하드웨어 구성예
<1. 제1 실시 형태>
(1-1. 구성예)
우선, 도 1 내지 도 9를 참조하면서, 본 명세서에서 개시하는 기술을 적용 가능한 일례로서의 제1 실시 형태에 관한 정보 처리 장치의 구성에 대해서 설명한다. 본 명세서에서 개시하는 기술은, 틸트를 검출하는 기능을 갖는 장치에 적용될 수 있다.
도 1은, 본 개시의 한 실시 형태에 관한 정보 처리 장치의 외관 예를 도시하는 설명도이다. 도 2는, 본 개시의 제1 실시 형태에 관한 정보 처리 장치의 기능 블록도이다. 도 3은, 계층 구조의 선택 항목과 동일한 실시 형태에 관한 정보 처리 장치의 조작에 관한 설명도이다. 도 4는, 동일한 실시 형태에 있어서 사용되는 틸트 조작에 관한 설명도이다. 도 5는, 동일한 실시 형태에 있어서 사용되는 틸트 조작과 틸트 각도 간의 관계에 관한 설명도이다. 도 6은, 동일한 실시 형태에 있어서 사용되는 스윙 조작에 관한 설명도이다. 도 7a는, 동일한 실시 형태에 있어서 이동될 콘텐츠를 선택하는 조작에 관한 설명도이다. 도 7b는, 동일한 실시 형태에 있어서 외부의 장치에 콘텐츠를 송신할 때의 조작에 관한 설명도이다. 도 7c는, 재생 리스트에 콘텐츠를 추가할 때의 조작에 관한 설명도이다. 도 8은, 계층 구조의 선택 항목과, 동일한 실시 형태에 관한 정보 처리 장치가 틸트 정도에 따라 단계적으로 선택 항목을 표시할 때의 조작에 관한 설명도이다. 도 9는, 동일한 실시 형태에 관한 정보 처리 장치가 단계적으로 선택 항목을 표시하는 표시 화면의 일례이다.
우선, 도 1에는, 본 명세서의 기술을 적용하는 정보 처리 장치(100)의 일례가 나타난다. 정보 처리 장치(100)는, 케이싱의 틸트를 검출하는 기능을 갖는 단말 장치이다. 예를 들어, 정보 처리 장치(100)는, 휴대 전화, 휴대용 음악 재생 장치, 휴대용 영상 처리 장치, 휴대용 게임 콘솔, 태블릿형 단말기, 개인용 컴퓨터(PC) 등의 단말 장치일 수 있다.
정보 처리 장치(100)는, 그 케이싱의 표면에 표시부(107)를 갖고 있다. 이 표시부(107)에는 터치 센서가 중첩되어서, 표시부(107)에 표시된 표시 화면 상의 조작체의 위치를 검출할 수 있다. 또한, 본 명세서 및 도면에 있어서, 정보 처리 장치(100)의 케이싱의 길이 방향을 y 방향(제1 방향의 예)으로 정의하고, 케이싱의 횡 방향을 x 방향(제2 방향의 예)으로 정의한다.
도 2를 참조하면, 본 개시의 제1 실시 형태에 관한 정보 처리 장치(100a)의 기능 구성이 나타난다. 또한, 본 명세서 및 도면에 있어서는, 실질적으로 동일한 기능 구성을 갖는 복수의 구성 요소를, 동일한 부호의 뒤에 다른 알파벳을 붙여서 구별할 수 있다. 예를 들어, 실질적으로 동일한 기능 구성을 갖는 복수의 구성 요소를, 필요에 따라 정보 처리 장치(100a) 및 정보 처리 장치(100b)와 같이 구별한다. 그러나, 실질적으로 동일한 기능 구성을 갖는 복수의 구성 요소의 각각을 특히 구별할 필요가 없을 경우, 동일 부호만을 붙인다. 예를 들어, 정보 처리 장치(100a) 및 정보 처리 장치(100b) 등을 특별히 구별할 필요가 없는 경우에는, 정보 처리 장치를 간단히 정보 처리 장치(100)라고 칭한다.
정보 처리 장치(100a)는, 틸트 검출부(101), 조작체 검출부(103), 제어부(105), 표시부(107) 및 통신부(109)를 주로 갖는다.
(틸트 검출부)
틸트 검출부(101)는, 정보 처리 장치(100)의 케이싱의 틸트를 검출하는 기능을 갖는다. 틸트 검출부(101)는, 예를 들어 각속도 센서, 가속도 센서, 각도 센서 등의 모션 센서일 수 있다. 또한, 틸트 검출부(101)는, 상술한 모션 센서 중 적어도 2개 이상을 조합함으로써 실현될 수 있다. 여기에서 사용되는 각속도 센서의 일례로서는, 진동형 자이로 센서, 회전 코마 자이로 센서 등을 들 수 있다. 또한, 여기에서 사용되는 가속도 센서는, 예를 들어 피에조 저항형 가속도 센서, 압전형 가속도 센서, 정전 용량형 가속도 센서 등일 수 있다. 또한, 각도 센서의 일례로서는, 지자기 센서를 들 수 있다. 또한, 틸트 검출부(101)로서 사용되는 모션 센서는, 3축에 대한 회전각을 검출할 수 있는 센서인 것이 바람직하다. 틸트 검출부(101)는, 검출한 틸트에 관한 정보를 제어부(105)에 제공할 수 있다.
(조작체 검출부)
조작체 검출부(103)는, 조작체에 의한 조작을 검출하는 기능을 갖는다. 조작체 검출부(103)는, 예를 들어 표시부(107) 위에 중첩해서 설치되어, 표시부(107)에 표시된 표시 화면에 대한 조작체의 위치를 검출하는 터치 센서에 의해 실현될 수 있다. 조작체는, 예를 들어 유저의 손가락이나 스타일러스 펜일 수 있다. 조작체 검출부(103)는, 검출한 조작체에 의한 조작에 관한 정보를 제어부(105)에 제공할 수 있다.
(제어부)
제어부(105a)는, 정보 처리 장치(100a) 전체의 동작을 제어하는 기능을 갖는다. 제어부(105a)는, 예를 들어 틸트 검출부(101)에 의해 검출된 틸트에 관한 정보 및 조작체 검출부(103)에 의해 검출된 조작체에 의한 조작에 관한 정보 중 적어도 하나에 기초하여, 정보 처리 장치(100a)의 동작을 제어할 수 있다. 또한, 제어부(105a)는, 틸트 검출부(101)에 의해 검출된 틸트에 관한 정보 및 조작체 검출부(103)에 의해 검출된 조작체에 의한 조작에 관한 정보 중 적어도 하나에 기초하여, 표시부(107)에 표시된 표시 화면의 표시를 제어할 수 있다. 또한, 제어부(105a)는, 통신부(109)를 통해서 외부 장치와의 접속을 제어할 수도 있다.
예를 들어, 도 3에 도시된 바와 같이, 정보 처리 장치(100a)의 동작을 결정하기 위한 선택 항목이 계층 구조인 경우에 정보 처리 장치(100)의 제어부(105)의 제어에 대해서 설명한다. 제어부(105)는, 틸트 검출부(101)에 의해 검출된 틸트를 사용한 복수 단계의 조작에 기초하여, 계층 구조의 선택 항목을 선택할 수 있다. 예를 들어, 제1 계층의 선택 항목이 선택 항목 1과 선택 항목 2를 포함하고, 제1 계층보다 하층인 제2 계층의 선택 항목이 선택 항목 1-1, 선택 항목 1-2, 선택 항목 1-3 및 선택 항목 1-4을 포함하는 경우를 생각해 보자. 예를 들어, 제어부(105)는, 케이싱의 y 방향에 대한 틸트를 사용한 틸트 조작에 기초하여, 우선 선택 항목 1과 선택 항목 2 중 어느 하나를 선택할 수 있다. 여기에서, y 방향은 제1 방향의 일례이며, 틸트 조작은, 제1 방향에 대한 틸트를 사용한 제1 조작의 일례이다. 또한, 제1 계층으로부터 소정의 선택 항목이 선택된 후, 선택된 선택 항목의 하층의 선택 항목이 존재할 경우에는, 제어부(105)는, 케이싱의 x 방향에 대한 틸트를 사용한 스윙 조작에 기초하여, 선택 항목 1-1, 선택 항목 1-2, 선택 항목 1-3 및 선택 항목 1-4 중 어느 하나를 선택할 수 있다. 또한, 여기에서, x 방향은 제1 방향과 직교하는 제2 방향의 일례이며, 스윙 조작은 제2 방향에 대한 틸트를 사용한 제2 조작의 일례이다.
여기서, 도 4 및 도 5를 참조하면서 틸트 조작에 대해서 설명한다. 틸트 조작은, 기준으로서의 시점의 상태로부터 정보 처리 장치(100)의 케이싱의 틸트를 사용한 조작이다. 여기서, 기준으로서의 기준점은, 예를 들어 도 4에 도시된 바와 같이, 표시 화면에 대한 조작체의 푸시 조작을 검출하는 시점일 수 있다. 유저가 정보 처리 장치(100)에 대하여 푸시 조작을 행하면, 제어부(105)는, 이 시점에서의 케이싱의 상태에 대한 케이싱의 틸트의 변화를 검출할 수 있다. 따라서, 제어부(105)는, 틸트 각도가 기준점에 대해서 y 방향으로부터 케이싱의 틸트된 각도인 것으로 결정한다. 여기에서는, 도 5에 도시된 바와 같이, 유저가 봤을 때 케이싱의 전방측의 상승 방향으로의 틸트 조작을 틸트 업이라고 하고, 유저가 봤을 때 케이싱의 전방측의 하강 방향으로의 틸트 조작을 틸트 다운이라고 한다.
다음에, 도 6을 참조하면서 스윙 조작에 대해서 설명한다. 스윙 조작 또한, 기준으로서의 시점의 상태로부터 정보 처리 장치(100)의 케이싱의 틸트를 사용한 조작이다. 여기서, 기준점은 예를 들어, 틸트 조작으로부터 스윙 조작으로 이행하는 시점일 수 있다. 즉, 제어부(105)는, y 방향에 대해 틸트가 변화하고 있는 상태로부터, y 방향에 대한 틸트의 변화없이 x 방향에 대해 틸트가 변화하는 상태로 전환한 점을 기준점으로 결정할 수 있다. 그 다음, 제어부(105)는, 기준점에 대해서 x 방향으로부터 케이싱의 틸트된 각도를 스윙 각도로 결정할 수 있다. 스윙 각도가 변화하면, 제어부(105)는, 이 스윙 각도에 따라서 선택 항목의 표시를 변화시킬 수 있다. 예를 들어, 여기에서는, 스윙 각도의 변화 전에 선택 항목 C1-1, 선택 항목 C1-2 및 선택 항목 C1-3이 표시되어 있는 것으로 한다. 이 경우, 유저가 스윙 각도를 변화시키면, 선택 항목 C의 표시가 회전해서 선택 항목 C1-2, 선택 항목 C1-3 및 선택 항목 C1-4이 표시된다. 여기서, 예를 들어 제어부(105)는, 한가운데에 표시되어 있는 선택 항목을 선택할 수 있다. 유저가 스윙 각도를 변화시켜서 선택 항목 C의 표시를 변화시킬 때마다, 제어부(105)는 선택된 선택 항목을 변화시킨다.
여기서, 도 7을 참조하면서, 콘텐츠의 이동처를 선택하는 장면에 있어서의 계층 구조의 선택 항목의 선택에 대하여 본 기술을 적용하는 경우의 예에 대해서 설명한다. 여기에서는, 도 3에 도시한 선택 항목 중, 제1 계층은 콘텐츠의 이동처가 정보 처리 장치(100a)의 내부 또는 외부에 있는지를 선택하기 위한 계층이다. 또한, 여기에서, 선택 항목은, 콘텐츠의 송신처 디바이스를 선택하는 계층을 포함한다. 선택 항목 1은, "콘텐츠를 외부 장치에 송신하는 것"이며, 선택 항목 2는, "콘텐츠를 재생 리스트에 추가하는 것"이다. 도 7a의 표시 화면(301)에 도시된 바와 같이, 1개의 콘텐츠가 선택되고 이 콘텐츠에 대한 푸시 조작을 조작체 검출부(103)가 검출하는 상태에 있을 때, 제어부(105a)는, 선택 항목 1을 나타내는 헤더 HD 및 선택 항목 2를 나타내는 재생 리스트 썸네일 군 PT가 표시된 표시 화면(303)을 표시한다. 이 표시 화면(303)에 의해, 유저는 선택 항목 1과 선택 항목 2 중 어느 하나를 선택하는 조작을 행할 수 있다는 것을 알 수 있다. 또한, 이 상태에서, 틸트 업 조작이 행해지면, 도 7b로 진행하고, 틸트 다운 조작이 행해지면, 도 7c로 진행한다.
우선, 틸트 업 조작이 검출된 경우에 대해서 도 7b를 참조하면서 설명한다. 틸트 업 조작이 행해지면, 송신처 디바이스의 선택 항목을 표시하기 위한 디바이스 베이스 에어리어 DA를 포함하는 표시 화면(305)이 표시된다. 또한, 틸트 각도를 증대시키면, 제어부(105a)는, 디바이스 베이스 에어리어 DA 위에 디바이스 썸네일 DT가 표시된 표시 화면(307)을 표시한다. 여기서, 제어부(105a)는, 디바이스 썸네일 DT의 표시 배치를, 각각의 디바이스 썸네일 DT에 대응하는 선택 항목이 선택되는 빈도에 기초하여 결정할 수 있다. 예를 들어, 제어부(105a)는, 선택 빈도가 높은 선택 항목을, 유저가 선택하기 쉬운 위치에 배치할 수 있다. 예를 들어, 제어부(105a)는, 가장 선택 빈도가 높은 선택 항목을 중앙에 배치할 수 있다. 표시 화면(307)에서 스윙 조작이 행해지면, 디바이스 썸네일 DT에 의해 나타나는 선택 항목이 회전하고 동시에, 선택된 선택 항목이 변화한다. 여기에서는, 제어부(105a)는, 한가운데에 표시된 디바이스 썸네일 DT에 대응하는 선택 항목을 선택한다. 또한, 선택 항목 중 어느 하나를 선택한 상태에서, 조작체에 의한 확정 조작이 입력되었을 때, 제어부(105a)는 선택 항목의 선택을 확정할 수 있다. 여기에서는, 선택된 선택 항목을 나타내는 디바이스 썸네일에 대한 드래그 조작이 검출되면, 이 선택(송신처 디바이스)이 확정된다. 따라서, 제어부(105a)는, 통신부(109)를 통해서 확정된 송신처 디바이스 CL1에 콘텐츠를 송신한다.
한편, 틸트 다운 조작이 검출된 경우에 대해서는 도 7c를 참조하면서 설명한다. 틸트 다운 조작이 검출되면, 제어부(105a)는, 표시 화면(303)에 표시된 재생 리스트 썸네일 군 PT를 더 슬라이드 인(sliding in)시키는 선택 항목 2가 선택되는 상태를 결정한다. 그 다음, 선택 항목 2가 선택되고 조작체에 의한 확정 조작이 입력되는 상태에서, 제어부(105a)는, 선택 항목의 선택을 확정할 수 있다. 여기에서는, 표시된 재생 리스트 썸네일 군 PT를 향해서 드래그 조작이 행해지면, 제어부(105a)는, 선택 항목 2의 선택을 확정해서 재생 리스트에 선택 항목 2를 추가한다.
또한, 도 8에 도시된 바와 같이 선택 항목이 많은 경우에는, 도 9에 도시된 바와 같이 선택 항목을 복수의 단계로 나누어서 표시할 수도 있다. 각각의 계층이, 틸트 검출부(101)에 의해 검출된 틸트의 정도에 대응하고, 여기에서는 틸트 각도가 미리 결정된 제1 범위 내에 있을 때, 디바이스 썸네일 군 DTa 중에서 중앙에 표시된 디바이스 썸네일에 대응하는 선택 항목이 선택되는 상태로 된다. 또한, 틸트 각도가 제1 범위보다 큰 제2 범위 내에 있을 때에는, 디바이스 썸네일 군 DTb 중에서 중앙에 표시된 디바이스 썸네일에 대응하는 선택 항목이 선택되는 상태로 된다. 즉, 유저는, 제2 계층의 선택 항목을 선택하기 위해서는, 틸트 각도와 스윙 조작을 조합해서 사용한다. 또한, 제어부(105a)는, 디바이스 썸네일에 의해 나타나는 송신처 디바이스와 통신부(109) 사이의 거리를 취득할 수 있고, 선택 항목으로서 표시된 디바이스 썸네일의 배치를, 이 거리에 기초하여 결정할 수 있다. 예를 들어, 제어부(105a)는, 거리가 가까운 곳의 송신처 디바이스를 유저가 선택하기 쉽도록 디바이스 썸네일의 배치를 결정할 수 있다. 제어부(105a)는, 송신처 디바이스로부터의 거리가 가까워질수록 더 작은 틸트 각도를 선택할 수 있다. 또한, 제어부(105a)는, 거리가 가까운 곳의 송신처 디바이스를 중앙에 배치할 수 있다.
(표시부(107))
도 2를 다시 참조하여, 설명을 계속한다. 표시부(107)는, 출력 장치의 일례이며, 액정 표시(LCD: Liquid Crystal Display) 장치, 유기 발광 다이오드(OLED: Organic Light Emitting Diode) 표시 장치 등의 표시 장치일 수 있다. 표시부(107)는, 제어부(105)의 제어하에 표시 화면을 유저에게 제공할 수 있다.
(통신부(109))
통신부(109)는, 정보 처리 장치(100)가 다른 장치와 통신하게 하기 위한 통신 인터페이스다. 예를 들어, 통신부(109)는, 무선에 의해 다른 장치와 통신하기 위한 무선 통신 인터페이스일 수 있다. 구체적으로, 통신부(109)는, 디지털 리빙 네트워크 얼라이언스(DLNA: Digital Living Network Alliance) 호환 기기와 무선으로 접속하기 위한 인터페이스일 수 있다. 정보 처리 장치(100a)는, DLNA 서버로서 기능할 수 있고, 접속된 DLNA 클라이언트에 콘텐츠를 전송할 수 있다.
(1-2. 동작예)
이어서, 도 10 및 도 11을 참조하면서, 본 실시 형태에 관한 정보 처리 장치의 동작예에 대해서 설명한다. 도 10은, 동일한 실시 형태에 관한 정보 처리 장치의 콘텐츠 이동처를 결정하는 조작에 있어서의 동작예를 나타내는 흐름도이다. 도 11은, 동일한 실시 형태에 있어서 송신처 디바이스로부터의 거리에 따라 디바이스 썸네일을 배치할 때의 동작예를 나타내는 흐름도이다.
도 10을 참조하면, 제어부(105a)는, 조작체 검출부(103)에 의해 동화상 썸네일 MT에 대한 푸시 조작이 검출되었는지의 여부를 판단한다(S101). 단계 S101에 있어서 동화상 썸네일에 대한 푸시 조작이 검출되었다고 판단되면, 제어부(105a)는, 동화상 썸네일 MT 이외의 것(예를 들어, 푸터(footer) FT 등)을 슬라이드 아웃(slide out)시킨다(S103). 그 다음, 제어부(105a)는, 표시 화면의 상부에 헤더 HD를 슬라이드 인시키고, 표시 화면의 하부에 재생 리스트 썸네일 군 PT를 슬라이드 인시킨다(S105).
이어서, 제어부(105a)는, 틸트 검출부(101)에 의해 틸트 업 조작이 검출되었는지의 여부를 판단한다(S107). 그 다음, 틸트 업 조작이 검출된 경우에는, 제어부(105a)는, 표시 화면의 상부에 디바이스 썸네일 DT를 표시하고 외부 장치에의 콘텐츠의 송신을 선택한다(S109). 디바이스 썸네일 DT가 표시된 후, 제어부(105a)는, 틸트 검출부(101)에 의해 스윙 조작이 검출되었는지의 여부를 판단한다(S111). 여기서, 스윙 조작이 검출된 경우에는, 제어부(105a)는, 스윙 조작의 방향을 따라서 디바이스 썸네일 DT를 회전시킨다(S113).
제어부(105a)는, 스윙 조작에 의해 디바이스 썸네일 DT의 표시 위치를 변화시키고, 이들 중에서 중앙에 표시되어 있는 디바이스 썸네일 DT를 선택한다. 이런 식으로 소정의 디바이스 썸네일 DT가 선택되면, 제어부(105a)는, 조작체 검출부(103)에 의해, 상측 방향으로의 드래그 조작, 더 상세하게는, 선택된 디바이스 썸네일 DT를 향하는 방향으로의 드래그 조작이 검출되었는지의 여부를 판단한다(S115). 여기서, 드래그 조작이 검출된 경우에는, 제어부(105a)는, 중앙에 표시된 디바이스 썸네일에 대응하는 디바이스에 동화상을 전송한다(S117).
한편, 단계 S107에 있어서 틸트 업 조작이 검출되지 않은 경우에는, 제어부(105a)는, 틸트 검출부(101)에 의해 틸트 다운 조작이 검출되었는지의 여부를 판단한다(S119). 그 다음, 단계 S119에서 틸트 다운 조작이 검출된 것으로 판단된 경우에는, 제어부(105a)는, 표시 화면의 하부의 재생 리스트 썸네일 군 PT를 더 슬라이드 인시켜서 재생 리스트에의 콘텐츠 추가를 선택하게 한다(S121). 그 다음, 제어부(105a)는, 조작체 검출부(103)에 의해 하측 방향으로의 드래그 조작이 검출되었는지의 여부를 판단한다(S123). 단계 S123에서 드래그 조작이 검출된 경우에는, 제어부(105a)는, 재생 리스트에 동화상을 추가한다(S125).
또한, 단계 S111에서 스윙 조작이 검출되지 않았을 경우, 단계 S115에서 드래그 조작이 검출되지 않았을 경우, 단계 S119에서 틸트 다운 조작이 검출되지 않았을 경우, 및 단계 S123에서 드래그 조작이 검출되지 않았을 경우, 제어부(105a)는, 조작체 검출부(103)에 의해 손가락이 화면으로부터 이격된 것이 검출되었는지의 여부를 판단한다(S127). 그 다음, 손가락이 화면으로부터 이격된 것이 검출되면, 제어부(105a)는, 여기까지의 처리를 취소하고 조작을 종료한다(S129).
(1-3. 틸트 정도를 사용한 조작예(거리에 따라 송신처 디바이스를 배치하는 예))
또한, 도 10의 단계 S109에서 디바이스 썸네일 DT를 표시할 때, 제어부(105a)는, 디바이스 썸네일 DT의 배치를, 각각의 기기로부터의 거리에 기초하여 결정할 수 있다. 이 경우의 제어부(105a)의 동작에 대해서 도 11에 도시된다.
우선, 제어부(105a)는, DLNA 클라이언트 리스트를 취득한다(S201). 그 다음, 제어부(105a)는, 각각의 DLNA 클라이언트로부터의 거리를 취득한다(S203). 다음에, 제어부(105a)는, 취득한 거리에 기초하여 디바이스 썸네일 DT의 배치를 결정한다(S205). 상술한 바와 같이, 거리가 가까운 곳의 디바이스를 유저가 선택하기 쉬운 위치에 배치하는 것이 바람직할 수 있다. 예를 들어, 거리가 가까울수록 더 작은 틸트각을 선택하는 것이 바람직할 수 있다. 또한, 예를 들어, 거리가 가깝게 되는 만큼 중앙에 가깝게 배치될 수 있다. 그 다음, 제어부(105a)는, 결정된 배치로 디바이스 썸네일 DT를 표시한다(S207).
(1-4. 표시 화면의 예)
여기서, 계층 구조의 선택 항목을 선택하기 위한 표시 화면은, 3차원 표시되는 것이 바람직할 수 있다. 3차원의 표현력은, 유저의 조작감을 향상시키는데 사용될 수 있다. 여기서, 표시 화면에 표시된 각각의 오브젝트는, 도 12에 나타낸 위치 관계에 의해 표현된다. 도 12는, 동일한 실시 형태에 있어서 표시된 표시 화면 상의 오브젝트의 배치를 설명하기 위한 설명도이다.
도 12에 나타내는 각종 부호는 도 7에 나타낸 부호에 대응한다. 예를 들어, 동화상 썸네일 MT는 도 7a의 좌측 도면에 나타낸 부호에 의해 나타낸 오브젝트에 대응한다. 도 12에서는, 그 상태에 따라, 동화상 썸네일 MT1, 동화상 썸네일 MT2 및 동화상 썸네일 MT3이 나타난다. 동화상 썸네일 MT2은, 도 7a의 우측 도면에 도시된 바와 같이, 푸시 조작이 행해진 후의 동화상 썸네일 MT의 배치를 나타내고, 푸시 조작에 의해 동화상 썸네일 MT는, 유저가 봤을 때 후방으로 α의 거리만큼 아래로 이동될 수 있다. 또한, 동화상 썸네일 MT가 아래로 이동되면, 푸터 FT1은 동시에 하방으로 슬라이드 아웃되어, 푸터 FT2의 배치가 된다. 또한, 배경 BG은 배경 BG1의 위치로부터 배경 BG2의 배치로 변한다. 또한, 푸터 FT 대신에, 재생 리스트 썸네일 군 PT가 슬라이드 인되어, 재생 리스트 썸네일 군 PT2의 배치가 된다. 이때, 헤더 HD가 헤더 HD1의 위치에 배치된다.
다음에, 틸트 조작이 이루어졌을 때, 동화상 썸네일 MT는, 틸트 각도를 따라서 동화상 썸네일 MT3의 배치가 된다. 여기서, 틸트 조작과 함께, 디바이스 베이스 DA가 표시 화면의 상방으로부터 슬라이드 인된다. 틸트 각도가 증대하면, 디바이스 썸네일 DT가 디바이스 베이스 DA 위에 표시된다. 이때, 디바이스 베이스 DA의 배치는 디바이스 베이스 DA2에 의해 나타나고, 디바이스 썸네일 DT의 배치는 디바이스 썸네일 DT2에 의해 나타난다.
(1-5. 효과의 예)
이상, 본 개시의 제1 실시 형태에 관한 정보 처리 장치(100a)에 대해서 설명했다. 본 실시 형태에 있어서는, 케이싱의 검출된 틸트를 사용하는 복수 단계의 조작에 의해 계층 구조의 선택 항목을 선택하는 정보 처리 장치의 구체적인 적용예로서, DLNA에 대응하는 기기 간의 콘텐츠의 전송의 장면에 본 개시의 기술을 적용하는 경우에 대해서 설명했다. 상술한 구성에 의하면, 유저는, 전송할 콘텐츠를 표시 화면에 나타내는 푸시 조작을 손가락으로 행하고, 손가락을 이격하지 않고 케이싱을 기울이는(틸트 업 또는 틸트 다운) 조작을 행함으로써, 콘텐츠를 외부 장치에 이동시킬지 또는 내부의 동작을 행할지를 결정할 수 있다. 그 다음, 콘텐츠를 외부 장치에 전송하면, 또 다른 상이한 방향으로의 케이싱의 틸트를 사용하는 스윙 조작을 행함으로써 전송처의 디바이스를 선택할 수 있다.
또한, 선택된 선택 항목을 결정하는 데에는, 드래그 조작 등이 사용될 수 있다. 케이싱의 틸트에 의한 조작은 직감적이지만, 틸트 정도의 피드백이 없으면 오조작을 야기할 수 있다. 따라서, 드래그 조작 등, 조작체에 의한 별도의 조작을 조합해서 사용함으로써, 오조작을 감소시킬 수 있다.
<2. 제2 실시 형태(일반화한 적용예)>
이상, 제1 실시 형태에서는, 콘텐츠를 외부 장치에 전송하는 특수한 상황에 있어서 본 기술을 적용하는 예에 대해서 설명했다. 그러나, 본 기술은 계층 구조의 선택 항목을 선택하는 정보 처리 장치에 보다 널리 적용될 수 있다. 따라서, 여기에서는 보다 일반화된 본 기술을 설명한다.
(2-1. 구성예)
우선, 도 13을 참조하면서 본 개시의 제2 실시 형태에 관한 정보 처리 장치의 기능 구성에 대해서 설명한다. 도 13은, 본 개시의 제2 실시 형태에 관한 정보 처리 장치의 기능 블록도이다.
본 개시의 제2 실시 형태에 관한 정보 처리 장치(100b)는, 틸트 검출부(101), 조작체 검출부(103), 제어부(105b) 및 표시부(107)를 주로 갖는다.
(제어부)
제어부(105b)는, 틸트 검출부(101)에 의해 검출된 틸트를 사용하는 복수 단계의 조작에 기초하여, 계층 구조의 선택 항목을 선택할 수 있다. 제어부(105b)는, 제1 방향에 대한 틸트를 사용하는 제1 조작에 기초하여 제1 계층의 선택 항목을 선택할 수 있다. 또한, 제1 계층의 선택 항목 중, 제1 조작에 의해 선택된 선택 항목의 하층(제2 계층)에 선택 항목이 있을 때, 제어부(105b)는, 제2 계층의 선택 항목을 표시할 수 있고, 제1 방향과 직교하는 제2 방향에 대한 틸트를 사용하는 제2 조작에 기초하여, 제2 계층의 선택 항목을 선택할 수 있다. 또한, 제어부(105b)는, 조작체 검출부(103)에 의해 검출된 조작체에 의한 입력에 기초하여, 선택 항목의 선택을 확정할 수 있다.
(2-2. 동작예)
이어서, 도 14를 참조하면서, 동일한 실시 형태에 관한 정보 처리 장치의 동작에 대해서 설명한다. 도 14는, 동일한 실시 형태에 관한 정보 처리 장치의 선택 항목의 선택 조작의 동작예를 나타내는 흐름도이다.
또한, 여기에서 설명하는 동작은, 제1 실시 형태에서 설명한 정보 처리 장치(100a)의 동작을 일반화한 것이며, 제1 실시 형태는, 제2 실시 형태의 구체예이다.
우선, 제어부(105b)는, 조작체 검출부(103)에 의해 푸시 조작이 검출되었는지의 여부를 판단한다(S301). 여기서, 푸시 조작이 검출되면, 제어부(105b)는, 제1 계층의 선택 항목을 표시한다(S303). 그 다음, 제어부(105b)는, 틸트 검출부(101)에 의해 틸트 조작이 검출되었는지의 여부를 판단한다(S305). 그 다음, 단계 S305에서 틸트 조작이 검출된 것으로 판단되면, 제어부(105b)는, 틸트 각도에 따라서 제1 계층의 선택 항목을 선택한다(S307).
여기서, 제어부(105b)는, 제1 계층의 하층에 선택 항목이 있는지의 여부를 판단한다(S309). 단계 S309에서 하층에 선택 항목이 있다고 판단되면, 제어부(105b)는, 하층의 선택 항목을 표시부(109)에 표시한다(S311). 그 다음, 하층의 선택 항목이 표시된 상태에서, 제어부(105b)는, 틸트 검출부(101)에 의해 스윙 조작이 검출되었는지의 여부를 판단한다(S313). 여기서, 스윙 조작이 검출되었을 경우, 제어부(105b)는, 검출된 스윙 조작에 따라, 선택 항목을 선택한다(S315). 단계 S315에 의해 선택 항목이 선택된 후, 또는, 단계 S309에서 하층에 선택 항목이 없다고 판단되었을 때, 제어부(105b)는, 조작체 검출부(103)에 의해 드래그 조작이 검출되었는지의 여부를 판단한다(S317). 여기서, 드래그 조작이 검출되었다고 판단되면, 제어부(105b)는, 검출된 드래그 조작에 기초하여, 선택 항목의 선택을 확정한다(S319).
이상 설명한 바와 같이, 본 개시의 제2 실시 형태의 구성에 의하면, 보다 일반적인 계층 구조의 선택 항목을 선택하는 경우에 본 기술을 적용할 수 있다. 예를 들어, 계층 구조의 선택 항목의 예로서는, 정보 처리 장치(100b)의 동작 설정을 변경하는 화면에 있어서의 선택 항목을 들 수 있다. 예를 들어, 동작 설정을 변경하는 화면에 있어서의 선택 항목 중에서, 표시에 관한 설정을 변경하기 위한 선택 항목을 선택할 수 있다. 예를 들어, 선택된 선택 항목의 하층에는, 표시 크기를 변경하는 선택 항목, 화면의 밝기를 변경하는 선택 항목 등이 존재할 수 있다. 여기에서, 유저가, 표시 크기를 변경하는 선택 항목을 선택하면, 또 다른 하층의 선택 항목에서의 표시 크기가 선택될 수 있다.
<3. 제3 실시 형태(촬상 기능에의 적용예)>
(3-1. 구성예)
상술한 제2 실시 형태에 있어서는, 일반적인 계층 구조의 선택 항목을 선택하는 경우에 본 기술을 적용하는 것에 대해서 설명했다. 그러나, 예를 들어, 제1 실시 형태에서의 다른 장치에의 콘텐츠 전송 이외에, 촬상 기능을 이용하는 경우가, 본 기술을 적용하는 것이 효과적인 경우의 일례일 수 있다. 촬상 장치에 있어서 터치 센서가 사용되고 있는 경우에도, 표시 화면이 캡쳐되고 있는 영상을 표시하는 표시 화면이기 때문에, 표시 화면에 접촉하고 싶지 않은 요구가 높다. 따라서, 본 기술에 의한 틸트를 사용하는 조작을 촬상 기능의 설정 화면에 적용하는 것도 효과적이다.
본 개시의 제3 실시 형태에 관한 정보 처리 장치에 대해서 도 15를 참조하면서 설명한다. 도 15는, 본 개시의 제3 실시 형태에 관한 정보 처리 장치의 기능 블록도이다. 본 개시의 제3 실시 형태에 관한 정보 처리 장치(100c)는, 예를 들어 틸트 검출부(101), 제어부(105c), 표시부(107) 및 촬상부(111)를 주로 갖는다.
(제어부)
제어부(105c)는, 촬상부(111)에 의한 촬상 기능을 더 제어할 수 있다. 또한, 제1 실시 형태 및 제2 실시 형태에서 사용한 푸시 조작 또는 드래그 조작은, 본 실시 형태에 있어서는, 하드웨어 키에 의한 조작으로 대체될 수 있다. 표시 화면을 접촉하고 싶지 않은 요구가 높은 경우에는, 터치 센서를 사용하는 조작체에 의한 조작 대신에 하드웨어 키를 사용하는 조작체에 의한 조작이 사용되면, 표시 화면에 발생하는 지문 또는 흠집을 방지할 수 있다. 제어부(105c)는, 예를 들어 도 16에 도시한 바와 같은 촬상 기능의 설정 화면을 표시시킬 수 있다. 여기에서, 도시된 바와 같이, 케이싱의 길이 방향(y 방향)이 옆으로 놓여 있으면, 횡방향(x 방향)에 대한 틸트를 사용해서 틸트 조작이 행해진다. 또한, 길이 방향(y 방향)에 대한 틸트를 사용해서 스윙 조작이 행해진다.
제어부(105c)는, 틸트 조작에 의해 선택 항목(21), 선택 항목(22), 선택 항목(23) 등 중 어느 하나를 선택할 수 있다. 또한 제어부(105c)는, 도 16에 도시된 바와 같이, 중앙에 표시된 선택 항목(22)의 하층의 선택 항목이 있을 경우에는, 선택 항목(22)의 하층의 선택 항목(22-1) 및 선택 항목(22-2)을 표시할 수 있다. 또한, 제어부(105c)는, 스윙 조작에 의해 이들 선택 항목(22-1)과 선택 항목(22-2) 중 어느 하나를 선택할 수 있다. 예를 들어, 제어부(105c)는, 하드웨어 키에 의한 결정 조작에 기초하여, 선택 항목의 선택을 결정할 수 있다.
(촬상부)
촬상부(111)는, 전하 결합 소자(CCD: Charge Coupled Device) 촬상 소자 또는 상보성 금속 산화물 반도체(CMOS: Complementary Metal Oxide Semiconductor) 촬상 소자 등의 촬상 소자를 갖는 카메라 모듈이다. 촬상부(111)는, 제어부(105c)의 제어하에 동작한다. 촬상부(111)는, 상술한 설정 화면에 의해 설정된 설정을 따라서 동작할 수 있다.
이상, 본 개시의 제1 내지 제3 실시 형태에 관한 정보 처리 장치(100)의 기능의 일례를 나타냈다. 상기의 각 구성 요소는, 범용적인 부재나 회로를 사용해서 구성될 수 있고, 각 구성 요소의 기능에 특화된 하드웨어에 의해 구성될 수도 있다. 또한, CPU(Central Processing Unit) 등의 연산 장치는, 각 구성 요소의 기능을, 이들 기능을 실현하는 처리 수순을 기술한 제어 프로그램을 저장한 ROM(Read Only Memory) 또는 RAM(Random Access Memory) 등의 기억 매체로부터 제어 프로그램을 판독하고, 그 프로그램을 해석해서 실행함으로써 행할 수 있다. 따라서, 본 실시 형태를 실시할 때에는, 이용할 구성을 기술 레벨에 따라, 적절히 변경할 수 있다. 정보 처리 장치(100)의 하드웨어 구성의 일례에 대해서는, 후술된다.
또한, 상술한 바와 같은 본 실시 형태에 관한 정보 처리 장치(100)의 각 기능을 실현하기 위한 컴퓨터 프로그램이 작성되고, 퍼스널 컴퓨터 등에서 구현될 수 있다. 또한, 이러한 컴퓨터 프로그램이 저장된, 컴퓨터 판독가능 기록 매체도 제공될 수 있다. 기록 매체는, 예를 들어 자기 디스크, 광 디스크, 광자기 디스크, 플래시 메모리 등일 수 있다. 또한, 컴퓨터 프로그램은, 기록 매체를 사용하지 않고, 네트워크를 통해서 전달될 수도 있다.
<4. 하드웨어의 구성예>
이어서, 도 17을 참조하면서, 본 개시의 제1 내지 제3 실시 형태에 관한 정보 처리 장치(100)의 하드웨어 구성의 일례에 대해서 설명한다. 도 17은, 본 개시의 제1 내지 제3 실시 형태에 관한 정보 처리 장치의 하드웨어 구성예를 도시하는 블록도이다.
정보 처리 장치(100)는, 예를 들어 GPS 안테나(821), GPS 처리부(823), 통신 안테나(825), 통신 처리부(827), 지자기 센서(829), 가속도 센서(831), 자이로 센서(833), 기압 센서(835), 촬상부(837), CPU(Central Processing Unit)(839), ROM(Read Only Memory)(841), RAM(Random Access Memory)(843), 조작부(847), 표시부(849), 디코더(851), 스피커(853), 인코더(855), 마이크(857) 및 기억부(859)를 갖는다.
GPS 안테나(821)는, 측위 위성으로부터의 신호를 수신하는 안테나의 일례이다. GPS 안테나(821)는, 복수의 GPS 위성으로부터의 GPS 신호를 수신할 수 있고, 수신한 GPS 신호를 GPS 처리부(823)에 입력한다.
GPS 처리부(823)는, 측위 위성으로부터 수신된 신호에 기초하여 위치 정보를 산출하는 산출부의 일례이다. GPS 처리부(823)는, GPS 안테나(821)로부터 입력된 복수의 GPS 신호에 기초해서 현재의 위치 정보를 산출하고, 산출한 위치 정보를 출력한다. 구체적으로는, GPS 처리부(823)는, 각 GPS 위성의 궤도 데이터로부터 각각의 GPS 위성의 위치를 산출하고, GPS 신호의 송신 시각과 GPS 신호의 수신 시각과의 시간 차이에 기초하여, 각각의 GPS 위성으로부터 당해 단말 장치(100)까지의 거리를 각각 산출한다. 그 다음, 각각의 GPS 위성의 산출된 위치와, 각각의 GPS 위성으로부터 해당 단말 장치(100)까지의 거리에 기초하여, 현재의 3차원 위치를 산출할 수 있다. 또한, 여기에서 사용된 GPS 위성의 궤도 데이터는, 예를 들어 GPS 신호에 포함될 수 있다. 대안적으로, GPS 위성의 궤도 데이터는, 통신 안테나(825)을 통해서 외부의 서버로부터 취득될 수 있다.
통신 안테나(825)는, 예를 들어 이동 통신망 또는 무선 LAN(Local Area Network) 통신망을 통해서 신호를 수신하는 기능을 갖는 안테나이다. 통신 안테나(825)는, 수신한 신호를 통신 처리부(827)에 제공할 수 있다.
통신 처리부(827)는, 통신 안테나(825)로부터 제공된 신호에 대해 각종 신호 처리를 행하는 기능을 갖는다. 통신 처리부(827)는, 제공된 아날로그 신호로부터 생성한 디지털 신호를 CPU(839)에 제공할 수 있다.
지자기 센서(829)는, 지자기를 전압 값으로서 검출하는 센서이다. 지자기 센서(829)는, X축 방향의 지자기, Y축 방향의 지자기 및 Z축 방향의 지자기를 검출하는 3축 지자기 센서일 수 있다. 지자기 센서(829)는, 검출한 지자기 데이터를 CPU(839)에 제공할 수 있다.
가속도 센서(831)는, 가속도를 전압 값으로서 검출하는 센서이다. 가속도 센서(831)는, X축 방향으로의 가속도, Y축 방향으로의 가속도 및 Z축 방향으로의 가속도를 검출하는 3축 가속도 센서일 수 있다. 가속도 센서(831)는, 검출한 가속도 데이터를 CPU(839)에 제공할 수 있다.
자이로 센서(833)는, 물체의 각도 또는 가속도를 검출하는 계측기의 한 종류이다. 자이로 센서(833)는, X축, Y축 및 Z축 주위의 회전각의 변화 속도(각속도)를 전압 값으로서 검출하는 3축 자이로 센서일 수 있다. 자이로 센서(833)는, 검출한 각속도 데이터를 CPU(839)에 제공할 수 있다.
기압 센서(835)는, 주위의 기압을 전압 값으로서 검출하는 센서이다. 기압 센서(835)는, 기압을 소정의 샘플링 주파수로 검출하고, 검출한 기압 데이터를 CPU(839)에 제공할 수 있다.
촬상부(837)는, CPU(839)의 제어하에, 렌즈를 통해서 정지 화상 또는 동화상을 캡쳐하는 기능을 갖는다. 촬상부(837)는, 캡쳐한 화상을 기억부(859)에 저장할 수 있다.
CPU(839)는, 연산 처리 장치 및 제어 장치로서 기능하고, 각종 프로그램에 따라서 정보 처리 장치(100)의 전체 동작을 제어한다. 또한, CPU(839)는, 마이크로프로세서일 수 있다. CPU(839)는, 각종 프로그램에 따라서 여러가지 기능을 실현할 수 있다.
ROM(841)은, CPU(839)에 사용된 프로그램, 연산 파라미터 등을 저장할 수 있다. RAM(843)은, CPU(839)의 실행에서 사용된 프로그램, 그 실행에서 적절히 변화하는 파라미터 등을 일시 저장할 수 있다.
조작부(847)는, 유저가 원하는 조작을 행하게 하기 위한 입력 신호를 생성하는 기능을 갖는다. 조작부(847)는, 예를 들어 터치 센서, 마우스, 키보드, 버튼, 마이크, 스위치 및 레버 등, 유저가 정보를 입력하기 위한 입력부와, 유저의 입력에 기초하여 입력 신호를 생성하고, 이 신호를 CPU(839)에 출력하는 입/출력 제어부를 포함할 수 있다.
표시부(849)는, 출력부의 일례이다. 표시부(849)는, 액정 디스플레이( LCD:Liquid Crystal Display) 장치, 유기 EL(OLED: Organic Light Emitting Diode) 디스플레이 장치 등의 표시 장치일 수 있다. 표시부(849)는, 화면을 표시함으로써 유저에게 정보를 제공할 수 있다.
디코더(851)는, CPU(839)의 제어하에, 입력된 데이터에 대해 디코딩, 아날로그 변환 등을 행하는 기능을 갖는다. 예를 들어, 디코더(851)는, 통신 안테나(825) 및 통신 처리부(827)를 통해서 입력된 음성 데이터를 디코딩하고, 아날로그 변환을 행하여, 음성 신호를 스피커(853)에 출력한다. 스피커(853)는, 디코더(851)로부터 제공된 음성 신호에 기초하여 음성을 출력할 수 있다.
인코더(855)는, CPU(839)의 제어하에, 입력된 데이터에 대해 디지털 변환, 인코딩 등을 행하는 기능을 갖는다. 인코더(855)는, 마이크(857)로부터 입력된 음성 신호에 대해 디지털 변환, 인코딩 등을 행하여, 음성 데이터를 출력할 수 있다. 마이크(857)는, 음성을 집음하고, 이를 음성 신호로서 출력할 수 있다.
기억부(859)는, 데이터 저장용의 장치이다. 기억부(859)는, 기억 매체, 기억 매체에 데이터를 기록하는 기록 장치, 기억 매체로부터 데이터를 판독하는 판독 장치, 및 기억 매체에 저장된 데이터를 삭제하는 삭제 장치 등을 포함할 수 있다. 여기서, 기억 매체는, 예를 들어 플래시 메모리, 자기 저항 랜덤 액세스 메모리(MRAM: Magnetoresistive Random Access Memory), 강유전체 랜덤 액세스 메모리(FeRAM: Ferroelectric Random Access Memory), 상 변화 랜덤 액세스 메모리(PRAM: Phase change Random Access Memory) 및 전자적으로 소거 및 프로그램 가능 판독 전용 메모리(EEPROM: Electronically Erasable and Programmable Read Only Memory) 등의 불휘발성 메모리, 또는 하드 디스크 드라이브(HDD: Hard Disk Drive) 등의 자기 기록 매체를 포함할 수 있다.
이상, 첨부 도면을 참조하면서 본 개시의 양호한 실시 형태에 대해서 설명했지만, 본 개시의 기술적 범위는 이러한 예에 한정되지 않는다. 본 개시의 기술 분야에 있어서의 통상의 지식을 가진 자라면, 특허 청구 범위에 기재된 기술적 사상의 범주 내에서, 각종 변경 및 수정이 가능함을 알 수 있고, 이들이 본 개시의 기술적 범위에 속하는 것임을 알 수 있다.
예를 들어, 상기 제1 실시 형태에서는, 동화상을 외부 장치에 전송하는 것으로 설명하였지만, 본 기술은 이러한 예에 한정되지 않는다. 예를 들어, 전송된 콘텐츠는, 영화, 텔레비전 프로그램 및 비디오 프로그램 등의 동화상에 한하지 않고, 음악, 공연 및 라디오 프로그램 등의 음악 데이터, 사진, 문서, 회화 및 도표 등의 영상 데이터, 게임, 소프트웨어 등일 수 있다.
또한, 상기 제1 실시 형태에서는, 콘텐츠를 내부에서 처리하는 일례로서 콘텐츠를 재생 리스트에 추가하는 예를 설명하였지만, 본 기술은 이 예에 한정되지 않는다. 예를 들어, 콘텐츠는 정보 처리 장치(100a)에서 재생될 수 있거나, 정보 처리 장치(100a) 내부에 포함된 기억부에 저장될 수 있다.
또한, 상기 제1 및 제2 실시 형태에 있어서는, 선택을 확정하기 위한 조작체에 의한 조작이 터치 센서를 사용하는 드래그 조작인 것으로 설명했지만, 본 기술은 이러한 예에 한정되지 않는다. 선택을 확정하기 위한 조작은, 예를 들어 하드웨어 키의 누름일 수 있다. 대안적으로, 선택을 확정하기 위한 조작은, 선택 항목에 대한 탭 조작일 수 있다. 또한, 터치 센서를 사용하는 다양한 조작이 사용될 수 있다. 그러나, 상기 제1 실시 형태에 있어서 푸시 조작으로부터 일련의 동작을 행하는 경우에는, 드래그 조작이 사용되면, 유저에게 직감적인 조작이 되어, 조작성이 향상된다.
또한, 상기 실시 형태에 있어서는, 2개의 계층의 선택 항목에 대해서 설명했지만, 본 기술은 이러한 예에 한정되지 않는다. 예를 들어, 3개 이상의 계층의 선택 항목을 선택하는 데에, 틸트 조작과 스윙 조작이 교대로 사용될 수 있다.
또한, 본 명세서에 있어서, 흐름도에 기술된 단계는, 기재된 순서를 따라서 시계열적으로 행해지는 처리는 물론, 시계열적으로 처리되지 않고도, 병렬적으로 또는 개별적으로 실행되는 처리도 포함할 수 있다. 물론, 시계열적으로 처리되는 경우에서도, 환경에 따라서는 적절히 순서를 변경할 수 있다.
또한, 이하와 같은 구성도 본 개시의 기술적 범위에 포함된다.
(1) 정보 처리 장치로서, 제1 계층 데이터를 표시하도록 디스플레이를 제어하는 프로세서; 및 상기 정보 처리 장치의 움직임을 검출하는 검출부를 포함하고, 상기 프로세서가, 상기 검출부에 의해 검출된 움직임에 기초하여 상기 제1 계층 데이터와 함께 상기 제1 계층 데이터에 대응하는 제2 계층 데이터를 표시하도록 상기 디스플레이를 제어하는, 정보 처리 장치.
(2) (1)의 정보 처리 장치로서, 상기 검출부가, 상기 정보 처리 장치의 틸트 움직임을 검출하는 틸트 검출부(tilt detection unit)인, 정보 처리 장치.
(3) (1) 또는 (2)의 정보 처리 장치로서, 상기 디스플레이; 및 터치 입력을 검출하는 상기 디스플레이 위에 배치된 터치 센서를 더 포함하는, 정보 처리 장치.
(4) (1) 내지 (3) 중 어느 하나의 정보 처리 장치로서, 상기 제2 계층 데이터가, 상기 제1 계층 데이터에 대해 수행될 프로세스에 대응하는, 정보 처리 장치.
(5) (1) 내지 (4) 중 어느 하나의 정보 처리 장치로서, 상기 프로세서가, 상기 표시된 제2 계층 데이터에 대응하는 선택에 기초하여 상기 제1 계층 데이터에 대응하는 프로세스를 제어하는, 정보 처리 장치.
(6) (1) 내지 (5) 중 어느 하나의 정보 처리 장치로서, 상기 프로세서가, 상기 검출부에 의해 검출된 제1 방향으로의 상기 정보 처리 장치의 움직임에 기초하여 상기 제2 계층 데이터를 표시하도록 상기 디스플레이를 제어하는, 정보 처리 장치.
(7) (1) 내지 (6) 중 어느 하나의 정보 처리 장치로서, 상기 프로세서가, 상기 검출부에 의해 검출된 제1 방향으로의 상기 정보 처리 장치의 움직임에 기초하여 상기 제2 계층 데이터에 대응하는 복수의 그래픽 표식(indicia)을 표시하도록 상기 디스플레이를 제어하는, 정보 처리 장치.
(8) (7)의 정보 처리 장치로서, 상기 그래픽 표식 각각은 상기 복수의 그래픽 표식 각각의 선택에 기초하여 상기 제1 계층 데이터에 대해 수행될 프로세스에 대응하는, 정보 처리 장치.
(9) (8)의 정보 처리 장치로서, 상기 복수의 그래픽 표식 각각은 상기 제1 계층 데이터를 재생할 수 있는 디바이스에 대응하는, 정보 처리 장치.
(10) (9)의 정보 처리 장치로서, 상기 복수의 그래픽 표식 중 하나가 선택되면, 상기 프로세서가, 상기 복수의 그래픽 표식 중 상기 하나에 대응하는 상기 디바이스에, 상기 제1 계층 데이터를 재생하도록 지시하는, 정보 처리 장치.
(11) (7) 내지 (10) 중 어느 하나의 정보 처리 장치로서, 상기 프로세서가, 제2 방향으로의 상기 정보 처리 장치의 움직임에 기초하여 상기 제2 계층 데이터에 대응하는 상기 복수의 그래픽 표식을 스크롤하도록 상기 디스플레이를 제어하는, 정보 처리 장치.
(12) (6) 내지 (11) 중 어느 하나의 정보 처리 장치로서, 상기 프로세서가, 상기 검출부에 의해 검출된 제2 방향으로의 상기 정보 처리 장치의 움직임에 기초하여 제2 계층 데이터를 표시하도록 상기 디스플레이를 제어하는, 정보 처리 장치.
(13) (12)의 정보 처리 장치로서, 상기 프로세서가, 상기 검출부에 의해 검출된 상기 제2 방향으로의 상기 정보 처리 장치의 움직임에 기초하여 상기 제2 계층 데이터에 대응하는 그래픽 표식을 표시하도록 상기 디스플레이를 제어하는, 정보 처리 장치.
(14) (13)의 정보 처리 장치로서, 상기 그래픽 표식은 재생 리스트에 대응하는, 정보 처리 장치.
(15) (14)의 정보 처리 장치로서, 상기 그래픽 표식이 선택되면, 상기 프로세서가, 상기 제1 계층 데이터가 상기 재생 리스트에 추가되도록 제어하는, 정보 처리 장치.
(16) (1) 내지 (3) 중 어느 하나의 정보 처리 장치로서, 상기 프로세서가, 상기 터치 패널에서 상기 제1 계층 데이터를 선택하는 입력을 수신하면 상기 제2 계층 데이터에 대응하는 제1 그래픽 표식을 표시하도록 상기 디스플레이를 제어하는, 정보 처리 장치.
(17) (16)의 정보 처리 장치로서, 상기 프로세서는 상기 터치 패널에서 상기 제1 계층 데이터를 선택하는 상기 입력을 수신하면 상기 제2 계층 데이터에 대응하는 제2 그래픽 표식을 표시하도록 상기 디스플레이를 제어하는, 정보 처리 장치.
(18) 정보 처리 장치에 의해 수행되는 방법으로서, 상기 방법이, 상기 정보 처리 장치의 프로세서에 의해, 제1 계층 데이터를 표시하도록 디스플레이를 제어하는 단계; 상기 정보 처리 장치의 검출부에 의해, 상기 정보 처리 장치의 움직임을 검출하는 단계; 및 상기 프로세서에 의해, 검출된 움직임에 기초하여 상기 제1 계층 데이터와 함께 상기 제1 계층 데이터에 대응하는 제2 계층 데이터를 표시하도록 상기 디스플레이를 제어하는 단계를 포함하는, 방법.
(19) 정보 처리 장치에 의해 실행될 때, 상기 정보 처리 장치가 방법을 수행하게 하는, 컴퓨터 프로그램 명령을 포함하는 비일시적 컴퓨터 판독 가능 매체로서, 상기 방법이, 제1 계층 데이터를 표시하도록 디스플레이를 제어하는 단계; 상기 정보 처리 장치의 움직임을 검출하는 단계; 및 검출된 움직임에 기초하여 상기 제1 계층 데이터와 함께 상기 제1 계층 데이터에 대응하는 제2 계층 데이터를 표시하도록 상기 디스플레이를 제어하는 단계를 포함하는, 비일시적 컴퓨터 판독 가능 매체.
100: 정보 처리 장치
101: 틸트 검출부
103: 조작체 검출부
105: 제어부
107: 표시부
109: 통신부
111: 촬상부

Claims (19)

  1. 정보 처리 장치로서,
    제1 계층 데이터를 표시하도록 디스플레이를 제어하는 프로세서; 및
    상기 정보 처리 장치의 움직임을 검출하는 검출부
    를 포함하고,
    상기 프로세서는 상기 검출부에 의해 검출된 움직임에 기초하여 상기 제1 계층 데이터와 함께 상기 제1 계층 데이터에 대응하는 제2 계층 데이터를 표시하도록 상기 디스플레이를 제어하는, 정보 처리 장치.
  2. 제1항에 있어서,
    상기 검출부는 상기 정보 처리 장치의 틸트 움직임을 검출하는 틸트 검출부(tilt detection unit)인, 정보 처리 장치.
  3. 제1항에 있어서,
    디스플레이; 및
    터치 입력을 검출하는 상기 디스플레이 위에 배치된 터치 센서
    를 더 포함하는, 정보 처리 장치.
  4. 제1항에 있어서,
    상기 제2 계층 데이터는 상기 제1 계층 데이터에 대해 수행될 프로세스에 대응하는, 정보 처리 장치.
  5. 제1항에 있어서,
    상기 프로세서는 상기 표시된 제2 계층 데이터에 대응하는 선택에 기초하여 상기 제1 계층 데이터에 대응하는 프로세스를 제어하는, 정보 처리 장치.
  6. 제1항에 있어서,
    상기 프로세서는 상기 검출부에 의해 검출된 제1 방향으로의 상기 정보 처리 장치의 움직임에 기초하여 상기 제2 계층 데이터를 표시하도록 상기 디스플레이를 제어하는, 정보 처리 장치.
  7. 제1항에 있어서,
    상기 프로세서는 상기 검출부에 의해 검출된 제1 방향으로의 상기 정보 처리 장치의 움직임에 기초하여 상기 제2 계층 데이터에 대응하는 복수의 그래픽 표식(indicia)을 표시하도록 상기 디스플레이를 제어하는, 정보 처리 장치.
  8. 제7항에 있어서,
    상기 그래픽 표식 각각은 상기 복수의 그래픽 표식 각각의 선택에 기초하여 상기 제1 계층 데이터에 대해 수행될 프로세스에 대응하는, 정보 처리 장치.
  9. 제8항에 있어서,
    상기 복수의 그래픽 표식 각각은 상기 제1 계층 데이터를 재생할 수 있는 디바이스에 대응하는, 정보 처리 장치.
  10. 제9항에 있어서,
    상기 복수의 그래픽 표식 중 하나가 선택되면, 상기 프로세서는 상기 복수의 그래픽 표식 중 상기 하나에 대응하는 상기 디바이스에, 상기 제1 계층 데이터를 재생하도록 지시하는, 정보 처리 장치.
  11. 제7항에 있어서,
    상기 프로세서는 제2 방향으로의 상기 정보 처리 장치의 움직임에 기초하여 상기 제2 계층 데이터에 대응하는 상기 복수의 그래픽 표식을 스크롤하도록 상기 디스플레이를 제어하는, 정보 처리 장치.
  12. 제6항에 있어서,
    상기 프로세서는 상기 검출부에 의해 검출된 제2 방향으로의 상기 정보 처리 장치의 움직임에 기초하여 제2 계층 데이터를 표시하도록 상기 디스플레이를 제어하는, 정보 처리 장치.
  13. 제12항에 있어서,
    상기 프로세서는 상기 검출부에 의해 검출된 상기 제2 방향으로의 상기 정보 처리 장치의 움직임에 기초하여 상기 제2 계층 데이터에 대응하는 그래픽 표식을 표시하도록 상기 디스플레이를 제어하는, 정보 처리 장치.
  14. 제13항에 있어서,
    상기 그래픽 표식은 재생 리스트에 대응하는, 정보 처리 장치.
  15. 제14항에 있어서,
    상기 그래픽 표식이 선택되면, 상기 프로세서는 상기 제1 계층 데이터가 상기 재생 리스트에 추가되도록 제어하는, 정보 처리 장치.
  16. 제3항에 있어서,
    상기 프로세서는 터치 패널에서 상기 제1 계층 데이터를 선택하는 입력을 수신하면 상기 제2 계층 데이터에 대응하는 제1 그래픽 표식을 표시하도록 상기 디스플레이를 제어하는, 정보 처리 장치.
  17. 제16항에 있어서,
    상기 프로세서는 상기 터치 패널에서 상기 제1 계층 데이터를 선택하는 상기 입력을 수신하면 상기 제2 계층 데이터에 대응하는 제2 그래픽 표식을 표시하도록 상기 디스플레이를 제어하는, 정보 처리 장치.
  18. 정보 처리 장치에 의해 수행되는 방법으로서,
    상기 방법은,
    상기 정보 처리 장치의 프로세서에 의해, 제1 계층 데이터를 표시하도록 디스플레이를 제어하는 단계;
    상기 정보 처리 장치의 검출부에 의해, 상기 정보 처리 장치의 움직임을 검출하는 단계; 및
    상기 프로세서에 의해, 검출된 움직임에 기초하여 상기 제1 계층 데이터와 함께 상기 제1 계층 데이터에 대응하는 제2 계층 데이터를 표시하도록 상기 디스플레이를 제어하는 단계를 포함하는, 방법.
  19. 정보 처리 장치에 의해 실행될 때, 상기 정보 처리 장치가 방법을 수행하게 하는, 컴퓨터 프로그램 명령을 포함하는 비일시적 컴퓨터 판독 가능 매체로서,
    상기 방법이,
    제1 계층 데이터를 표시하도록 디스플레이를 제어하는 단계;
    상기 정보 처리 장치의 움직임을 검출하는 단계; 및
    검출된 움직임에 기초하여 상기 제1 계층 데이터와 함께 상기 제1 계층 데이터에 대응하는 제2 계층 데이터를 표시하도록 상기 디스플레이를 제어하는 단계
    를 포함하는, 비일시적 컴퓨터 판독 가능 매체.
KR1020147000456A 2011-07-21 2012-07-05 정보 처리 장치, 정보 처리 방법 및 프로그램 KR20140048933A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011159815A JP2013025567A (ja) 2011-07-21 2011-07-21 情報処理装置、情報処理方法、及びプログラム
JPJP-P-2011-159815 2011-07-21
PCT/JP2012/004365 WO2013011648A1 (en) 2011-07-21 2012-07-05 Information processing apparatus, information processing method, and program

Publications (1)

Publication Number Publication Date
KR20140048933A true KR20140048933A (ko) 2014-04-24

Family

ID=47557851

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020147000456A KR20140048933A (ko) 2011-07-21 2012-07-05 정보 처리 장치, 정보 처리 방법 및 프로그램

Country Status (7)

Country Link
US (3) US9489070B2 (ko)
EP (1) EP2734916B1 (ko)
JP (1) JP2013025567A (ko)
KR (1) KR20140048933A (ko)
CN (2) CN203117955U (ko)
RU (1) RU2014100954A (ko)
WO (1) WO2013011648A1 (ko)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120256959A1 (en) * 2009-12-30 2012-10-11 Cywee Group Limited Method of controlling mobile device with touch-sensitive display and motion sensor, and mobile device
JP2013025567A (ja) * 2011-07-21 2013-02-04 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP5927872B2 (ja) 2011-12-01 2016-06-01 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
TWI540492B (zh) * 2012-12-20 2016-07-01 晨星半導體股份有限公司 電子裝置以及電子裝置控制方法
JP6152730B2 (ja) * 2013-07-18 2017-06-28 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
CN104615344A (zh) * 2013-11-04 2015-05-13 英业达科技有限公司 解锁系统及其方法
JP6024725B2 (ja) 2014-01-17 2016-11-16 カシオ計算機株式会社 システム
US20150253946A1 (en) * 2014-03-10 2015-09-10 Verizon Patent And Licensing Inc. Method and apparatus for transferring files based on user interaction
CN104183004A (zh) * 2014-08-12 2014-12-03 小米科技有限责任公司 天气显示方法及装置
CN105807909A (zh) * 2014-12-31 2016-07-27 联想(北京)有限公司 一种屏幕亮度调节方法及电子设备
JP7110984B2 (ja) * 2017-08-01 2022-08-02 オムロン株式会社 センサ管理ユニット、センサ装置、センシングデータ提供方法、およびセンシングデータ提供プログラム
WO2020018592A1 (en) 2018-07-17 2020-01-23 Methodical Mind, Llc. Graphical user interface system
WO2022008070A1 (en) * 2020-07-10 2022-01-13 Telefonaktiebolaget Lm Ericsson (Publ) Method and device for obtaining user input
KR20220083395A (ko) 2020-12-11 2022-06-20 엘지디스플레이 주식회사 전계 발광 표시장치와 그 구동방법

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1119051C (zh) 1999-11-03 2003-08-20 摩托罗拉公司 用于在便携式电子设备上选择用户界面选项的装置和方法
JP4635342B2 (ja) * 2001-01-10 2011-02-23 ソニー株式会社 情報処理端末および方法
US6798429B2 (en) * 2001-03-29 2004-09-28 Intel Corporation Intuitive mobile device interface to virtual spaces
JP2005221816A (ja) 2004-02-06 2005-08-18 Sharp Corp 電子装置
US7301529B2 (en) 2004-03-23 2007-11-27 Fujitsu Limited Context dependent gesture response
JP4553838B2 (ja) 2005-12-28 2010-09-29 富士通株式会社 通信方法、通信システム、中継装置及び通信装置
JP2008045914A (ja) * 2006-08-11 2008-02-28 Xanavi Informatics Corp ナビゲーション装置
JP5007619B2 (ja) * 2007-07-19 2012-08-22 株式会社ニコン 電子カメラ
US8078230B2 (en) * 2008-06-27 2011-12-13 Motorola Mobility, Inc. Method and apparatus for providing a prioritized list of display devices for display of a media file
US8340726B1 (en) * 2008-06-30 2012-12-25 Iwao Fujisaki Communication device
KR101524616B1 (ko) 2008-07-07 2015-06-02 엘지전자 주식회사 자이로센서를 구비한 휴대 단말기 및 그 제어방법
US9571625B2 (en) * 2009-08-11 2017-02-14 Lg Electronics Inc. Electronic device and control method thereof
CN101997961A (zh) * 2009-08-12 2011-03-30 深圳市联创金格尔通讯设备有限公司 基于加速度传感器的移动电话荧屏界面控制方法和装置
JP5446624B2 (ja) * 2009-09-07 2014-03-19 ソニー株式会社 情報表示装置、情報表示方法及びプログラム
JP2011059820A (ja) 2009-09-07 2011-03-24 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP5402495B2 (ja) * 2009-10-09 2014-01-29 日本電気株式会社 携帯端末
JP5448073B2 (ja) 2010-01-12 2014-03-19 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システム、および、選択対象の選択方法
CN101873525A (zh) * 2010-06-21 2010-10-27 中兴通讯股份有限公司 移动终端中联系人信息储存的方法及装置
US8972879B2 (en) * 2010-07-30 2015-03-03 Apple Inc. Device, method, and graphical user interface for reordering the front-to-back positions of objects
US9483085B2 (en) * 2011-06-01 2016-11-01 Blackberry Limited Portable electronic device including touch-sensitive display and method of controlling same
JP2013025567A (ja) * 2011-07-21 2013-02-04 Sony Corp 情報処理装置、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
US20140168129A1 (en) 2014-06-19
EP2734916B1 (en) 2020-09-02
JP2013025567A (ja) 2013-02-04
US20160370884A1 (en) 2016-12-22
US10416785B2 (en) 2019-09-17
US20190361541A1 (en) 2019-11-28
EP2734916A1 (en) 2014-05-28
CN203117955U (zh) 2013-08-07
US10915188B2 (en) 2021-02-09
EP2734916A4 (en) 2015-03-18
CN103092470A (zh) 2013-05-08
WO2013011648A1 (en) 2013-01-24
US9489070B2 (en) 2016-11-08
CN103092470B (zh) 2017-09-12
RU2014100954A (ru) 2015-07-20

Similar Documents

Publication Publication Date Title
US10915188B2 (en) Information processing apparatus, information processing method, and program
JP5802667B2 (ja) ジェスチャ入力装置およびジェスチャ入力方法
EP2353065B1 (en) Controlling and accessing content using motion processing on mobile devices
JP5205557B2 (ja) 端末の角度に応じて互いに異なる映像情報を提供するための方法、端末およびコンピュータ読取可能な記録媒体
US8988342B2 (en) Display apparatus, remote controlling apparatus and control method thereof
US20090262074A1 (en) Controlling and accessing content using motion processing on mobile devices
US10140002B2 (en) Information processing apparatus, information processing method, and program
KR20110066969A (ko) 움직임 센서들을 사용하는 가상 버튼들의 생성
EP2813935A1 (en) Information processing device, information processing method, and program
KR20110091571A (ko) 관성 센서로부터의 사용자 입력을 결정하는 방법 및 장치
JP2013506218A (ja) 端末の動きまたは姿勢に基づいてビジュアルサーチを行うための方法、端末およびコンピュータ読取可能な記録媒体
JP2014109866A (ja) 機器操作装置及びプログラム
JP2009187353A (ja) 入力装置
JP2016143254A (ja) 電子機器、表示制御方法及びプログラム

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid