WO2012147520A1 - 表示制御装置、表示制御方法、およびプログラム - Google Patents

表示制御装置、表示制御方法、およびプログラム Download PDF

Info

Publication number
WO2012147520A1
WO2012147520A1 PCT/JP2012/059960 JP2012059960W WO2012147520A1 WO 2012147520 A1 WO2012147520 A1 WO 2012147520A1 JP 2012059960 W JP2012059960 W JP 2012059960W WO 2012147520 A1 WO2012147520 A1 WO 2012147520A1
Authority
WO
WIPO (PCT)
Prior art keywords
gesture operation
screen
remote control
display
guide
Prior art date
Application number
PCT/JP2012/059960
Other languages
English (en)
French (fr)
Inventor
公一 赤坂
河村 大輔
宏充 岡
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US14/112,398 priority Critical patent/US9524095B2/en
Priority to EP12777557.5A priority patent/EP2703972A1/en
Priority to CN201280019275.9A priority patent/CN103493001A/zh
Publication of WO2012147520A1 publication Critical patent/WO2012147520A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C17/00Arrangements for transmitting signals characterised by the use of a wireless electrical link
    • G08C17/02Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/90Additional features
    • G08C2201/93Remote control using other portable devices, e.g. mobile phone, PDA, laptop

Definitions

  • the present technology relates to a display control device, a display control method, and a program, and more particularly, to a display control device, a display control method, and a program that make it easy to understand an input gesture operation.
  • a remote controller that remotely controls devices such as a television receiver and a recording / playback device is generally provided with a channel number and a volume adjustment button, and transmits a control signal corresponding to the operated button.
  • a touch panel is arranged with the upper surface of the remote controller as a plane, and a user performs a gesture operation on the touch panel, and transmits a control signal corresponding to the detected gesture operation (for example, Patent Document 1). reference).
  • JP 2010-193107 A (paragraph 0040, FIGS. 2 to 5)
  • This technology has been made in view of such a situation, and makes it easy to understand gesture operations that can be input.
  • a display control device includes a display control unit that displays a gesture operation guide on a display unit in a first state, and a detection unit that detects the gesture operation. When a gesture operation is detected, the guide corresponding to the detected gesture operation is changed to the second state and displayed on the display unit.
  • the display control method displays a gesture operation guide on the display unit in the first state, detects the gesture operation, and sets the guide corresponding to the detected gesture operation to the second state. A step of changing and displaying on the display unit.
  • a program causes a computer to display a gesture operation guide on a display unit in a first state, detect the gesture operation, and display the guide corresponding to the detected gesture operation in a second state. It is for performing the process including the step changed to and displaying on the said display part.
  • a gesture operation guide is displayed on the display unit in the first state, the gesture operation is detected, and the guide corresponding to the detected gesture operation is changed to the second state to display the display unit. Is displayed.
  • program can be provided by being transmitted through a transmission medium or by being recorded on a recording medium.
  • the display control device may be an independent device, or may be an internal block constituting one device.
  • FIG. 1 is a top view illustrating an external configuration example of an embodiment of a tablet terminal to which a display control device of the present technology is applied.
  • the tablet terminal 1 in FIG. 1 is a thin plate information processing terminal, and a touch screen 11 is provided on a substantially rectangular surface that is an upper surface when placed on a table or the like.
  • Various images are displayed on the touch screen 11. Further, the user can give various (operation) inputs by bringing a finger or the like close to or touching (touching) the touch screen 11.
  • the tablet terminal 1 is installed with an application (hereinafter referred to as a “remote control application”) that can freely register a device used by a user and perform device control using an IR signal.
  • devices registered as control targets include, for example, a television receiver, a DVD (Digital Versatile Disc) player, a recording / playback device such as a BD (Blu-ray Disc (registered trademark)) recorder, an STB (Set Top Box) ), Amplifier, etc.
  • At least an icon image 21 of the remote control application is displayed on the touch screen 11, and the user can start the remote control application by tapping the icon image 21 of the remote control application.
  • FIG. 1 is a top view of the tablet terminal 1 as viewed from above, a portion where the IR communication unit 12 is provided is indicated by a broken line.
  • the user installs the tablet terminal 1 so that the IR communication unit 12 faces the device to be controlled. Therefore, in the example of FIG. 1, the device to be controlled is in the upper direction in the figure, and the user is located in the lower side in the figure.
  • a remote control application when executed, a gesture operation performed by the user on the touch screen 11 is detected, and an IR signal corresponding to the gesture operation is registered as a predetermined predetermined value. Can be transmitted to other devices and device control can be performed.
  • FIG. 2 is a block diagram illustrating a hardware configuration example of the tablet terminal 1.
  • the tablet terminal 1 includes a CPU (Central Processing Unit) 41, a ROM (Read Only Memory) 42, and a RAM (Random Access Memory) 43 having a flash memory 44 and an input / output interface 45. Connected and can exchange data as needed.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the touch screen 11, the IR communication unit 12, the output unit 47, the input unit 48, the communication unit 49, and the drive 50 are connected to the input / output interface 45.
  • the touch screen 11 includes a display unit 61A and a position detection unit 61B. As described with reference to FIG. 1, various displays and operation input by bringing a finger or the like in proximity or touching (touching) are possible. It has become.
  • the display unit 61A is configured by a device (display device) such as a liquid crystal panel that displays an image, and displays an image according to data supplied via the input / output interface 45.
  • a device display device
  • a liquid crystal panel that displays an image, and displays an image according to data supplied via the input / output interface 45.
  • the position detection unit 61B is an external input (proximity / contact) such as a set of an electrostatic touch panel, a light source that emits light, and a sensor that receives reflected light from the object. ) Is configured by a device having a function of receiving (detecting).
  • the position detection unit 61B represents a position where an external object, that is, for example, a user's finger or a touch pen handled by the user approaches or comes into contact (touch), or the contact is made. A position signal is output (to the input / output interface 45).
  • the position detection unit 61B functions as a detection unit that detects a gesture operation performed by the user on the touch screen 11.
  • the display unit 61A and the position detection unit 61B as described above are integrated, and an image is displayed on the display unit 61A, and an image displayed on the display unit 61A is displayed on the position detection unit 61B.
  • External operation inputs touch and proximity
  • the position signal output from the position detection unit 61B is supplied to the CPU 41 via the input / output interface 45, and the CPU 41 recognizes what operation input has been made based on the position signal from the position detection unit 61B. Various processes are performed according to the operation input.
  • the user operation that can be detected by the position detection unit 61B includes, for example, a tap operation that is an operation of touching with a finger for a predetermined time and releasing it from the screen, a double tap operation that is an operation of touching with a finger twice for a short predetermined time, There are a flick operation that is an operation of paying in a predetermined direction with a finger, a drag operation that moves in a predetermined direction while keeping the finger in contact, and the like.
  • the IR communication unit 12 transmits an IR signal corresponding to the device control command in accordance with the control of the CPU 41.
  • the IR communication unit 12 receives an IR signal input from the outside, and supplies a control command for the received IR signal to the CPU 41 via the input / output interface 45.
  • the CPU 41 performs various processes by executing a program stored in the ROM 42 or a program read from the flash memory 44 or the like and stored (expanded) in the RAM 43.
  • One of the programs executed by the CPU 41 is a remote control application.
  • the ROM 42 is, for example, an EEPROM (Electrically Erasable Programmable ROM) or the like, and stores data and programs that need to be retained even when the tablet terminal 1 is turned off.
  • EEPROM Electrically Erasable Programmable ROM
  • the RAM 43 stores programs and data necessary for the operation of the CPU 41.
  • a program such as a remote control application executed by the CPU 41 and other data (including a program) are recorded.
  • the output unit 47 is, for example, a speaker or an earphone terminal and outputs sound.
  • the input unit 48 for example, a microphone, a microphone terminal, a voice recognition device, and the like, and accepts external voice (data) input.
  • the communication unit 49 is, for example, a communication interface such as a LAN (Local Area Network), and controls wireless or wired communication with an external device.
  • a communication interface such as a LAN (Local Area Network)
  • LAN Local Area Network
  • an optical disc such as a DVD (Digital Versatile Disc) or a removable recording medium 51 which is a semiconductor memory such as a USB memory can be attached and detached.
  • DVD Digital Versatile Disc
  • a removable recording medium 51 which is a semiconductor memory such as a USB memory
  • the drive 50 drives the removable recording medium 51 attached thereto, thereby recording data on the removable recording medium 51 and reading data from the removable recording medium 51.
  • step S1 the remote control app determines whether at least one device is registered as a control target. If the remote control application has never been activated, no device to be controlled is registered.
  • step S1 If it is determined in step S1 that one device is not registered, the process proceeds to step S2, and the remote control application executes device registration processing for registering a device to be controlled. Details of this processing will be described later with reference to FIG.
  • step S1 determines whether at least one device is registered as a control target. If it is determined in step S1 that at least one device is registered as a control target, the process proceeds to step S3, and the remote control app displays a list of devices that are registered as control target devices. The screen is displayed on the display unit 61A.
  • FIG. 4 shows a screen example of the device list screen displayed on the display unit 61A.
  • a power button 81 On the device list screen, a power button 81, a device image icon 82, and a device name 83 are displayed for each registered device to be controlled, along with the title of the application “remote control application”.
  • an amplifier In the example of FIG. 4, an amplifier, a television receiver (hereinafter simply referred to as a television), a BD player, and an STB are registered as devices to be controlled.
  • a television hereinafter simply referred to as a television
  • BD player a BD player
  • STB STB
  • FIG. 4 only the power button 81, the device image icon 82, and the device name 83 for the leftmost amplifier are denoted, and the symbols for the other devices are omitted.
  • the user when the user wants to operate the television, the user touches the device image icon 82 of the television.
  • the user touches the television power button 81. That is, the power button 81 is operated (touched) when the registered device is turned on or off.
  • the device image icon 82 is operated when it is desired to control a registered device.
  • the power button 81 or the device name 83 can be displayed for a predetermined number of devices (four in the example of FIG. 4) on one screen. If the number of registered devices exceeds the number that can be displayed on one screen, a page switching icon 84 is displayed, and the page switching icon 84 is touched, or By dragging in the left direction, the power button 81 or the device name 83 of the non-displayed device can be displayed.
  • a device addition button 85 and a menu button 86 that are operated when a new device is registered are also displayed.
  • the device addition button 85 When the user operates (selects) the device addition button 85, the device registration process in step S2 is executed, so that the device can be added later.
  • the menu button 86 operations such as rearrangement of the arrangement of registered devices and termination of the remote control application can be performed.
  • step S4 the remote control app performs a process corresponding to the user operation performed on the device list screen.
  • a user operation handling process is executed.
  • step S4 The user operation handling process in step S4 is executed. Finally, the menu button 86 is selected, and [Exit remote control application] is selected from the displayed items, whereby the process of FIG. 3 ends. .
  • FIG. 5 is a flowchart of the device registration process executed as step S2 of FIG. As described above, this processing is also executed when the device addition button 85 is operated (selected) by the user on the device list screen.
  • step S ⁇ b> 11 the remote control application determines whether the device is registered in the database (DB) stored in the flash memory 44.
  • the flash memory 44 supports, for a plurality of devices that are expected to be registered, the operation buttons provided by the manufacturer's genuine remote controller and the IR signal (remote control code) that is sent when the operation buttons are operated.
  • the attached database is stored. Therefore, if the device is in the database, the user can easily register the device.
  • Whether or not the device is registered in the database is determined based on the user's operation received by the remote control application displaying the first device registration screen shown in FIG. 6 on the display unit 61A.
  • step S11 when “Easy device registration” is selected by the user on the first device registration screen in FIG. 6, the remote control application determines in step S11 that the device is registered in the database. On the other hand, when “Learning using remote control” is selected by the user on the first device registration screen, the remote control app determines in step S11 that the device is not registered in the database.
  • step S11 If it is determined in step S11 that the device is not registered in the database, the process proceeds to step S12 to execute a device registration process without a database.
  • a manufacturer's genuine remote controller to be registered is placed at a position facing the IR communication unit 12 of the tablet terminal 1. Then, after specifying the operation button to be registered on the screen of the remote control application, the user presses the operation button to be registered of the genuine manufacturer's remote controller arranged opposite to the operation button.
  • the IR communication unit 12 receives the IR signal transmitted from the manufacturer's genuine remote controller, and the remote control application stores (learns) the IR signal received by the IR communication unit 12 as the IR signal of the designated operation button. .
  • the above processing is repeatedly executed for the operation button to be registered.
  • step S11 determines whether the device is registered in the database. If it is determined in step S11 that the device is registered in the database, the process proceeds to step S13, and the remote control app causes the user to select the device type and manufacturer.
  • FIG. 7 shows a screen example of a second device registration screen displayed on the display unit 61A by the remote control application in the process of step S13.
  • the second device registration screen is provided with a pull-down menu 91 for presenting the type of device to be registered and a pull-down menu 92 for presenting the manufacturer. From the plurality of items displayed in the pull-down menu 91 or 92, a desired device type and manufacturer are designated.
  • the types of equipment that can be specified include a television (TV), an amplifier, a DVD player, a BD player, and a BD recorder.
  • step S14 the remote control application determines whether there are a plurality of remote control types.
  • the IR signal to be transmitted differs depending on the remote control type, and therefore it is necessary to identify which remote control type.
  • step S14 If it is determined in step S14 that there are a plurality of remote control types, the process proceeds to step S15, and the remote control application displays an operation test screen and sequentially performs operation tests of possible remote control types.
  • the remote control application displays an operation test screen and sequentially performs operation tests of possible remote control types.
  • the user can operate the specified operation button, and the user can input the result of whether the operated operation has been performed on the controlled device, thereby confirming the remote control type that corresponds to the genuine remote controller. Is done.
  • step S14 If it is determined in step S14 that there is only one remote control type, the process in step S15 is skipped, and the process proceeds to step S16. Even after the process of step S12 or S15, the process of step S16 is executed.
  • step S16 the remote control app causes the user to select the type of gesture operation.
  • FIG. 8 shows a screen example of a third device registration screen displayed on the display unit 61A by the remote control application in step S16.
  • the third device registration screen is a screen that allows the user to select the type of gesture operation.
  • the third device registration screen is provided with a pull-down menu 101 for selecting the type of gesture operation. Also, below the pull-down menu 101, an explanation image 102 of a gesture operation guide displayed corresponding to the type of gesture operation selected from the pull-down menu 101 is displayed.
  • a plurality of types of gesture operations that can be selected from the pull-down menu 101 are prepared according to the type of device.
  • three types of type 1, type 2, and type 3 are prepared.
  • Type 1 is a type that can control only the sound volume by a gesture operation, and a typical control target device corresponding to type 1 is an amplifier.
  • Type 2 is a type in which volume and channel can be controlled by a gesture operation, and a typical control target device corresponding to type 2 is a television.
  • Type 3 is a type that can control volume and running system (playback, fast forward, fast reverse, etc.) by gesture operation, and typical control target devices corresponding to type 3 are BD players, BD recorders, etc. It is a recording / playback device.
  • the type 2 gesture operation is selected from the pull-down menu 101, and the type 2 guide is also displayed on the explanation image 102 of the gesture operation guide.
  • step S17 the remote control application displays the fourth device registration screen shown in FIG. 9 on the display unit 61A in order to confirm the registration contents. . Then, when the registration button 111 on the fourth device registration screen in FIG. 9 is operated, the remote control application registers the device with the set contents and ends the process.
  • the remote control operation test button 112 is a button operated when performing an operation test with registered contents.
  • a default icon corresponding to the type of the designated device is set.
  • the icon set here is displayed as a device image icon 82 on the device list screen.
  • the icon change button 114 is touched.
  • the icon change button 114 is touched, a plurality of icons prepared in advance are presented, and the user can change to a favorite icon by selecting a predetermined icon.
  • the device to be controlled is registered in the remote control app.
  • the setting contents for each registered device are stored in the flash memory 44.
  • the remote control app displays either the gesture screen or the full remote control screen of the control target device on the display unit 61A.
  • FIG. 10 shows a gesture screen when the control target device is a television
  • FIG. 11 shows an example of a full remote control screen when the control target device is a television.
  • gesture screen and full remote control screen can be selectively displayed for each control target device.
  • the gesture screen is a screen that allows you to perform frequently used operations (device control) with simple gesture operations depending on the type of device.
  • the full remote control screen displays all the operation buttons on the device. This is a screen that can be operated.
  • Which of the gesture screen and the full remote control screen is preferentially displayed first can be determined in advance.
  • the gesture screen is displayed.
  • the gesture screen of FIG. 10 and the full remote control screen of FIG. 11 include a TV power button 81 or device name 83, device switching buttons 121A and 121B, a device list button 122, a gesture screen switching button 123, and a full remote control screen switching button. 124 is provided in common.
  • the control target When the right device switching button 121A is selected, the control target is switched to the BD player arranged on the right side of the television in the device list screen of FIG. 4, and the BD player gesture screen of FIG. Is displayed.
  • the device switching button 121B in the left direction when the device switching button 121B in the left direction is selected, the control target is switched to the amplifier arranged on the left side of the television in the device list screen of FIG. 4, and the amplifier gesture screen of FIG. Is displayed.
  • the device list button 122 is operated when returning to the device list screen of FIG.
  • the gesture screen switching button 123 is operated when switching the display to the gesture screen
  • the full remote control screen switching button 124 is operated when switching the display to the full remote control screen.
  • the full remote control screen switching button 124 is shaded
  • the gesture screen switching button 123 is shaded.
  • a gesture operation guide 131 is displayed on the gesture screen and an operation key screen 141 is displayed on the full remote control screen.
  • the gesture operation guide 131 shown in FIG. 10 is a type 2 guide 131 set in the pull-down menu 101 of the third device registration screen in FIG.
  • Type 2 guide 131 has a command to increase the volume for the upward slide operation [Vol +], a slide operation for the downward direction, and a command for lowering the volume [Vol-] to the slide operation to the right plus the channel.
  • the command [Ch +] for changing the direction schematically shows that the command [Ch-] for changing the channel to the minus direction is assigned to the leftward sliding operation.
  • the slide operation includes both a flick operation and a drag operation
  • the remote control app outputs different commands (IR signals) according to the flick operation and the drag operation.
  • the remote control app determines that a flick operation has been performed when a slide operation is detected when the contact time of the user's finger is less than a certain time (for example, 0.7 seconds).
  • a certain time for example, 0.7 seconds
  • the remote control app determines that a drag operation has been performed.
  • the remote control application transmits the assigned command [Vol +], [Vol-], [Ch +], or [Ch-] once.
  • the remote control application displays the assigned command [Vol +], [Vol-], [Ch +], or [Ch-] by the user's finger on the touch screen. 11 is continuously transmitted until it is detected that it is away from 11.
  • the remote control application causes the output unit 47 to output different operation sounds (melody) depending on whether transmission is performed once or continuous transmission, and notifies the user that the command has been transmitted.
  • the operation sound is output at the timing of transmitting the command, and when the transmission is performed continuously, the operation sound is output at the timing of starting the continuous transmission.
  • the operation key screen 141 of the full remote control screen in FIG. 11 is provided with the same operation keys as the operation buttons generally provided in the remote controller.
  • the remote control application can determine that there is no assignment by, for example, not displaying or graying out an operation key that is not assigned an IR signal. If there are many types of operation keys and they cannot be displayed on one screen, the non-display operation keys can be displayed with the page switching button 142.
  • the control target is switched to the amplifier arranged on the left side of the television in the device list screen in FIG.
  • the amplifier gesture screen is displayed.
  • the guide 131 of the amplifier gesture screen shown in FIG. 12 is a type 1 guide.
  • the type 1 guide 131 schematically shows that the command [Vol +] for raising the volume is assigned to the upward sliding operation, and the command [Vol-] for lowering the volume is assigned to the downward sliding operation. ing. There are no commands assigned to right and left slide operations.
  • the difference in command output between flick operation and drag operation (single transmission or continuous transmission) and the difference in operation sound between single transmission and continuous transmission are the same as in type 2 described above. Omitted.
  • the control target is switched to the BD player arranged on the right side of the television on the device list screen of FIG.
  • the BD player gesture screen shown in FIG. 13 is displayed.
  • the guide 131 on the gesture screen of the BD player shown in FIG. 13 is a type 3 guide.
  • the type 3 guide 131 schematically shows that the command [Vol +] for raising the volume is assigned to the upward sliding operation, and the command [Vol-] for lowering the volume is assigned to the downward sliding operation. ing.
  • the commands [Vol +] and [Vol-] are the same as type 2 described above, and thus the description thereof is omitted.
  • a command [Next] for advancing to the right of the next title / chapter / track is assigned to the flick operation in the right direction, and a fast-forward command [FF] is assigned to the drag operation in the right direction. This is also shown schematically.
  • the type 3 guide 131 assigns a command [Prev] to advance to the beginning of the previous title / chapter / track to the flick operation in the left direction, and a fast reverse command [FR] to the drag operation in the left direction. This is schematically shown.
  • the right or left flick operation is a single transmission of the command [Next] or [Prev]
  • the right or left drag operation is a continuous transmission of the command [FF] or [FR].
  • the difference in operation sound between single transmission and continuous transmission is the same as in Type 2 described above.
  • Type 3 a playback command [Play] is assigned to the tap operation, and a pause command [Pause] is assigned to the double tap operation.
  • FIG. 14 shows a display example when the user performs a right flick operation, which is one of gesture operations, on the touch screen 11.
  • the remote control application detects a gesture operation (flick operation) performed by the user, and displays a locus 151 of the detected finger position on the display unit 61A. Note that the user does not need to perform a gesture operation directly above the guide 131, and the remote control app can detect any position on the touch screen 11 where the gesture operation is performed. For example, it is possible to detect even when the flick operation in the right direction is performed in an area below the character [Vol +].
  • the remote control application blinks and displays the portion (Ch +) of the command to be transmitted in the gesture operation guide 131 so that the user can know the command transmitted to the device in response to the detected gesture operation.
  • the remote control application causes a command (IR signal) corresponding to the detected gesture operation to be transmitted from the IR communication unit 12 and displays a communication lamp 152 indicating that the command is transmitted for a predetermined time. Since the communication lamp 152 is displayed (lighted) only for the user to know that the command has been transmitted, the actual command transmission period corresponds to the display period of the communication lamp 152. You don't have to.
  • the remote control application detects a drag operation, after displaying the locus 151 of the detected finger position, for example, a ripple centered on the position of the finger touched continuously is displayed. Display indicating that the finger is being detected.
  • FIG. 15 shows a display example when the user performs an operation of flicking in the right direction when the command for changing the channel in the plus direction is not assigned to the remote control application.
  • the remote control app detects a gesture operation (flick operation) performed by the user and displays a message 161 indicating that no command is assigned to the detected gesture operation.
  • Display toast is a display method in which display is performed after a predetermined period of time is displayed.
  • the remote control app blinks the recognized command portion (Ch +) in the gesture operation guide 131 so that the user can know which command is recognized even if the command is not assigned. Let Since the command is not transmitted, the communication lamp 152 in FIG. 13 is not turned on.
  • FIG. 16 is a flowchart of the gesture operation handling process executed by the remote control application as part of the user operation handling process of FIG.
  • step S31 the remote control app determines whether a gesture operation has been detected, and repeats the processing in step S31 until it is determined that a gesture operation has been detected.
  • step S31 If it is determined in step S31 that the gesture operation has been detected, the process proceeds to step S32, and the remote control application displays the detected gesture operation (finger position) locus 151 on the display unit 61A.
  • step S33 the remote control app determines whether a command is assigned to the detected gesture operation.
  • step S33 If it is determined in step S33 that a command is assigned to the detected gesture operation, the process proceeds to step S34, and the remote control app includes a portion corresponding to the command to be transmitted in the gesture operation guide 131 (FIG. 13). In the example, Ch +) blinks.
  • step S35 the remote control application transmits a command (IR signal) assigned to the detected gesture operation from the IR communication unit 12 to the device to be controlled.
  • a command IR signal assigned to the detected gesture operation from the IR communication unit 12 to the device to be controlled.
  • step S36 the remote control application displays a communication lamp 152 indicating that a command is being transmitted for a predetermined time.
  • Steps S34 to S36 are actually executed simultaneously. After step S36, the process returns to step S31.
  • step S33 determines whether command is assigned to the detected gesture operation. If it is determined in step S33 that no command is assigned to the detected gesture operation, the process proceeds to step S37, and only the same process as step S34 described above is executed. That is, the remote control application blinks and displays a portion (Ch + in the example of FIG. 13) corresponding to the command to be transmitted in the gesture operation guide 131. Then, the process returns to step S31.
  • the remote control application displays the gesture operation guide 131 on the display unit 61A in the first state, and when a predetermined gesture operation is detected, transmission of the guide 131 corresponding to the detected gesture operation is transmitted.
  • the part corresponding to the command to be changed is displayed in the second state.
  • the first state is the lighting state and the second state corresponds to the blinking state, but the first state and the second state are not limited to this.
  • the first state may be a gesture operation guide 131 with a low lightness (that is, darkness)
  • the second state may be a guide operation 131 with a high lightness (that is, light) gesture operation.
  • the second state of the gesture operation guide 131 may be reverse display with respect to the first state.
  • the steps described in the flowcharts are performed not only in a time-series manner but also in a time-series manner according to the described order, or in parallel or when a call is made. It may be executed at a necessary timing.
  • Embodiments of the present technology are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present technology.
  • the display unit 61A that displays the device list screen and the position detection unit 61B that detects the gesture operation are superimposed to form the integrated touch screen 11, but the display unit 61A
  • the position detection unit 61B may have a different configuration.
  • the touch pad as the position detection unit 61B and the display unit 61A may be provided in different areas on the same plane or may be separate casings.
  • this technique can also take the following structures.
  • a display control unit for displaying a gesture operation guide on the display unit in the first state;
  • a detection unit for detecting the gesture operation, When the gesture operation is detected, the display control unit changes the guide corresponding to the detected gesture operation to the second state and causes the display unit to display the display control device.
  • the gesture operation corresponds to a command for controlling a predetermined device,
  • the display control apparatus according to (1) further including a communication unit that transmits the command corresponding to the detected gesture operation to the device.
  • a selection unit that selects a type of the device and a guide for the gesture operation
  • the display control unit according to (2), wherein the display control unit causes the display unit to display the gesture operation guide selected by the selection unit in a first state.
  • the display control apparatus according to any one of (1) to (3), further including the display unit.
  • a gesture operation guide is displayed on the display unit in the first state, Detecting the gesture operation, A display control method including a step of changing the guide corresponding to the detected gesture operation to a second state and causing the display to display the guide.
  • a gesture operation guide is displayed on the display unit in the first state, Detecting the gesture operation, A program for executing processing including a step of changing the guide corresponding to the detected gesture operation to a second state and displaying the guide on the display unit.

Abstract

本技術は、入力可能なジェスチャ操作を分かりやすくすることができる表示制御装置、表示制御方法、およびプログラムに関する。表示制御部は、ジェスチャ操作のガイドを第1の状態で表示部に表示させる。そして、表示制御部は、ジェスチャ操作を検出する検出部により所定のジェスチャ操作が検出された場合、検出されたジェスチャ操作に対応するガイドを第2の状態に変更して表示部に表示させる。この開示の技術は、例えば、表示部を有する情報処理端末に適用できる。

Description

表示制御装置、表示制御方法、およびプログラム
 本技術は、表示制御装置、表示制御方法、およびプログラムに関し、特に、入力可能なジェスチャ操作を分かりやすくする表示制御装置、表示制御方法、およびプログラムに関する。
 テレビジョン受像機や録画再生装置などの装置を遠隔から制御するリモートコントローラでは、チャンネル番号や音量調整のボタンが設けられ、操作されたボタンに対応する制御信号を送信するものが一般的である。これに対して、リモートコントローラの上面を平面としてタッチパネルを配し、タッチパネル上でユーザにジェスチャ操作を行わせ、検出されたジェスチャ操作に対応する制御信号を送信するものがある(例えば、特許文献1参照)。
特開2010-193107号公報(0040段落、図2乃至図5)
 しかしながら、特許文献1で提案されている方法では、どのようなジェスチャ操作を行うことが可能で、行ったジェスチャ操作が適切に認識されて実行されたかが分かりにくかった。
 本技術は、このような状況に鑑みてなされたものであり、入力可能なジェスチャ操作を分かりやすくするものである。
 本技術の一側面の表示制御装置は、ジェスチャ操作のガイドを第1の状態で表示部に表示させる表示制御部と、前記ジェスチャ操作を検出する検出部とを備え、前記表示制御部は、前記ジェスチャ操作が検出された場合、検出された前記ジェスチャ操作に対応する前記ガイドを第2の状態に変更して前記表示部に表示させる。
 本技術の一側面の表示制御方法は、ジェスチャ操作のガイドを第1の状態で表示部に表示させ、前記ジェスチャ操作を検出し、検出した前記ジェスチャ操作に対応する前記ガイドを第2の状態に変更して前記表示部に表示させるステップを含む。
 本技術の一側面のプログラムは、コンピュータに、ジェスチャ操作のガイドを第1の状態で表示部に表示させ、前記ジェスチャ操作を検出し、検出した前記ジェスチャ操作に対応する前記ガイドを第2の状態に変更して前記表示部に表示させるステップを含む処理を実行させるためのものである。
 本技術の一側面においては、ジェスチャ操作のガイドが第1の状態で表示部に表示され、ジェスチャ操作が検出され、検出されたジェスチャ操作に対応するガイドが第2の状態に変更されて表示部に表示される。
 なお、プログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。
 表示制御装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
 本技術の一側面によれば、入力可能なジェスチャ操作を分かりやすくすることができる。
本技術の表示制御装置を適用したタブレット端末の一実施の形態の外観構成例を示す上面図である。 ブレット端末のハードウェアの構成例を示すブロック図である。 リモコンアプリの処理を説明するフローチャートである。 機器一覧画面の画面例を示す図である。 機器登録処理を説明するフローチャートである。 機器登録画面の画面例を示す図である。 機器登録画面の画面例を示す図である。 機器登録画面の画面例を示す図である。 機器登録画面の画面例を示す図である。 テレビのジェスチャ画面の画面例を示す図である。 テレビのフルリモコン画面の画面例を示す図である。 アンプのジェスチャ画面の画面例を示す図である。 BDプレーヤのジェスチャ画面の画面例を示す図である。 ジェスチャ操作によるコマンドの送信の動作について説明する図である。 ジェスチャ操作によるコマンドの送信の動作について説明する図である。 ジェスチャ操作対応処理を説明するフローチャートである。
[タブレット端末の外観構成例]
 図1は、本技術の表示制御装置を適用したタブレット端末の一実施の形態の外観構成例を示す上面図である。
 図1のタブレット端末1は、薄板状の情報処理端末であり、テーブル等に置いたときに上面となる略長方形の面に、タッチスクリーン11が設けられている。
 タッチスクリーン11には、各種の画像が表示される。また、ユーザは、指等を、タッチスクリーン11に近接、又は、接触(タッチ)することによって、各種の(操作)入力を与えることができる。
 タブレット端末1には、ユーザが使用している機器を自由に登録して、IR信号による機器制御を行うことができるアプリケーション(以下、リモコンアプリという。)がインストールされている。ここで、制御対象として登録される機器は、例えば、テレビジョン受像機、DVD(Digital Versatile Disc)プレーヤ、BD(Blu-ray Disc(登録商標))レコーダ等の録画再生装置、STB(Set Top Box)、アンプ等である。
 タッチスクリーン11には、例えば、リモコンアプリのアイコン画像21が少なくとも表示され、ユーザがリモコンアプリのアイコン画像21をタップ等することで、リモコンアプリを起動することができる。
 略長方形状のタブレット端末1の長辺となる一辺の側面には、IR信号が入出力されるIR(Infrared Radiation)通信部12が設けられている。図1は、タブレット端末1を上から見た上面図であるため、IR通信部12が設けられている部分は破線で示されている。ユーザは、IR通信部12が制御対象の機器に向くようにタブレット端末1を設置する。従って、図1の例では、制御対象の機器は、図中、上側の方向にあり、ユーザは、図中、下側に位置している。
 以上のように構成されるタブレット端末1において、リモコンアプリが実行されることにより、タッチスクリーン11上でユーザが行ったジェスチャ操作を検出し、ジェスチャ操作に対応するIR信号を、登録されている所定の機器に送信し、機器制御を行うことができる。
[タブレット端末1のハードウェア構成例]
 図2は、タブレット端末1のハードウェア構成例を示すブロック図である。
 タブレット端末1は、CPU(Central Processing Unit)41,ROM(Read Only Memory)42,RAM(Random Access Memory)43は、フラッシュメモリ44、および入出力インタフェース45を有し、それらはバス46により相互に接続され、必要に応じてデータを授受することができる。
 また、入出力インタフェース45には、タッチスクリーン11、IR通信部12、出力部47、入力部48、通信部49、及び、ドライブ50が接続されている。
 タッチスクリーン11は、表示部61Aと位置検出部61Bとを有し、図1で説明したように、各種の表示と、指等を近接、又は、接触(タッチ)することによる操作入力とが可能になっている。
 表示部61Aは、画像を表示する、液晶パネル等のデバイス(表示装置)で構成され、入出力インタフェース45を介して供給されるデータに応じて、画像を表示する。
 位置検出部61Bは、例えば、静電式等のタッチパネルや、光を照射する光源と、その光の、物体からの反射光を受光するセンサとのセット等の、外部からの入力(近接・接触)を受け付ける(検知する)機能を有するデバイスで構成される。
 位置検出部61Bは、外部からの物体、すなわち、例えば、ユーザの指や、ユーザが扱うタッチペン等が近接し、又は、接触(タッチ)すると、その近接、又は、接触がされている位置を表す位置信号を(入出力インタフェース45に)出力する。位置検出部61Bは、タッチスクリーン11上でユーザによって行われたジェスチャ操作を検出する検出部として機能する。
 タッチスクリーン11は、以上のような表示部61Aと位置検出部61Bとが一体的になっており、表示部61Aにおいて画像を表示し、位置検出部61Bにおいて、表示部61Aに表示された画像に対する外部からの操作入力(タッチや近接)を受け付けることができる。
 位置検出部61Bが出力する位置信号は、入出力インタフェース45を介して、CPU41に供給され、CPU41では、位置検出部61Bからの位置信号に基づき、どのような操作入力があったかが認識され、その操作入力に応じて、各種の処理が行われる。
 なお、位置検出部61Bが検出できるユーザの操作には、例えば、所定時間指でタッチして画面から離す操作であるタップ操作、短い所定時間に2回指でタッチする操作であるダブルタップ操作、指で所定の方向に払う操作であるフリック操作、指を接触したまま所定の方向へ移動するドラッグ操作などがある。
 IR通信部12は、CPU41の制御に従い、機器の制御コマンドに対応するIR信号を送信する。また、IR通信部12は、外部から入力されてくるIR信号を受信し、受信したIR信号の制御コマンドを入出力インタフェース45を介してCPU41に供給する。
 CPU41は、ROM42に記憶されたプログラムや、フラッシュメモリ44等から読み出されて、RAM43に記憶(展開)されたプログラムを実行することにより、各種の処理を行う。CPU41により実行されるプログラムの一つがリモコンアプリである。
 ROM42は、例えば、EEPROM(Electrically Erasable Programmable ROM)等であり、タブレット端末1の電源がオフにされたときも保持する必要があるデータやプログラムを記憶する。
 RAM43は、CPU41の動作上必要なプログラムやデータを記憶する。
 フラッシュメモリ44には、CPU41が実行するリモコンアプリ等のプログラムや、その他のデータ(プログラムを含む)が記録される。
 出力部47は、例えば、スピーカや、イヤフォン端子等であり、音声を出力する。
 入力部48や、例えば、マイクやマイク端子と、音声認識装置等であり、外部からの音声(データ)の入力を受け付ける。
 通信部49は、例えば、LAN(Local Area Network)等の通信インタフェースであり、外部の装置との、無線や有線での通信を制御する。
 ドライブ50には、DVD(Digital Versatile Disc)等の光ディスクや、USBメモリ等の半導体メモリであるリムーバブル記録媒体51の着脱が可能になっている。
 ドライブ50は、そこに装着されたリムーバブル記録媒体51を駆動することにより、リムーバブル記録媒体51にデータを記録し、また、リムーバブル記録媒体51からデータを読み出す。
[リモコンアプリの処理フロー]
 次に、図3のフローチャートを参照して、リモコンアプリを起動することで実行されるリモコンアプリの処理について説明する。
 初めに、ステップS1において、リモコンアプリは、少なくとも1つの機器が制御対象として登録されているかを判定する。リモコンアプリがまだ一度も起動されていない場合には、制御対象の機器は1つも登録されていない。
 ステップS1で、1つの機器も登録されていないと判定された場合、処理はステップS2に進み、リモコンアプリは、制御対象の機器を登録する機器登録処理を実行する。この処理の詳細は、図5等を参照して後述する。
 一方、ステップS1で、少なくとも1つの機器が制御対象として登録されていると判定された場合、処理はステップS3に進み、リモコンアプリは、登録されている制御対象の機器の一覧を表示する機器一覧画面を表示部61Aに表示する。
 図4は、表示部61Aに表示される機器一覧画面の画面例を示している。
 機器一覧画面では、アプリケーションの名称である「リモコンアプリ」のタイトルとともに、登録されている制御対象の機器ごとに、電源ボタン81、機器画像アイコン82、及び、機器名称83が表示される。
 図4の例では、制御対象の機器として、アンプ、テレビジョン受像機(以下、単にテレビという。)、BDプレーヤ、及び、STBが登録されている。なお、図4では、一番左のアンプについての電源ボタン81、機器画像アイコン82、及び、機器名称83に対してのみ符号を付し、その他の機器についての符号は省略している。
 ユーザが、例えば、テレビの操作を行いたい場合、テレビの機器画像アイコン82をタッチする。また、テレビの電源をオンまたはオフしたい場合には、ユーザは、テレビの電源ボタン81をタッチする。即ち、電源ボタン81は、登録されている機器の電源をオンまたはオフするときに操作(タッチ)される。機器画像アイコン82は、登録されている機器の制御を行いたいときに操作される。
 機器一覧画面では、一画面で所定数(図4の例では、4台)の機器について、電源ボタン81ないし機器名称83を表示することができる。そして、登録されている機器の台数が、一画面で表示可能な台数を超えている場合には、ページ切替アイコン84が表示され、ページ切替アイコン84をタッチするか、または、画面上を右または左方向へドラッグ操作することで、非表示の機器の電源ボタン81ないし機器名称83を表示することができる。
 また、機器一覧画面では、新たに機器を登録する際に操作される機器追加ボタン85と、メニューボタン86も表示される。ユーザが機器追加ボタン85を操作(選択)することにより、ステップS2の機器登録処理が実行されるので、後から、機器を追加することが可能である。メニューボタン86では、登録されている機器の配列の並べ替え、リモコンアプリの終了などの操作を行うことができる。
 図3のステップS3の処理により、図4に示した機器一覧画面が表示部61Aに表示された後、ステップS4において、リモコンアプリは、機器一覧画面で行われたユーザの操作に対応する処理であるユーザ操作対応処理を実行する。
 ユーザ操作対応処理では、登録されている機器の制御、制御対象機器の登録または削除、登録されている機器の配列の並べ替え、登録情報の変更などを行うことができる。
 登録されている機器の削除は、図4の機器一覧画面において、削除対象の機器画像アイコン82を長押しすると、[削除]、[機器の編集]などの項目が表示され、ユーザは、[削除]の項目を選択することで、登録されている機器を削除することができる。また、[機器の編集]の項目を選択することで、登録されている機器の登録内容を編集(変更)することができる。なお、登録されている機器の削除や変更を行うための操作方法は、これに限定されず、例えば、メニューボタン86等から実行できるようにしてもよい。
 ステップS4におけるユーザ操作対応処理が実行され、最終的に、メニューボタン86が選択されて、表示された項目のなかから[リモコンアプリの終了]が選択されることにより、図3の処理は終了する。
[機器登録処理のフロー]
 図5は、図3のステップS2として実行される機器登録処理のフローチャートである。なお、上述したように、機器一覧画面において、機器追加ボタン85がユーザによって操作(選択)されたときも、この処理が実行される。
 初めに、ステップS11において、リモコンアプリは、フラッシュメモリ44に記憶しているデータベース(DB)にある機器の登録であるかを判定する。
 フラッシュメモリ44には、登録が予想される複数の機器について、その機器のメーカ純正のリモートコントローラが備える操作ボタンと、その操作ボタンが操作されたときに送出されるIR信号(リモコンコード)を対応付けたデータベースが記憶されている。従って、データベースにある機器であれば、ユーザは簡単に機器の登録を行うことができる。
 データベースにある機器の登録であるか否かは、リモコンアプリが、図6に示す第1の機器登録画面を表示部61Aに表示して受け付けたユーザの操作に基づいて判定される。
 図6の第1の機器登録画面では、機器の種類、メーカ等を指定して、データベースにある機器の登録を行う「かんたん機器登録」か、または、データベースにない機器を登録する「リモコンを使って学習させる」のいずれかの登録方法がラジオボタンにより選択(タッチ)される。
 図6の第1の機器登録画面において「かんたん機器登録」がユーザにより選択された場合に、リモコンアプリは、ステップS11で、データベースにある機器の登録であると判定する。一方、第1の機器登録画面において「リモコンを使って学習させる」がユーザにより選択された場合、リモコンアプリは、ステップS11で、データベースにない機器の登録であると判定する。
 ステップS11で、データベースにない機器の登録であると判定された場合、処理はステップS12に進み、データベースなしの機器登録処理を実行する。
 データベースなしの機器登録処理では、まず、タブレット端末1のIR通信部12と対向する位置に、登録対象のメーカ純正のリモートコントローラが配置される。そして、ユーザは、登録したい操作ボタンをリモコンアプリの画面上で指定した後、対向した配置したメーカ純正のリモートコントローラの登録したい操作ボタンを押下する。メーカ純正のリモートコントローラから送信されてくるIR信号をIR通信部12が受信し、リモコンアプリは、IR通信部12が受信したIR信号を、指定された操作ボタンのIR信号として記憶(学習)する。以上の処理が、登録したい操作ボタンについて繰り返し実行される。
 一方、ステップS11で、データベースにある機器の登録であると判定された場合、処理はステップS13に進み、リモコンアプリは、機器の種類とメーカをユーザに選択させる。
 図7は、ステップS13の処理において、リモコンアプリによって表示部61Aに表示される第2の機器登録画面の画面例を示している。
 第2の機器登録画面には、登録させる機器の種類を提示するプルダウンメニュー91と、メーカを提示するプルダウンメニュー92が設けられる。プルダウンメニュー91または92に表示される複数の項目のなかから、所望の機器の種類とメーカが指定される。指定可能な機器の種類としては、テレビ(TV)、アンプ、DVDプレーヤ、BDプレーヤ、BDレコーダ、などがある。
 図5のステップS13の後、ステップS14において、リモコンアプリは、リモコンタイプが複数あるかを判定する。メーカおよび種類の機器の指定に対して、複数のリモコンタイプが存在する場合がある。複数のリモコンタイプが存在する場合には、リモコンタイプによって、送信するIR信号が異なるので、どのリモコンタイプであるかを特定させる必要がある。
 ステップS14で、リモコンタイプが複数あると判定された場合、処理はステップS15に進み、リモコンアプリは、動作テスト画面を表示し、可能性のあるリモコンタイプの動作テストを順に行う。動作テスト画面では、所定の操作ボタンをユーザに操作させ、操作した動作が制御対象の機器で行われたか否かの結果をユーザに入力させることで、純正のリモートコントローラに対応するリモコンタイプが確認される。
 ステップS14で、リモコンタイプが1つであると判定された場合、ステップS15の処理はスキップされ、処理はステップS16に進む。ステップS12またはS15の処理後も、ステップS16の処理が実行される。
 ステップS16において、リモコンアプリは、ジェスチャ操作のタイプをユーザに選択させる。
 図8は、ステップS16において、リモコンアプリによって表示部61Aに表示される第3の機器登録画面の画面例を示している。第3の機器登録画面は、ジェスチャ操作のタイプをユーザに選択させる画面である。
 第3の機器登録画面には、ジェスチャ操作のタイプを選択するためのプルダウンメニュー101が設けられる。また、プルダウンメニュー101の下には、プルダウンメニュー101で選択されたジェスチャ操作のタイプに対応して表示される、ジェスチャ操作のガイドの説明画像102が表示される。
 プルダウンメニュー101で選択可能なジェスチャ操作のタイプは、機器の種類に応じて複数用意される。本実施の形態では、タイプ1、タイプ2、タイプ3の3種類が用意されているものとする。タイプ1は、ジェスチャ操作により、音量だけの制御が可能なタイプであり、タイプ1に対応する代表的な制御対象機器は、アンプである。タイプ2は、ジェスチャ操作により、音量とチャンネルの制御が可能なタイプであり、タイプ2に対応する代表的な制御対象機器は、テレビである。タイプ3は、ジェスチャ操作により、音量と走行系(再生、早送り、早戻しなど)の制御が可能なタイプであり、タイプ3に対応する代表的な制御対象機器は、BDプレーヤやBDレコーダなどの録画再生装置である。
 図8の画面例では、プルダウンメニュー101でタイプ2のジェスチャ操作が選択されており、ジェスチャ操作のガイドの説明画像102も、タイプ2のガイドが表示されている。
 ステップS16の処理により、ジェスチャ操作のタイプがユーザにより選択されると、ステップS17において、リモコンアプリは、登録内容を確認するため、図9に示す第4の機器登録画面を表示部61Aに表示する。そして、図9の第4の機器登録画面の登録ボタン111が操作されたとき、リモコンアプリは、設定された内容で機器を登録して、処理を終了する。
 図9の第4の機器登録画面では、上述のステップS11ないしS16の処理で設定された内容が表示される。
 「名前」の欄には、指定された機器の種類に応じたデフォルトの名前が設定されている。この欄に設定された名前が、機器一覧画面の機器名称83として表示される。リモコン動作テストボタン112は、登録内容で動作テストを行うとき操作されるボタンである。
 アイコン表示部113には、指定された機器の種類に応じたデフォルトのアイコンが設定されている。ここで設定されているアイコンが、機器一覧画面の機器画像アイコン82として表示される。デフォルトのアイコンを変更する場合には、アイコン変更ボタン114がタッチされる。アイコン変更ボタン114がタッチされると、予め用意された複数のアイコンが提示され、ユーザは所定のアイコンを選択することで、好みのアイコンに変更することができる。
 以上のようにして、リモコンアプリに制御対象の機器が登録される。登録された各機器についての設定内容は、フラッシュメモリ44に記憶される。
[リモコンアプリにおける機器制御の操作方法]
 次に、リモコンアプリにおいて、登録された機器に対してIR信号を送信し、所定の制御を行う場合の操作方法について説明する。
 図4の機器一覧画面において、例えば、テレビの機器画像アイコン82がユーザによりタッチされることにより、テレビが制御対象機器として選択される。制御対象機器が決定されると、リモコンアプリは、制御対象機器のジェスチャ画面かまたはフルリモコン画面のいずれか一方を表示部61Aに表示する。
 図10は、制御対象機器がテレビである場合のジェスチャ画面であり、図11は、制御対象機器がテレビである場合のフルリモコン画面の例を示している。
 制御対象機器それぞれに対して、ジェスチャ画面とフルリモコン画面の両方が選択的に表示可能である。ジェスチャ画面は、機器の種類によって頻繁に利用することが多い操作(機器の制御)を、簡単なジェスチャ操作で行うことができる画面であり、フルリモコン画面は、機器の全ての操作ボタンを表示して操作可能とした画面である。
 ジェスチャ画面とフルリモコン画面のどちらを優先的に最初に表示するかは予め決定することができ、本実施の形態では、機器画像アイコン82がユーザによりタッチされた場合、ジェスチャ画面が表示されるものとする。
 図10のジェスチャ画面と図11のフルリモコン画面には、テレビの電源ボタン81ないし機器名称83、機器切り替えボタン121A及び121B、機器一覧ボタン122、ジェスチャ画面切り替えボタン123、並びに、フルリモコン画面切り替えボタン124が共通に設けられている。
 右方向の機器切り替えボタン121Aが選択されると、図4の機器一覧画面において、テレビの右隣に配置されているBDプレーヤに、制御対象が切り替えられ、後述する図13のBDプレーヤのジェスチャ画面が表示される。一方、左方向の機器切り替えボタン121Bが選択されると、図4の機器一覧画面において、テレビの左隣に配置されているアンプに、制御対象が切り替えられ、後述する図12のアンプのジェスチャ画面が表示される。
 機器一覧ボタン122は、図4の機器一覧画面に戻るときに操作される。ジェスチャ画面切り替えボタン123は、ジェスチャ画面に表示を切り替えるときに操作され、フルリモコン画面切り替えボタン124は、フルリモコン画面に表示を切り替えるときに操作される。図10のジェスチャ画面では、フルリモコン画面切り替えボタン124に影が付されており、図11のフルリモコン画面では、ジェスチャ画面切り替えボタン123に影が付されている。
 図10のジェスチャ画面と図11のフルリモコン画面では、ジェスチャ画面には、ジェスチャ操作のガイド131が表示され、フルリモコン画面には、操作キー画面141が表示される点が異なる。
 図10に示されるジェスチャ操作のガイド131は、図8の第3の機器登録画面のプルダウンメニュー101で設定された、タイプ2のガイド131である。
 タイプ2のガイド131は、上方向のスライド操作に、音量を上げるコマンド[Vol+]が、下方向のスライド操作に、音量を下げるコマンド[Vol-]が、右方向のスライド操作に、チャンネルをプラス方向に変更するコマンド[Ch+]が、左方向のスライド操作に、チャンネルをマイナス方向に変更するコマンド[Ch-]が、割り当てられていることを模式的に示している。
ここで、スライド操作には、フリック操作と、ドラッグ操作の両方を含み、リモコンアプリは、フリック操作とドラッグ操作それぞれに応じて異なるコマンド(IR信号)の出力を行う。リモコンアプリは、ユーザの指の接触時間が一定時間(例えば、0.7秒)未満である場合のスライド操作を検出した場合、フリック操作が行われたと判定する。一方、ユーザの指の接触時間が一定時間(例えば、0.7秒)以上である場合のスライド操作を検出した場合、リモコンアプリは、ドラッグ操作が行われたと判定する。
 フリック操作が行われたと判定された場合には、リモコンアプリは、割り当てられているコマンド[Vol+]、[Vol-]、[Ch+]、または[Ch-]を1回送信する。一方、ドラッグ操作が行われたと判定された場合には、リモコンアプリは、割り当てられているコマンド[Vol+]、[Vol-]、[Ch+]、または[Ch-]を、ユーザの指がタッチスクリーン11から離れたと検出されるまで連続送信する。
 また、リモコンアプリは、1回送信を行う場合と、連続送信を行う場合とで、異なる操作音(メロディ)を出力部47から出力させ、コマンドが送信されたことをユーザに通知する。1回送信を行う場合には、コマンドを送信するタイミングで操作音が出力され、連続送信を行う場合には、連続送信を開始するタイミングで操作音が出力される。
 図11のフルリモコン画面の操作キー画面141には、リモートコントローラが一般的に備える操作ボタンと同様の操作キーが設けられている。リモコンアプリは、登録された機器によって、IR信号の割り当てがない操作キーは、非表示とするか、グレー表示とするなどして、割り当てがないことを判別可能とする。操作キーの種類が多く、一画面で表示できない場合には、ページ切り替えボタン142で非表示の操作キーを表示させることができる。
 図10のジェスチャ画面において、左方向の機器切り替えボタン121Bがユーザにより選択されると、図4の機器一覧画面においてテレビの左隣に配置されているアンプに制御対象が切り替えられ、図12に示される、アンプのジェスチャ画面が表示される。
 図12に示されるアンプのジェスチャ画面のガイド131は、タイプ1のガイドである。
 タイプ1のガイド131は、上方向のスライド操作に、音量を上げるコマンド[Vol+]が、下方向のスライド操作に、音量を下げるコマンド[Vol-]が、割り当てられていることを模式的に示している。右方向と左方向のスライド操作に割り当てられているコマンドはない。フリック操作とドラッグ操作によるコマンド出力(1回送信か、または、連続送信か)の違い、および、1回送信と連続送信による操作音の違いは、上述したタイプ2と同様であるので、説明は省略する。
 一方、図10のジェスチャ画面において、右方向の機器切り替えボタン121Aがユーザにより選択されると、図4の機器一覧画面においてテレビの右隣に配置されているBDプレーヤに制御対象が切り替えられ、図13に示される、BDプレーヤのジェスチャ画面が表示される。
 図13に示されるBDプレーヤのジェスチャ画面のガイド131は、タイプ3のガイドである。
 タイプ3のガイド131は、上方向のスライド操作に、音量を上げるコマンド[Vol+]が、下方向のスライド操作に、音量を下げるコマンド[Vol-]が、割り当てられていることを模式的に示している。コマンド[Vol+]と[Vol-]については、上述したタイプ2と同様であるので説明は省略する。
 タイプ3のガイド131は、右方向のフリック操作に、次のタイトル/チャプター/トラックの先頭に進むコマンド[Next]が、右方向のドラッグ操作に、早送りのコマンド[FF]が、割り当てられていることも模式的に示している。
 さらに、タイプ3のガイド131は、左方向のフリック操作に、前のタイトル/チャプター/トラックの先頭に進むコマンド[Prev]が、左方向のドラッグ操作に、早戻しのコマンド[FR]が、割り当てられていることを模式的に示している。
 右方向または左方向のフリック操作は、コマンド[Next]または[Prev]の1回送信、右方向または左方向のドラッグ操作は、コマンド[FF]または[FR]の連続送信となる。1回送信と連続送信による操作音の違いは、上述したタイプ2と同様である。
 また、タイプ3では、タップ操作に、再生のコマンド[Play]が、ダブルタップ操作に、ポーズのコマンド[Pause]が割り当てられている。
[ジェスチャ操作の例]
 次に、タイプ2のガイド131の場合を例に、所定のジェスチャ操作が行われた場合の動作について説明する。
 図14は、ユーザが、タッチスクリーン11において、ジェスチャ操作の一つである、右方向のフリック操作を行った場合の表示例を示している。
 リモコンアプリは、ユーザが行ったジェスチャ操作(フリック操作)を検出し、検出した指の位置の軌跡151を表示部61Aに表示する。なお、ユーザは、ジェスチャ操作をガイド131の真上で行う必要はなく、リモコンアプリは、タッチスクリーン11上のどの位置でジェスチャ操作が行われた場合であっても検出可能である。例えば、右方向のフリック操作が、[Vol+]の文字より下の領域で行われた場合であっても、検出することができる。
 そして、リモコンアプリは、検出したジェスチャ操作に対応して機器に送信されるコマンドがユーザに分かるように、ジェスチャ操作のガイド131のうち、送信するコマンドの部分(Ch+)を点滅表示させる。
 さらに、リモコンアプリは、検出したジェスチャ操作に対応するコマンド(のIR信号)をIR通信部12から送信させ、コマンドが送信されていることを示す通信中ランプ152を所定時間表示させる。通信中ランプ152の表示(点灯)は、あくまで、コマンドが送信されたことをユーザが分かるようにするためであるので、実際のコマンドの送信期間と、通信中ランプ152の表示期間とが対応している必要はない。
 なお、リモコンアプリが、ドラッグ操作を検出した場合には、検出した指の位置の軌跡151を表示した後、例えば、継続してタッチされている指の位置を中心とする波紋を表示させるなどして、指を検出中であることを示す表示を行う。
 次に、図15を参照して、コマンドが割り当てられていないジェスチャ操作が行われた場合の表示例について説明する。
 図15は、チャンネルをプラス方向に変更するコマンドがリモコンアプリに割り当てられていない場合に、ユーザが、右方向にフリックする操作を行った場合の表示例を示している。
 コマンドが割り当てられていないジェスチャ操作をユーザが行った場合、リモコンアプリは、ユーザが行ったジェスチャ操作(フリック操作)を検出し、検出したジェスチャ操作にコマンドが割り当てられていないことを示すメッセージ161をトースト表示する。トースト表示は、予め定めた一定時間表示させた後、消去する表示方法である。
 また、リモコンアプリは、割り当てられていないコマンドであっても、どのコマンドを認識したかをユーザがわかるようにするため、ジェスチャ操作のガイド131のうち、認識したコマンドの部分(Ch+)を点滅表示させる。なお、コマンドは送信されないため、図13の通信中ランプ152は点灯されない。
[ジェスチャ操作対応処理のフロー]
 図16は、リモコンアプリが、図3のユーザ操作対応処理の一部として実行するジェスチャ操作対応処理のフローチャートである。
 初めに、ステップS31において、リモコンアプリは、ジェスチャ操作を検出したかを判定し、ジェスチャ操作を検出したと判定するまで、ステップS31の処理を繰り返す。
 ステップS31で、ジェスチャ操作を検出したと判定された場合、処理はステップS32に進み、リモコンアプリは、検出したジェスチャ操作(指の位置)の軌跡151を表示部61Aに表示させる。
 そして、ステップS33において、リモコンアプリは、検出したジェスチャ操作にコマンドが割り当てられているかを判定する。
 ステップS33で、検出したジェスチャ操作にコマンドが割り当てられていると判定された場合、処理はステップS34に進み、リモコンアプリは、ジェスチャ操作のガイド131のうち、送信するコマンドに対応する部分(図13の例では、Ch+)を点滅表示させる。
 そして、ステップS35において、リモコンアプリは、検出したジェスチャ操作に割り当てられているコマンド(IR信号)を、IR通信部12から制御対象の機器に送信する。
 さらに、ステップS36において、リモコンアプリは、コマンドが送信されていることを示す通信中ランプ152を所定時間表示させる。
 ステップS34ないしS36は、実際には同時に実行される。ステップS36のあと、処理はステップS31に戻る。
 一方、ステップS33で、検出したジェスチャ操作にコマンドが割り当てられていないと判定された場合、処理はステップS37に進み、上述したステップS34と同じ処理のみ実行される。即ち、リモコンアプリは、ジェスチャ操作のガイド131のうち、送信するコマンドに対応する部分(図13の例では、Ch+)を点滅表示させる。そして、処理はステップS31に戻る。
 以上のように、リモコンアプリは、ジェスチャ操作のガイド131を第1の状態で表示部61Aに表示させ、所定のジェスチャ操作が検出されると、検出されたジェスチャ操作に対応するガイド131の、送信するコマンドに対応する部分を第2の状態に変更して表示させる。上述した例では、第1の状態が点灯状態であり、第2の状態が点滅状態に相当するが、第1の状態および第2の状態はこれに限定されない。例えば、第1の状態を、明度の低い(つまり、暗い)ジェスチャ操作のガイド131とし、第2の状態を、明度の高い(つまり、明るい)ジェスチャ操作のガイド131としてもよい。ジェスチャ操作のガイド131の第2の状態を、第1の状態に対して、反転表示とするようなものでもよい。
 本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる場合はもちろん、必ずしも時系列的に処理されなくとも、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで実行されてもよい。
 本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、上述した実施の形態では、機器一覧画面等を表示する表示部61Aと、ジェスチャ操作を検出する位置検出部61Bとが重畳されて一体のタッチスクリーン11とされていたが、表示部61Aと位置検出部61Bは、別々の構成としてもよい。例えば、位置検出部61Bとしてのタッチパッドと表示部61Aとを、同一平面上の別の領域に設けたり、別々の筺体としてもよい。
 なお、本技術は以下のような構成も取ることができる。
(1)
 ジェスチャ操作のガイドを第1の状態で表示部に表示させる表示制御部と、
 前記ジェスチャ操作を検出する検出部と
 を備え、
 前記表示制御部は、前記ジェスチャ操作が検出された場合、検出された前記ジェスチャ操作に対応する前記ガイドを第2の状態に変更して前記表示部に表示させる
 表示制御装置。
(2)
 前記ジェスチャ操作は、所定の機器を制御するコマンドに対応するものであり、
 検出された前記ジェスチャ操作に対応する前記コマンドを前記機器に送信する通信部をさらに備える
 前記(1)に記載の表示制御装置。
(3)
 前記機器の種類に応じて複数の前記ジェスチャ操作のガイドがあり、
 前記機器の種類と前記ジェスチャ操作のガイドとを選択する選択部をさらに備え、
 前記表示制御部は、前記選択部により選択された前記ジェスチャ操作のガイドを第1の状態で表示部に表示させる
 前記(2)に記載の表示制御装置。
(4)
 前記表示部をさらに備える
 前記(1)乃至(3)のいずれかに記載の表示制御装置。
(5)
 ジェスチャ操作のガイドを第1の状態で表示部に表示させ、
 前記ジェスチャ操作を検出し、
 検出した前記ジェスチャ操作に対応する前記ガイドを第2の状態に変更して前記表示部に表示させる
 ステップを含む表示制御方法。
(6)
 コンピュータに、
 ジェスチャ操作のガイドを第1の状態で表示部に表示させ、
 前記ジェスチャ操作を検出し、
 検出した前記ジェスチャ操作に対応する前記ガイドを第2の状態に変更して前記表示部に表示させる
 ステップを含む処理を実行させるためのプログラム。
 1 タブレット端末, 11 タッチスクリーン, 12 IR通信部, 41 CPU, 61A 表示部, 61B 位置検出部

Claims (6)

  1.  ジェスチャ操作のガイドを第1の状態で表示部に表示させる表示制御部と、
     前記ジェスチャ操作を検出する検出部と
     を備え、
     前記表示制御部は、前記ジェスチャ操作が検出された場合、検出された前記ジェスチャ操作に対応する前記ガイドを第2の状態に変更して前記表示部に表示させる
     表示制御装置。
  2.  前記ジェスチャ操作は、所定の機器を制御するコマンドに対応するものであり、
     検出された前記ジェスチャ操作に対応する前記コマンドを前記機器に送信する通信部をさらに備える
     請求項1に記載の表示制御装置。
  3.  前記機器の種類に応じて複数の前記ジェスチャ操作のガイドがあり、
     前記機器の種類と前記ジェスチャ操作のガイドとを選択する選択部をさらに備え、
     前記表示制御部は、前記選択部により選択された前記ジェスチャ操作のガイドを第1の状態で表示部に表示させる
     請求項2に記載の表示制御装置。
  4.  前記表示部をさらに備える
     請求項1に記載の表示制御装置。
  5.  ジェスチャ操作のガイドを第1の状態で表示部に表示させ、
     前記ジェスチャ操作を検出し、
     検出した前記ジェスチャ操作に対応する前記ガイドを第2の状態に変更して前記表示部に表示させる
     ステップを含む表示制御方法。
  6.  コンピュータに、
     ジェスチャ操作のガイドを第1の状態で表示部に表示させ、
     前記ジェスチャ操作を検出し、
     検出した前記ジェスチャ操作に対応する前記ガイドを第2の状態に変更して前記表示部に表示させる
     ステップを含む処理を実行させるためのプログラム。
PCT/JP2012/059960 2011-04-25 2012-04-12 表示制御装置、表示制御方法、およびプログラム WO2012147520A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US14/112,398 US9524095B2 (en) 2011-04-25 2012-04-12 Display control device, display control method, and program
EP12777557.5A EP2703972A1 (en) 2011-04-25 2012-04-12 Display control device, display control method, and program
CN201280019275.9A CN103493001A (zh) 2011-04-25 2012-04-12 显示控制设备、显示控制方法以及程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-097443 2011-04-25
JP2011097443A JP2012231249A (ja) 2011-04-25 2011-04-25 表示制御装置、表示制御方法、およびプログラム

Publications (1)

Publication Number Publication Date
WO2012147520A1 true WO2012147520A1 (ja) 2012-11-01

Family

ID=47072042

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/059960 WO2012147520A1 (ja) 2011-04-25 2012-04-12 表示制御装置、表示制御方法、およびプログラム

Country Status (5)

Country Link
US (1) US9524095B2 (ja)
EP (1) EP2703972A1 (ja)
JP (1) JP2012231249A (ja)
CN (1) CN103493001A (ja)
WO (1) WO2012147520A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014207828A1 (ja) * 2013-06-25 2014-12-31 富士通株式会社 情報処理装置およびプログラム

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9459781B2 (en) 2012-05-09 2016-10-04 Apple Inc. Context-specific user interfaces for displaying animated sequences
CN104350335B (zh) * 2013-02-20 2017-10-20 松下电器(美国)知识产权公司 便携信息终端、便携信息终端的控制方法以及记录介质
SG11201404650XA (en) 2013-02-20 2014-11-27 Panasonic Ip Corp America Program and method for controlling information terminal
CN104247445B (zh) 2013-02-20 2018-10-12 松下电器(美国)知识产权公司 便携信息终端的控制方法
JP5529357B1 (ja) 2013-02-20 2014-06-25 パナソニック株式会社 携帯情報端末の制御方法及びプログラム
JP5529358B1 (ja) 2013-02-20 2014-06-25 パナソニック株式会社 携帯情報端末の制御方法及びプログラム
WO2014143776A2 (en) 2013-03-15 2014-09-18 Bodhi Technology Ventures Llc Providing remote interactions with host device using a wireless device
JPWO2015008409A1 (ja) * 2013-07-19 2017-03-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報端末の制御方法及びプログラム
WO2015029758A1 (ja) * 2013-08-29 2015-03-05 三菱電機株式会社 電気機器、空気調和機、外部制御器、携帯端末及び空調システム
JPWO2015045409A1 (ja) * 2013-09-26 2017-03-09 京セラ株式会社 機器制御装置、機器制御方法および制御システム
EP2887196B1 (en) * 2013-12-20 2020-08-19 Dassault Systèmes A computer-implemented method for configuring a tool with at least one pointing element on a screen
WO2015200889A1 (en) 2014-06-27 2015-12-30 Apple Inc. Electronic device with rotatable input mechanism for navigating calendar application
TWI647608B (zh) * 2014-07-21 2019-01-11 美商蘋果公司 遠端使用者介面
WO2016036541A2 (en) 2014-09-02 2016-03-10 Apple Inc. Phone user interface
TWI600322B (zh) 2014-09-02 2017-09-21 蘋果公司 用於操作具有整合式相機之電子器件之方法及相關電子器件,以及非暫時性電腦可讀取儲存媒體
WO2016036603A1 (en) 2014-09-02 2016-03-10 Apple Inc. Reduced size configuration interface
JP6043334B2 (ja) * 2014-12-22 2016-12-14 京セラドキュメントソリューションズ株式会社 表示装置、画像形成装置、及び、表示方法
KR102310870B1 (ko) * 2015-01-12 2021-10-12 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
US10055121B2 (en) 2015-03-07 2018-08-21 Apple Inc. Activity based thresholds and feedbacks
US10216351B2 (en) 2015-03-08 2019-02-26 Apple Inc. Device configuration user interface
CN104778000A (zh) * 2015-03-20 2015-07-15 广东欧珀移动通信有限公司 方向标记显示方法及方向标记显示系统
CN104866110A (zh) * 2015-06-10 2015-08-26 深圳市腾讯计算机系统有限公司 一种手势控制方法,移动终端及系统
CN105022398B (zh) * 2015-07-15 2018-07-06 珠海磐磊智能科技有限公司 触摸屏控制器及行驶装置的控制方法
DK201770423A1 (en) 2016-06-11 2018-01-15 Apple Inc Activity and workout updates
EP3674851A1 (en) * 2016-07-07 2020-07-01 David Franklin Gesture-based user interface
JP2019211826A (ja) * 2018-05-31 2019-12-12 キヤノン株式会社 制御装置、制御システム、制御方法およびプログラム
US10887193B2 (en) 2018-06-03 2021-01-05 Apple Inc. User interfaces for updating network connection settings of external devices
JP7292024B2 (ja) * 2018-10-22 2023-06-16 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、コンピュータプログラム
CN111124211A (zh) * 2018-10-31 2020-05-08 杭州海康威视系统技术有限公司 一种数据显示方法、装置及电子设备
JP6921338B2 (ja) 2019-05-06 2021-08-18 アップル インコーポレイテッドApple Inc. 電子デバイスの制限された動作
DK201970533A1 (en) 2019-05-31 2021-02-15 Apple Inc Methods and user interfaces for sharing audio
CN110851036A (zh) * 2019-11-18 2020-02-28 珠海格力电器股份有限公司 电器设备的参数调节方法、装置及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07168855A (ja) * 1993-09-21 1995-07-04 Toshiba Corp 情報記録再生装置
JP2000285080A (ja) * 1999-03-30 2000-10-13 Pfu Ltd 携帯情報端末及びそのプログラム記憶媒体
WO2003098960A1 (fr) * 2002-05-20 2003-11-27 Sony Corporation Systeme de traitement de donnees, dispositif de traitement de donnees et procede de traitement de donnees
JP2005223931A (ja) * 2005-02-14 2005-08-18 Sharp Corp ユーザ操作支援装置およびユーザ操作支援方法
JP2005317041A (ja) * 2003-02-14 2005-11-10 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2007208547A (ja) * 2006-01-31 2007-08-16 Ict Solutions:Kk インターネットテレビジョン装置、及びその簡単操作を実現するリモコン装置
JP2010193107A (ja) 2009-02-17 2010-09-02 Smk Corp リモートコントロール送信機

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090153289A1 (en) * 2007-12-12 2009-06-18 Eric James Hope Handheld electronic devices with bimodal remote control functionality
JP4979570B2 (ja) * 2007-12-28 2012-07-18 パナソニック株式会社 電子機器の入力装置及び入力操作処理方法、並びに入力制御プログラム
US8196042B2 (en) * 2008-01-21 2012-06-05 Microsoft Corporation Self-revelation aids for interfaces
US8622742B2 (en) * 2009-11-16 2014-01-07 Microsoft Corporation Teaching gestures with offset contact silhouettes
US9747270B2 (en) * 2011-01-07 2017-08-29 Microsoft Technology Licensing, Llc Natural input for spreadsheet actions

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07168855A (ja) * 1993-09-21 1995-07-04 Toshiba Corp 情報記録再生装置
JP2000285080A (ja) * 1999-03-30 2000-10-13 Pfu Ltd 携帯情報端末及びそのプログラム記憶媒体
WO2003098960A1 (fr) * 2002-05-20 2003-11-27 Sony Corporation Systeme de traitement de donnees, dispositif de traitement de donnees et procede de traitement de donnees
JP2005317041A (ja) * 2003-02-14 2005-11-10 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2005223931A (ja) * 2005-02-14 2005-08-18 Sharp Corp ユーザ操作支援装置およびユーザ操作支援方法
JP2007208547A (ja) * 2006-01-31 2007-08-16 Ict Solutions:Kk インターネットテレビジョン装置、及びその簡単操作を実現するリモコン装置
JP2010193107A (ja) 2009-02-17 2010-09-02 Smk Corp リモートコントロール送信機

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TOMOKI WATANABE: "An appliance operation logging system with command relay devices", IEICE TECHNICAL REPORT, vol. 110, no. 141, 15 July 2010 (2010-07-15), pages 23 - 28, XP008171478 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014207828A1 (ja) * 2013-06-25 2014-12-31 富士通株式会社 情報処理装置およびプログラム
JP6004103B2 (ja) * 2013-06-25 2016-10-05 富士通株式会社 情報処理装置およびプログラム

Also Published As

Publication number Publication date
US9524095B2 (en) 2016-12-20
US20140040831A1 (en) 2014-02-06
CN103493001A (zh) 2014-01-01
EP2703972A1 (en) 2014-03-05
JP2012231249A (ja) 2012-11-22

Similar Documents

Publication Publication Date Title
WO2012147520A1 (ja) 表示制御装置、表示制御方法、およびプログラム
US9703471B2 (en) Selectively coordinated audio player system
US10423324B2 (en) Remote control device and method of controlling other devices using the same
KR101364849B1 (ko) 방향성 터치 원격 제어장치
US9513802B2 (en) Methods for displaying a user interface on a remote control device and a remote control device applying the same
US20100064255A1 (en) Contextual menus in an electronic device
KR20070072516A (ko) 적어도 하나의 미디어 데이터 처리 디바이스를 제어할 수있게 하는 장치 및 그 방법
CN103294337A (zh) 电子装置及控制方法
US8212707B2 (en) Remote control system and remote control signal processing method
US20160253087A1 (en) Apparatus and method for controlling content by using line interaction
JP2015038665A (ja) 電子機器、及び電子機器の制御方法
KR20070104130A (ko) 컨텐츠 목록 표시 방법 및 장치
KR102317619B1 (ko) 전자 장치 및 이의 제어 방법
KR20160032883A (ko) 디스플레이 장치 및 이의 인디케이터를 디스플레이하는 방법
KR20120023420A (ko) 컨텐츠 전환 방법 및 이를 수행하는 디스플레이 장치
KR20170072666A (ko) 디스플레이 장치, 원격 제어 장치 및 그 제어 방법
EP3051835B1 (en) Acoustic output device and control method thereof
KR102303286B1 (ko) 단말기 및 그의 동작 방법
US20170092334A1 (en) Electronic device and method for visualizing audio data
JP7420642B2 (ja) 動画再生装置および動画再生方法
KR102049461B1 (ko) 원격 조정 장치 및 원격 조정 장치에 의해 제어되도록 구성되는 디바이스
US20160364202A1 (en) Apparatus for outputting audio, driving method of apparatus for outputting audio, and non-transitory computer readable recording medium
KR101901232B1 (ko) 컨텐츠를 분할하여 표시하는 방법 및 장치
WO2012057174A1 (ja) タッチリモコン
KR102330475B1 (ko) 단말기 및 그의 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12777557

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012777557

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14112398

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE