WO2011080864A1 - 操作音ガイド装置及び操作音ガイド方法 - Google Patents

操作音ガイド装置及び操作音ガイド方法 Download PDF

Info

Publication number
WO2011080864A1
WO2011080864A1 PCT/JP2010/006636 JP2010006636W WO2011080864A1 WO 2011080864 A1 WO2011080864 A1 WO 2011080864A1 JP 2010006636 W JP2010006636 W JP 2010006636W WO 2011080864 A1 WO2011080864 A1 WO 2011080864A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
cursor
operation sound
sound
program
Prior art date
Application number
PCT/JP2010/006636
Other languages
English (en)
French (fr)
Inventor
智弘 小金井
順一 小谷
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to JP2011547253A priority Critical patent/JP5520318B2/ja
Priority to EP10840724.8A priority patent/EP2521352B1/en
Priority to US13/518,384 priority patent/US9154839B2/en
Priority to CN201080059585.4A priority patent/CN102687525B/zh
Publication of WO2011080864A1 publication Critical patent/WO2011080864A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/443OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/006Teaching or communicating with blind persons using audible presentation of the information
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/008Teaching or communicating with blind persons using visual presentation of the information for the partially sighted
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection

Definitions

  • the present invention relates to an operation sound guide device and an operation sound guide method that improve the operability at the time of program selection by controlling operation sounds accompanying cursor movement in an electronic program guide such as a digital television.
  • the tone and the pitch when the operation button is pressed for each level is changed to make it easy to identify the level currently being operated.
  • the pitch is changed according to the depth of the hierarchy.
  • Patent Document 2 when a user gets lost in an operation and reciprocates the same menu many times, when the cursor comes to the menu, a special explanation is output as a voice to help the user's operation. .
  • a counter for measuring the number of times designated by the cursor is prepared for each menu, and a special explanation is output when the count value exceeds a predetermined number.
  • the present invention has been made to solve such problems, and in the screen operation of an electronic program guide on which a large number of items are displayed, it is easy to grasp that the cursor has returned to the base position at the start of the cursor operation. It is an object of the present invention to provide an operation sound guide device and an operation sound guide method which are capable of being improved and have improved operability when selecting a program.
  • an operation sound guide device moves a cursor when selecting one information item by moving the cursor from among a plurality of displayed information items.
  • An operation sound guide device for notifying a previous information item with a specific voice comprising a plurality of information items, base point information indicating an information item of an initial position of the cursor, and current information indicating an information item of a cursor movement destination Storage unit for storing, operation information input unit for inputting operation information of a cursor, screen drawing processing unit for drawing a plurality of information items and a cursor, and video for superimposing a plurality of drawn information items and a cursor on a video signal
  • the signal superimposing unit, the operation sound generating unit that generates an operation sound when the cursor is operated, the audio signal superimposing unit that superimposes the generated operation sound on the audio signal, and the operation information input unit Based on the operation information of the cursor, the cursor is moved so that one information item is selected from a plurality of information items, the base point
  • the present invention in the screen operation of an electronic program guide on which a large number of items are displayed, it is possible to easily grasp that the cursor has returned to the base position at the start of the cursor operation, and the operability at the time of program selection is improved. can do. In particular, it is more effective when applied as an auxiliary guide for the speech reading process of a large number of items.
  • FIG. 1 is an explanatory view schematically showing an operation on an electronic program guide screen in an operation sound guide device to which the present invention is applied.
  • FIG. 2 is an explanatory view schematically showing another operation on the electronic program guide screen in the operation sound guide device to which the present invention is applied.
  • FIG. 3 is a block diagram illustrating a configuration example of the operation sound guide device according to the first embodiment of the present invention.
  • FIG. 4 is a flowchart showing the flow of processing operations in the first embodiment of the present invention.
  • FIG. 5 is a flowchart showing a detailed procedure of the comparison process in the flowchart of FIG.
  • FIG. 6 is an explanatory diagram schematically showing an operation on the electronic program guide screen in the operation sound guide device according to the second embodiment of the present invention.
  • FIG. 1 is an explanatory view schematically showing an operation on an electronic program guide screen in an operation sound guide device to which the present invention is applied.
  • FIG. 2 is an explanatory view schematically showing another operation on the electronic program guide screen in the
  • FIG. 7 is an explanatory diagram schematically showing an operation on the menu screen in the operation sound guide device according to the third embodiment of the present invention.
  • FIG. 8 is a flowchart showing a detailed procedure of the comparison process in the fourth embodiment of the present invention.
  • FIG. 9 is an explanatory diagram schematically showing an operation on the electronic program guide screen in the operation sound guide device according to the fourth embodiment of the present invention.
  • the operation sound guide device of the present invention corresponds to a normal digital television.
  • FIG. 1 is an explanatory diagram schematically showing the movement of a cursor on the electronic program guide screen realized by the operation sound guide device to which the present invention is applied and the result of the operation sound associated therewith.
  • Screens 1 to 4 show a simplified electronic program guide 100 for explanation.
  • a table of “9 o'clock” is formed.
  • a specific program in the electronic program guide 100 is visually designated by the cursor 110.
  • Screens 1 to 4 show how the cursor 110 sequentially moves in accordance with the movement operation of the cursor 110.
  • the screen when the electronic program guide 100 is activated is the screen 1, and the initial position of the cursor 110 at this time is a program in the 2 o'clock time zone of 2ch. This is the base point position.
  • the program at the base position is a program that is currently being broadcast at the broadcasting station that was viewed immediately before the electronic program guide screen was activated.
  • the cursor 110 moves to the program of the same time zone of 3ch on the right one (screen 2). Along with this operation, for example, a beep sound is output as shown in the drawing. Further, when the same right movement operation is performed, since 3ch is the right end in the drawing, it jumps back to 1ch on the left end (screen 3). At this time, the operation sound “beep” is output.
  • the cursor 110 moves to the program of the same time zone of 2ch adjacent to the right.
  • the base point position of the cursor 110 at the time of starting the electronic program guide is 2ch
  • the user is audibly informed that the user has returned to the broadcasting station at the base point position. Therefore, an operation sound “beep” different from normal is output.
  • the user can easily and audibly grasp that the cursor 110 has returned to 2ch, which was the broadcasting station at the base point position, as a result of the cursor movement operation.
  • the number of broadcasting stations is three.
  • terrestrial broadcasting of five to ten stations can be received, and BS satellite broadcasting and CS are also included in the same electronic program guide 100.
  • Satellite broadcasts and cable TV broadcasts are sometimes displayed at the same time, so it is not uncommon for the number of stations to reach tens. In such a case, of course, it is impossible to fit all the broadcasting stations into one screen. Therefore, the screen must be scrolled horizontally in accordance with the cursor operation, and the broadcasting stations are cycled. It is extremely useful in the cursor movement operation to sound an operation sound notifying that the station has returned to the base station.
  • the cursor 110 is only moved horizontally in the same time zone, but the operation sound is changed for the purpose of notifying the return to the broadcasting station at the base point position.
  • the screen when the electronic program guide 100 is activated is the screen 11, and the initial position of the cursor 110 at this time is a program in the 2 o'clock 7 o'clock time zone. This is the base point position.
  • the cursor 110 moves to the program of the same time zone of 3ch on the right one (screen 12). Along with this operation, a beep sound is output. Next, when a downward movement operation is performed, the cursor 110 moves to a time zone of 8 o'clock (screen 13). At this time, the operation sound “beep” is output.
  • the cursor 110 moves to the program of the 2 o'clock 8 o'clock time zone on the left (screen 14).
  • the base point position of the cursor 110 at the time of starting the electronic program guide is 2 ch, the user is audibly informed that the operation has returned to the broadcasting station at the base point position by the current operation of returning to the same 2 ch. Therefore, an operation sound “beep” different from normal is output.
  • FIG. 3 is a block diagram illustrating a configuration example of the operation sound guide device according to the present embodiment.
  • the operation sound guide device includes a tuner 201, a separation unit 202, a decoding processing unit 203, a video processing unit 204, an audio processing unit 205, a video signal superimposing unit 206, an audio signal superimposing unit 207, a video output unit 208, an audio output unit 209, Display unit 210, speaker 211, storage unit 212, control unit 213, screen drawing processing unit 214, operation sound ROM 215, operation sound generation unit 216, remote control 217, remote control light receiving unit (operation information input unit) 218, remote control code analysis unit 219 , A voice reading generation unit 220 is provided.
  • a tuner (receiver) 201 receives broadcast radio waves received by an antenna (not shown), performs amplification, channel selection, and demodulation, and extracts and separates digital data including video signals, audio signals, and attached data signals. To the unit 202.
  • the separation unit 202 receives the output of the tuner 201 and separates it into MPEG (Moving Picture Experts Group) data composed of video / audio signals and attached data including the electronic program guide 100.
  • the decode processing unit 203 decodes the MPEG data and outputs a video signal and an audio signal to the video processing unit 204 and the audio processing unit 205, respectively.
  • the video processing unit 204 performs various video processes such as brightness adjustment and color adjustment on the decoded video signal.
  • the audio processing unit 205 performs various audio processes such as volume adjustment and sound quality adjustment on the decoded audio signal.
  • the video signal superimposing unit 206 superimposes the video signal from the screen drawing processing unit 214 on the video signal from the video processing unit 204.
  • the audio signal superimposing unit 207 superimposes the audio signal from the operation sound generating unit 216 and the audio signal from the audio reading generation unit 220 on the audio signal from the audio processing unit 205.
  • the video output unit 208 converts the video signal from the video signal superimposing unit 206 into a predetermined display format and outputs it to the display unit 210.
  • the audio output unit 209 amplifies the audio signal from the audio signal superimposing unit 207 and outputs it to the speaker 211.
  • the display unit 210 is a display device, and for example, a liquid crystal display panel or a plasma display panel is used.
  • a speaker (sound generator) 211 is a normal audio speaker. Note that the speaker 211 is not limited to a single device, and may be configured by a plurality of devices in accordance with functions such as stereo driving, divisional driving using an audio frequency band, and surround reproduction driving.
  • the storage unit 212 stores the electronic program guide 100, the base point information of the cursor 110, and the current information of the cursor 110 included in the attached data extracted from the separation unit 202.
  • the control unit 213 extracts necessary information from the related information of the electronic program guide, moves the cursor display according to the operation of the remote controller 217, and controls the operation sound generation unit 216 by comparing the base point information of the cursor 110 with the current information. A series of operations in the operation sound guide device are controlled, such as outputting information of the program specified by the cursor 110 to the voice reading generation unit 220.
  • the screen drawing processing unit 214 generates and outputs an image in which the electronic program guide 100 and the cursor 110 are drawn.
  • the operation sound ROM 215 stores operation sound generation data.
  • the operation sound generation unit 216 reads necessary data from the operation sound ROM 215 under the control of the control unit 213 and generates an operation sound.
  • the voice reading generation unit 220 generates a voice signal from the character information input under the control of the control unit 213.
  • the remote controller 217 is a device for operating the operation sound guide device using infrared communication or the like, and operates the cursor position movement on the electronic program guide 100 using the up / down / left / right movement operation keys or the like.
  • a remote control light receiving unit (operation information input unit) 218 receives the infrared signal from the remote control 217 and converts it into an electrical signal.
  • the remote control code analysis unit 219 analyzes the remote control signal and transmits the operation contents of the user to the control unit 213.
  • the operation sound guide device in the present embodiment operates as follows. First, in the reproduction of a broadcast program, the video of the program is reproduced on the display unit 210 through the tuner 201, the separation unit 202, the decoding processing unit 203, the video processing unit 204, the video signal superimposing unit 206, and the video output unit 208. Similarly, the audio of the program is reproduced by the speaker 211 through the tuner 201, the separation unit 202, the decoding processing unit 203, the audio processing unit 205, the audio signal superimposing unit 207, and the audio output unit 209.
  • the control unit 213 performs activation processing of the electronic program guide 100, and the screen drawing processing unit 214 draws the electronic program guide 100 and the cursor 110.
  • base point information is stored in the storage unit 212 based on the initial cursor position.
  • the base point information is broadcast station information (service ID) that was selected and watched immediately before.
  • the program selection cursor movement operation of the remote controller 217 is performed.
  • the remote control code analysis unit 219 analyzes the operation and notifies the control unit 213 of a right movement request for the cursor 110.
  • the control unit 213 performs cursor movement processing, and the screen drawing processing unit 214 draws an image obtained by moving the cursor 110 to the destination program.
  • the control unit 213 reads the base point information from the storage unit 212 at the same time as the drawing process for drawing the image in which the cursor is moved to the destination program. It is determined whether or not the broadcast station information after the cursor movement matches the broadcast station information of the base point information, and if not, the operation sound generation unit 216 is notified to generate a normal operation sound for cursor movement. If they match, the operation sound generation unit 216 is notified to generate a specially prepared operation sound for moving the cursor for the base point.
  • the operation sound generation unit 216 reads the corresponding operation sound data from the operation sound ROM 215 depending on whether the request from the control unit 213 is for normal use or for the base point, generates operation sound, and outputs the operation sound to the audio signal superimposing unit 207 To do.
  • a special operation sound is generated to notify the cursor 110 when it returns to the broadcasting station corresponding to the initial position (base point). Can do.
  • FIG. 4 is a flowchart showing the above operation. The following operations are executed by each processing unit based on instructions from the control unit 213.
  • the control unit 213 receives the electronic program guide start request in step S101 and starts processing.
  • the electronic program guide 100 is read from the storage unit 212, drawn by the screen drawing processing unit 214, and displayed on the display unit 210.
  • step S103 information related to the program at the cursor position in the initial state is written in the storage unit 212 as base point information.
  • the base point information is broadcast station information that was selected and watched immediately before.
  • step S104 the presence / absence of a cursor movement operation is determined based on information from the remote control code analysis unit 219. If there is no cursor movement operation (“No” in step S104), the process waits, and if there is a cursor movement operation (step S104). In the case of “Yes”, the process proceeds to step S105.
  • step S105 the cursor 110 is moved on the electronic program guide 100 based on the cursor movement operation, and information (the broadcast station information this time) related to the program corresponding to the new cursor position is read as current information and written into the storage unit 212. . Therefore, the current information written in the storage unit 212 is (broadcast station) information after the cursor is moved.
  • step S106 the electronic program guide 100 corresponding to the moved cursor 110 is drawn and displayed.
  • step S107 the base point information stored in the storage unit 212 is compared with the current information, and an operation sound corresponding to the result is selected and generated.
  • the generated operation sound is output in step S108 and reproduced from the speaker 211.
  • voice reading of the electronic program guide 100 is started in step S109.
  • the control unit 213 outputs information related to the program corresponding to the cursor position (for example, information on broadcast station information, broadcast time information, program title, etc.) as character information to the voice reading generation unit 220, and generates voice reading.
  • Unit 220 generates an audio signal from the character information, and outputs the generated audio signal to audio signal superimposing unit 207.
  • the audio signal superimposing unit 207 superimposes the audio signal from the audio reading generation unit 220 on the audio signal from the audio processing unit 205 and outputs the superimposed audio signal to the audio output unit 209.
  • voice reading is started in this manner, the process returns to step S104 to wait for the next cursor movement operation. For this reason, if the cursor movement operation is performed between the start and end of the voice reading of the electronic program guide after the cursor is moved, the interruption processing of steps S105 to S108 is performed even during the voice reading. (Intermediate reading process is interrupted).
  • the next cursor movement operation can be performed until the voice reading of the electronic program guide 100 is completed, and the voice reading of the next program guide can be heard.
  • the program guide key is pressed again by the remote controller 217 or when a user requests viewing of a specific program, the electronic program guide is deleted, and the processing in FIG. 4 is terminated.
  • FIG. 5 is a flowchart showing the operation of step S107 in FIG.
  • the comparison process is started in step S201, first, in step S202, the current information (the broadcast station information of the program corresponding to the current cursor position) and the base point information (the broadcast station information at the time of starting the electronic program guide) are compared. The If they are different (in the case of “No” in step S202), the process proceeds to step S203, and normal operation sound data (second operation sound) is acquired from the operation sound ROM 215. On the other hand, if the current information and the base point information match (in the case of “Yes” in step S202), the process proceeds to step S204, and operation sound data for the base point (first operation sound) is acquired from the operation sound ROM 215. Finally, in step S205, the operation sound generation unit 216 generates corresponding sound data, completes a series of comparison processes, and proceeds to the sound output process in step S108.
  • Various methods can be used to distinguish operation sounds, such as changing the number of short buzzer sounds, changing the length of successive buzzer sounds, changing the volume, changing the pitch, changing the tone, etc. In some cases, it is possible to distinguish that the normal operation sound is not sounded and only the operation sound for the base point is sounded.
  • a guidance sound is sent to inform the user. It is also possible to assist the user's operation. This will be described in another embodiment.
  • the operation sound guide device of the present embodiment when searching for a program to be viewed on the electronic program guide screen by a cursor moving operation using the remote control, the program corresponding to the position where the cursor was first located is searched. Since the broadcast station can be easily grasped, the operability of the electronic program guide can be greatly improved. This is particularly useful for people with visual impairments.
  • Embodiment 2 an operation sound guide device according to Embodiment 2 of the present invention will be described.
  • the base point information is the broadcast station information of the program specified by the initial position of the cursor, even if the cursor reaches the program of any time zone of the broadcast station in the electronic program guide, An operation sound indicating that it was returned was generated.
  • the cursor 110 is an initial program of 2ch at 7 o'clock, but even if the cursor 110 subsequently returns to the program of any time zone from 2 o'clock to 6 o'clock, the channel of 2ch Since the broadcast station is the base point information, in any case, the operation sound when returning to the base point is sounded.
  • the operation sound for returning to the base point is sounded only when returning to the program position at 7 o'clock of 2ch. Since the user can grasp that he / she has returned to the initial position including not only the broadcasting station but also the program time zone, he / she can know more detailed return to the base point.
  • FIG. 3 showing the configuration of the apparatus and FIGS. 4 and 5 showing the processing procedure can be implemented as they are.
  • FIG. 6 is an explanatory diagram schematically showing the movement of the cursor on the electronic program guide screen realized by the operation sound guide device in the present embodiment and the result of the operation sound associated therewith.
  • the special operation sound “pipi” that informs the user that the cursor has returned to the base point is displayed. Is generated.
  • the normal operation sound is set to “beep”, the operation sound when the return to the same broadcasting station as the initial position is played twice, and the operation sound when the return to the same position as the program at the initial position is further performed. If it is made “buzzy” frequently, the user can grasp the detailed cursor position situation from the operation sound.
  • the operation sound guide device of the present embodiment since not only the broadcasting station information but also the time information is combined as a base point, it is possible to grasp that the program has returned to the initially selected program itself, and the electronic program guide The operability can be further improved.
  • the base point is the program of the broadcast station that was viewed immediately before starting the electronic program guide screen.
  • a favorite broadcast station registered in advance by the user or a favorite program is set as the base point. It is also possible to do.
  • Embodiment 3 Next, an operation sound guide device according to Embodiment 3 of the present invention will be described.
  • the screen of the electronic program guide is targeted, but in the present embodiment, the menu screen is targeted.
  • FIG. 7 is an explanatory diagram schematically showing the movement of the cursor on the menu screen realized by the operation sound guide device to which the present invention is applied and the result of the operation sound associated therewith.
  • Screens 31 to 35 are simplified menu screens for explanation, and menu items “item 1” to “item 4” are formed in the vertical axis direction.
  • Screens 31 to 35 show how the cursor sequentially moves in accordance with the cursor movement operation.
  • the screen when the menu screen is activated is the screen 31.
  • the initial position of the cursor is the item 2 menu. This is the base point position.
  • the menu item that is the base point position is the menu item that is selected immediately before the previous menu screen is terminated, but the menu item 1 that is the first item on the menu screen may be the base point position.
  • the cursor moves to the next item 2 menu (screen 35).
  • the base point position of the cursor at the time of starting the menu screen is the item 2, in this operation returning to the same item 2, the user is audibly informed of the return to the base point position menu.
  • a different operation sound “beep” is output.
  • the user can easily and audibly grasp that the cursor has returned to the menu item 2 which was the menu at the base point position as a result of the cursor movement operation.
  • the number of menu items is four.
  • the number of menu items is not limited to this, and more menu items may be provided.
  • the menu screen that can be circulated in the vertical direction has been described in the present embodiment, the same effect can be obtained by the same processing for the menu screen that can be circulated in the horizontal direction.
  • the electronic program guide may be replaced with a menu screen, and the control unit 213 may execute these flowcharts. It should be noted that in the voice reading in step S109, the reading of the menu item is disclosed in place of the electronic program guide.
  • the operation sound guide device of the present embodiment when searching for a menu (image quality adjustment, sound quality adjustment, etc.) to be performed by a cursor moving operation using the remote control on the menu screen, the cursor was first. Since the menu items corresponding to the positions can be easily grasped, the operability of the menu can be greatly improved. This is particularly useful for people with visual impairments.
  • an operation sound (loop sound) different from the normal operation sound and the operation sound returned to the base position may be output.
  • FIG. 9 is an explanatory diagram schematically showing the movement of the cursor on the electronic program guide screen realized by the operation sound guide device to which the present invention is applied and the result of the operation sound associated therewith.
  • Screens 41 to 44 show a simplified electronic program guide 100 for the sake of explanation.
  • a table of “23:00” is formed. It should be noted that this broadcasting time is a time one week after the present, and there is no electronic program guide after 24 o'clock (that is, eight o'clock ahead), so it does not exist. Since there is no past electronic program guide, cursor movement that moves to a time zone earlier than the current time zone is not allowed.
  • Such a specific program in the electronic program guide 100 seven days from now is visually designated by the cursor 110.
  • Screens 41 to 44 show how the cursor 110 sequentially moves in accordance with the movement operation of the cursor 110.
  • the screen when the electronic program guide 100 is activated is the screen 41.
  • the initial position of the cursor 110 is a program in the time zone of 1ch at 21:00. This is the base point position.
  • the cursor 110 moves to the program at the 22:00 time zone of the same channel 1 down (screen 42). Along with this operation, for example, a beep sound is output as shown in the drawing.
  • the cursor 110 moves to the program of the same 1ch, which is one channel down, at the 23:00 time zone (screen 43). Along with this operation, for example, a beep sound is output as shown in the drawing.
  • Cursor 110 does not move even if the downward movement operation is continued. This is because, as described above, there is no electronic program guide for the subsequent time zones, and therefore the downward movement of the cursor is not permitted. For such an unacceptable cursor operation, in order to audibly inform the user that the cursor cannot move, both the normal operation sound “beep” and the operation sound “beep” indicating that the cursor has returned to the base position are displayed. A different operation sound “Buzz” is output. As a result, the user can easily and audibly grasp that the cursor cannot be moved.
  • FIG. 8 is a flowchart showing the operation of step S107 in FIG. If the comparison process is started in step S301 and the current information and the base point information are different (in the case of “No” in step S202), the process proceeds to step S302, and it is determined whether or not the cursor can be moved. If the cursor is movable (“Yes” in step S302), the process moves to step S203. On the other hand, if the cursor is not movable (“No” in step S302), the process moves to step S303. In step S303, the operation sound data for the end (third operation sound) that is neither the normal operation sound data (second operation sound) nor the base operation sound data (first operation sound) is used as the operation sound. Obtained from ROM 215. As a method for distinguishing operation sounds, for example, the operation sound for termination can be set to a sound that gives a warning.
  • the operation sound guide device of the present embodiment when searching for a program to be viewed by a cursor movement operation using a remote control on the electronic program guide screen, it can be easily grasped that the cursor cannot be moved, The operability of the electronic program guide can be greatly improved. This is particularly useful for people with visual impairments.
  • the present embodiment can be applied to a menu screen, and can be combined with other embodiments.
  • broadcasting station information (service ID), program time information, or menu item information is used as the base point information determination means.
  • service ID service ID
  • program time information program time information
  • menu item information is used as the base point information determination means.
  • each column or menu item of the electronic program guide is used.
  • An index value may be assigned to each row, and the determination may be made based on the index value. Further, it may be determined by channel preset information set uniquely for each broadcasting station.
  • the present invention is useful when selecting a desired program by moving the cursor on the screen of an electronic program guide on which a large number of programs are displayed, and can be widely applied to video equipment that handles an electronic program guide. . Furthermore, it can be widely used not only for electronic program guides but also for operation terminals that display a large number of menus.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Educational Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

 カーソル操作開始時の基点位置に関する情報を記憶部(212)に記憶し、リモコン(217)よりカーソル移動の操作を受け付けると、記憶部(212)からカーソルの基点位置に関する情報を読み出し、移動後のカーソル位置に関する情報と比較することによって、カーソルが基点位置に戻ったことを検出する。この場合には操作音生成部(216)は通常の操作音とは異なる操作音を操作音ROM(215)から読み出して音声信号重畳部(207)で音声信号に重畳してスピーカ(211)から出力する。これにより、使用者はカーソルが基点位置に戻ったことを容易に把握できる。

Description

操作音ガイド装置及び操作音ガイド方法
 本発明は、デジタルテレビ等の電子番組表でカーソル移動に伴う操作音を制御して、番組選択の際の操作性を向上した操作音ガイド装置及び操作音ガイド方法に関する。
 民生用および業務用の電子機器は、内蔵されるマイクロプロセッサ等の性能向上に伴い、その機能が飛躍的に向上した結果、それを操作する入力方法も従来の機械式押しボタンでは対応しきれず、操作画面と押しボタンの組み合わせ、あるいはタッチパネル方式の操作画面が多用されるようになった。また操作画面を階層構造にすることによって、機能を整然とグループ化して、複雑になりがちな操作を分かりやすくするように工夫されている。
 一方、このような操作画面を用いた入力操作では、視覚障害を持つ使用者はその操作画面が見えない、あるいは見づらいため、項目内容を説明する音声の補助を伴いながら操作できるようにした装置が利用されている。しかしながら、画面中の多数の候補項目や、複数階層から構成される多数の画面の中で、音声情報だけの補助では必ずしも十分な補助とは言えず、同じ項目を何度も往復したり、複数階層のどこにいるのかを判別しにくくなったりするという問題が生じていた。
 そこでこのような問題を解決ないしは緩和させるために、例えば特許文献1では、階層ごとに操作ボタンを押した時の音色や音程を変えて、現在操作中の階層を識別しやすくさせている。例えば階層の深さに応じて音程の高さを変えるようにしている。
 また特許文献2では、使用者が操作に迷って同じメニューを何度も往復した時に、そのメニューにカーソルがくると、特別の説明を音声出力して、使用者の操作を助けるようにしている。メニューごとにカーソルで指定される回数を計測するカウンタを用意しておき、その計数値が所定の回数を超えると、特別の説明を出力するようにしている。
特開2004-288073号公報 特開2005-234818号公報
 前述のように、特許文献1による方法を用いれば、視覚障害を持つ使用者も、操作画面において現在どの階層の画面が表示されているのかを出力音との関係で知ることができるので、階層を知ることによって操作性の向上に役立つような機器の操作においては一定の効果があると考えられる。しかしこの方法では、把握できるのはあくまでも階層であり、すなわちどの種類の操作画面が出ているかを知るにとどまっているため、画面中の特定のメニューを区別して把握することはできない。また、テレビ画面上の電子番組表のように、表示すべき項目は非常に多いが、画面自体は一枚であって上下左右にスクロールしながら目的のメニュー(電子番組表の場合は特定の番組)を探すような場合は、階層(グループ化)という設定がないため、特許文献1による方法は利用できない。
 また特許文献2による方法を用いれば、操作画面上で迷って、同じ場所を何度も往復してしまっているような場合に、その場所(メニュー)を音声で知らせることによって、どこで迷っているのかを視覚障害を持つ使用者に知らせることができる。使用者はその場所、すなわち現在地を知ることにより、本来の目的メニューを探しなおすヒントとして参考にすることができる。しかしこの方法は、迷った場所の把握であって、その位置と本来の目的メニューとの相対的な位置関係を把握できている場合には参考になるが、把握できていることはむしろ一般的には可能性が低いので、実用上大きな効果は期待できない。
 本発明はこのような課題を解決するためになされたものであり、多数の項目が表示された電子番組表の画面操作において、カーソル操作開始時の基点位置にカーソルが戻ったことを容易に把握できるようにし、番組選択時の操作性を向上した操作音ガイド装置及び操作音ガイド方法を提供することを目的とするものである。
 上記目的を達成するために、本発明のある局面に係る操作音ガイド装置は、表示された複数の情報項目の中から、カーソルを移動させて1の情報項目を選択する際に、カーソルの移動先の情報項目を特定の音声で知らせる操作音ガイド装置であって、複数の情報項目と、カーソルの初期位置の情報項目を示す基点情報と、カーソルの移動先の情報項目を示す現在情報とを記憶する記憶部と、カーソルの操作情報を入力する操作情報入力部と、複数の情報項目およびカーソルを描画する画面描画処理部と、描画された複数の情報項目およびカーソルを映像信号に重畳する映像信号重畳部と、カーソルが操作された時に操作音を生成する操作音生成部と、生成された操作音を音声信号に重畳する音声信号重畳部と、操作情報入力部に入力されたカーソルの操作情報に基づいて、複数の情報項目の中から1の情報項目が選択されるようにカーソルを移動させ、記憶部から基点情報および現在情報を読み出して比較し、一致した場合には第1の操作音を、一致しない場合には第2の操作音を操作音生成部に生成させる制御部と、を備えたことを特徴とする。
 このような構成により、デジタルテレビにおけるメニュー項目または電子番組表のように、表示項目数の多い画面における操作であっても、操作開始時の基点位置を容易に把握できるので、番組選択時の操作性を向上することができる。
 本発明によれば、多数の項目が表示された電子番組表の画面操作において、カーソル操作開始時の基点位置にカーソルが戻ったことを容易に把握できるようにし、番組選択時の操作性を向上することができる。特に、多数の項目の音声読上げ処理の補助的なガイドとして適用する場合、更に効果的である。
図1は、本発明を適用する操作音ガイド装置における電子番組表画面上の動作を模式的に示す説明図である。 図2は、本発明を適用する操作音ガイド装置における電子番組表画面上の他の動作を模式的に示す説明図である。 図3は、本発明の実施の形態1における操作音ガイド装置の構成例を示すブロック図である。 図4は、本発明の実施の形態1における処理動作の流れを示すフローチャートである。 図5は、図4のフローチャートにおける比較処理の詳細手順を示すフローチャートである。 図6は、本発明の実施の形態2における操作音ガイド装置における電子番組表画面上の動作を模式的に示す説明図である。 図7は、本発明の実施の形態3における操作音ガイド装置におけるメニュー画面上の動作を模式的に示す説明図である。 図8は、本発明の実施の形態4における比較処理の詳細手順を示すフローチャートである。 図9は、本発明の実施の形態4における操作音ガイド装置における電子番組表画面上の動作を模式的に示す説明図である。
 以下、本発明の実施の形態における操作音ガイド装置について、図面を参照しながら説明する。なお、本発明の操作音ガイド装置は通常のデジタルテレビに相当する。
 (実施の形態1)
 図1は本発明を適用する操作音ガイド装置によって実現される電子番組表画面上のカーソルの動きと、それに伴う操作音の結果を模式的に示した説明図である。画面1~画面4は説明のために簡素化した電子番組表100を示しており、横軸方向にデジタルテレビの放送局「1ch」~「3ch」、また縦軸方向に放送時間「6時」~「9時」の表が形成されている。
 またこの電子番組表100中の特定の番組がカーソル110によって視覚的に指定されている。カーソル110の移動操作に伴ってカーソル110が順に移動していく様子が、画面1~画面4に示されている。電子番組表100を起動した時の画面が画面1であり、この時カーソル110の初期位置は、2chの7時の時間帯の番組である。これが基点位置となる。通常、基点位置となる番組は、電子番組表画面を起動する直前に視聴していた放送局において現在放送されている番組である。
 ここから使用者がカーソル移動操作により、右移動操作を行うと、カーソル110は1つ右隣の3chの同じ時間帯の番組に移る(画面2)。この操作に伴い、例えば図面のように電子音「ピッ」という音が出力される。さらに同じ右移動操作を行うと、図面では3chが右端なので左端の1chに飛んで戻る(画面3)。この時も操作音「ピッ」が出力される。
 さらに右移動操作を継続すると、カーソル110は右隣の2chの同じ時間帯の番組に移動する。前述のように電子番組表起動時のカーソル110の基点位置は2chであったので、同じ2chに戻ってきた今回の操作では、基点位置の放送局に戻ったことを使用者に聴覚的に知らせるために、通常とは異なる操作音「ピピッ」を出力する。これにより使用者はカーソル移動操作の結果、基点位置の放送局であった2chにカーソル110が戻ったことを聴覚的に容易に把握できる。
 図1では説明の便宜上、放送局数は3局としたが、実際のデジタルテレビ放送では5局~10局の地上放送が受信可能であり、さらに同じ電子番組表100内にBS衛星放送やCS衛星放送、さらにケーブルテレビ放送の番組表も一斉に表示する場合もあるので、局数は数十に及ぶこともまれではない。このような場合は、当然ながら全ての放送局分を1つの画面内に収めることが不可能となるので、カーソル操作に伴って、画面を横にスクロールしなければならず、放送局を一巡して基点位置の放送局に戻ったことを知らせる操作音を鳴らすことがカーソル移動操作において極めて有用である。
 図1ではカーソル110の移動は同じ時間帯を水平に移動しただけであったが、基点位置の放送局に戻ったことを知らせることを目的として操作音を変えているので、例えば図2のように、途中で時間帯を変えて2chに戻った場合も、図1と同様に異なる操作音で基点位置の放送局に戻ったことを知らせるものとする。図2では、電子番組表100を起動した時の画面が画面11であり、この時カーソル110の初期位置は、2chの7時の時間帯の番組である。これが基点位置となる。
 ここから使用者がカーソル移動操作により、右移動操作を行うと、カーソル110は1つ右隣の3chの同じ時間帯の番組に移る(画面12)。この操作に伴い、電子音「ピッ」という音が出力される。次に下移動操作を行うと、カーソル110は8時の時間帯に移る(画面13)。この時も操作音「ピッ」が出力される。
 その後に左移動操作を行うと、カーソル110は左隣の2chの8時の時間帯の番組に移動する(画面14)。前述のように電子番組表起動時のカーソル110の基点位置は2chであったので、同じ2chに戻ってきた今回の操作で、基点位置の放送局に戻ったことを使用者に聴覚的に知らせるために、通常とは異なる操作音「ピピッ」を出力する。
 図3は本実施の形態における操作音ガイド装置の構成例を示すブロック図である。操作音ガイド装置は、チューナ201、分離部202、デコード処理部203、映像処理部204、音声処理部205、映像信号重畳部206、音声信号重畳部207、映像出力部208、音声出力部209、表示部210、スピーカ211、記憶部212、制御部213、画面描画処理部214、操作音ROM215、操作音生成部216、リモコン217、リモコン受光部(操作情報入力部)218、リモコンコード解析部219、音声読み上げ生成部220を備えている。
 チューナ(受信部)201はアンテナ(図示せず)で受信した放送電波を入力し、増幅、選局、復調を行って、映像信号、音声信号、付属データ信号からなるデジタルデータを取り出して、分離部202へ出力する。
 分離部202はチューナ201の出力を受取り、映像・音声信号からなるMPEG(Moving Picture Experts Group)データと電子番組表100を含む付属データとに分離する。デコード処理部203はMPEGデータを復号して映像信号、音声信号をそれぞれ映像処理部204、音声処理部205へ出力する。
 映像処理部204は復号された映像信号に対して輝度調整、色調整等の各種映像処理を行う。音声処理部205は復号された音声信号に対して音量調整、音質調整等の各種音声処理を行う。
 映像信号重畳部206は映像処理部204からの映像信号に画面描画処理部214からの映像信号を重畳する。音声信号重畳部207は音声処理部205からの音声信号に操作音生成部216からの音声信号や音声読み上げ生成部220からの音声信号を重畳する。
 映像出力部208は映像信号重畳部206からの映像信号を所定の表示フォーマットに変換して表示部210に出力する。音声出力部209は音声信号重畳部207からの音声信号を増幅してスピーカ211に出力する。表示部210は表示デバイスであり、例えば液晶表示パネルやプラズマ表示パネルが使用される。スピーカ(音声発生部)211は通常のオーディオスピーカである。なおスピーカ211は単一のデバイスとは限らず、ステレオ駆動、音声周波数帯域による分割駆動、サラウンド再生駆動等の機能に応じて複数個のデバイスで構成してもよい。
 記憶部212は分離部202から取り出される付属データに含まれる電子番組表100、およびカーソル110の基点情報、カーソル110の現在情報を保存する。制御部213は電子番組表の関連情報から必要な情報を取り出す、リモコン217の操作に応じてカーソル表示を移動する、カーソル110の基点情報と現在情報を比較して操作音生成部216を制御する、カーソル110で特定される番組の情報を音声読み上げ生成部220に出力する等、操作音ガイド装置内の一連の動作を制御する。
 画面描画処理部214は電子番組表100とカーソル110を描画した画像を生成して出力する。操作音ROM215は操作音生成用のデータを保存する。操作音生成部216は制御部213の制御にしたがって操作音ROM215から必要なデータを読み込んで操作音を生成する。音声読上げ生成部220は制御部213の制御にしたがって入力された文字情報から音声信号を生成する。
 リモコン217は赤外線通信等を用いて操作音ガイド装置を操作するための装置であり、上下左右の移動操作キー等を用いて電子番組表100上のカーソル位置移動を操作する。リモコン受光部(操作情報入力部)218はリモコン217からの赤外線信号を受信して電気信号に変換する。リモコンコード解析部219はリモコン信号を解析して使用者の操作内容を制御部213に伝える。
 上記のような構成のもとで、本実施の形態における操作音ガイド装置は、次のように動作する。まず放送番組の再生において、番組の映像は、チューナ201、分離部202、デコード処理部203、映像処理部204、映像信号重畳部206、映像出力部208を通って表示部210で再生される。同様に番組の音声は、チューナ201、分離部202、デコード処理部203、音声処理部205、音声信号重畳部207、音声出力部209を通ってスピーカ211で再生される。
 一方、リモコン217で番組表キーが押されるとリモコンコード解析部219で操作を解析して制御部213に電子番組表起動要求が通知される。制御部213は電子番組表100の起動処理を行い、画面描画処理部214で電子番組表100とカーソル110を描画する。その時点で初期カーソル位置に基づいて基点情報を記憶部212に収納する。ここで基点情報は直前に選局、視聴していた放送局情報(サービスID)である。
 次にリモコン217の番組選択カーソル移動操作が行われる。例えば右移動キーが押されると、リモコンコード解析部219で操作を解析して、制御部213にカーソル110の右移動要求が通知される。制御部213はカーソル移動処理を行い、移動先の番組にカーソル110を移動した画像を画面描画処理部214で描画する。
 制御部213は、移動先の番組にカーソルを移動した画像を描画する描画処理と同時に記憶部212より基点情報を読み込む。カーソル移動後の放送局情報が基点情報の放送局情報と一致するかどうかを判定し、一致しない場合はカーソル移動の通常の操作音を発生させるように操作音生成部216に通知する。一致した場合は、特別に用意された基点用のカーソル移動の操作音を発生させるように操作音生成部216に通知する。
 操作音生成部216は、制御部213からの要求が通常用か基点用かに応じて、対応する操作音データを操作音ROM215から読み込んで、操作音を生成し、音声信号重畳部207に出力する。
 このような動作により、使用者が電子番組表画面上でカーソル移動を行う際に、初期位置(基点)に対応した放送局にカーソル110が戻った時にそれを知らせる特別の操作音を発生することができる。
 図4は上記の動作を示すフローチャートである。以下の動作は制御部213の指示に基づいて各処理部により実行される。まずリモコン217によって番組表キーが押されると、制御部213はステップS101で電子番組表起動要求を受信して処理を開始する。引き続きステップS102で電子番組表100が記憶部212から読み出されて、画面描画処理部214により描画されて表示部210に表示される。次にステップS103で初期状態におけるカーソル位置の番組に関連する情報が基点情報として記憶部212に書き込まれる。基点情報は前述したように直前に選局、視聴していた放送局情報である。
 ステップS104においてはリモコンコード解析部219からの情報によりカーソル移動操作の有無を判定し、カーソル移動操作がなければ(ステップS104で「No」の場合)待機し、カーソル移動操作があれば(ステップS104で「Yes」の場合)、ステップS105に移る。ステップS105では、カーソル移動操作に基づいてカーソル110を電子番組表100で移動させ、新たなカーソル位置に対応した番組に関する情報(今回は放送局情報)を現在情報として読み込んで、記憶部212に書き込む。このため、記憶部212に書き込まれる現在情報は、カーソル移動後の(放送局)情報である。ステップS106で移動後のカーソル110に対応した電子番組表100を描画、表示する。
 次にステップS107において、記憶部212に保存された基点情報と現在情報を比較して、その結果に応じた操作音を選択、生成する。この部分の動作については図5で詳しく述べる。生成された操作音はステップS108で出力処理されてスピーカ211から再生される。操作音が出力された後、ステップS109において、電子番組表100の音声読み上げを開始する。具体的には、制御部213がカーソル位置に対応した番組に関する情報(例えば、放送局情報、放送時間情報、番組タイトル等の情報)を文字情報として音声読み上げ生成部220へ出力し、音声読上げ生成部220は文字情報から音声信号を生成し、生成した音声信号を音声信号重畳部207へ出力する。音声信号重畳部207は、音声処理部205からの音声信号に音声読み上げ生成部220からの音声信号を重畳して音声出力部209へ出力する。このようにして音声読み上げが開始されると、ステップS104に戻って次のカーソル移動操作を待つ。このため、カーソル移動後の電子番組表の音声読み上げが開始されて終了するまでにカーソルの移動操作が行われると、音声読み上げの途中であっても、ステップS105~ステップS108の割り込み処理が行われる(途中の読み上げ処理は中断される)。後述するように、基点位置まで戻った時の操作音は通常の操作音と異ならせているため、操作音の違いで基点位置に戻ったことを認識したユーザは(基点位置の番組情報は既に聞いている)、電子番組表100の音声読み上げが終了するまでに、次のカーソル移動操作を行い、次の番組表の音声読み上げを聞くことができる。なお、リモコン217によって再度番組表キーが押された場合やユーザから特定番組の視聴要求がなされた場合は電子番組表を消去し、図4の処理を終了する。
 図5は、図4におけるステップS107の動作をさらに詳しいステップに分解して表わしたフローチャートである。ステップS201で比較処理が開始されると、まずステップS202で、現在情報(現在のカーソル位置に対応する番組の放送局情報)と、基点情報(電子番組表起動時の放送局情報)が比較される。異なっていれば(ステップS202で「No」の場合)、ステップS203に移り通常用の操作音データ(第2の操作音)を操作音ROM215から取得する。一方、現在情報と基点情報が一致すれば(ステップS202で「Yes」の場合)、ステップS204に移り基点用の操作音データ(第1の操作音)を操作音ROM215から取得する。最後にステップS205で操作音生成部216により、それぞれに対応した音声データを生成して一連の比較処理を完了させ、ステップS108の音声出力処理へ移行する。
 操作音の区別の方法としては、例えば短いブザー音を鳴らす回数を変える、連続するブザー音の長さを変える、音量を変える、音程を変える、音色を変える等、多様な方法が採用可能であり、場合によっては、通常の操作音は鳴らさず、基点用の操作音のみを鳴らすという区別も可能である。
 またカーソルが電子番組表画面上の右端または左端に達して、逆側の端にループ移動した時、あるいはそれらの左右端の位置または上下端の位置でそれ以上進めない時にそれを知らせる案内音を出して使用者の操作を補助することも可能である。これについては、他の実施の形態において説明する。
 このように本実施の形態の操作音ガイド装置によれば、電子番組表画面上でリモコンを使ったカーソル移動操作により見たい番組を探す場合に、カーソルが最初にあった位置に対応する番組の放送局を容易に把握できるので、電子番組表の操作性を大幅に改善できる。特に、視覚障害を持つ人の場合には有用である。
 (実施の形態2)
 次に本発明の実施の形態2における操作音ガイド装置について説明する。前述の説明では、基点情報はカーソルの初期位置が指定する番組の放送局情報であったので、カーソルが電子番組表におけるその放送局のいずれの時間帯の番組に到達しても、全て基点に戻ったことを示す操作音を発生させていた。図1の例で説明すると、カーソル110の初期位置が2chの7時の番組であるが、カーソル110がその後、2chの6時~9時のいずれの時間帯の番組に戻っても、2chの放送局が基点情報であるので、どの場合も基点に戻った場合の操作音を鳴らすことにしている。このような場合に、例えば視覚障害の人が基点情報に基づいて視聴中の番組を選択する場合に、まだ放送されていない将来番組を選択してしまい、番組を視聴スタートしても番組がスタートしないというような不都合も考えられる。
 これに対して、基点としてカーソルの初期位置に対応する番組だけを基点情報として動作させることも可能である。この場合は、図1の例であると、2chの7時の番組位置に戻った時のみ基点復帰の操作音を鳴らすことになる。使用者は放送局だけでなく番組の時間帯も含めて初期位置に戻ったことを把握できるので、より詳細な基点復帰を知ることができる。
 これを実現するには、カーソルの初期位置で指定された番組の基点情報として、その番組の放送局情報だけではなく、番組が放送される時間情報も合わせて保存する。カーソル移動後の現在情報も同様に、その時のカーソル位置で指定された番組の放送局情報および時間情報を読み込み、基点情報と比較することになる。したがって装置の構成を示す図3や、処理の手順を示す図4、図5はそのままで実施できる。
 図6は本実施の形態における操作音ガイド装置によって実現される電子番組表画面上のカーソルの動きと、それに伴う操作音の結果を模式的に示した説明図である。図6に示すように、初期カーソル位置画面の画面21で示される2chの7時の番組と同じ位置にカーソルが戻ってきた画面25の時に、基点に戻ったことを知らせる特別の操作音「ピピッ」を発生させる。
 さらに実施の形態1と実施の形態2を組み合わせた機能も考えられる。すなわち通常の操作音を「ピッ」とし、初期位置と同じ放送局に戻った時の操作音を2度鳴らしの「ピピッ」、さらに初期位置の番組と同じ位置に戻った時の操作音を3度鳴らしの「ピピピッ」にすれば、使用者はさらに詳しいカーソル位置の状況を操作音から把握することが可能となる。
 このように本実施の形態の操作音ガイド装置によれば、基点として放送局情報のみでなく、時間情報も組み合わせるので初期に選択されていた番組そのものに戻ったことを把握でき、電子番組表の操作性をさらに向上させることができる。
 なお、上記実施の形態では、基点は電子番組表画面を起動する直前に視聴していた放送局の番組としたが、例えば事前に使用者が登録したお気に入り放送局や、お気に入り番組を基点に設定することも可能である。
 (実施の形態3)
 次に本発明の実施の形態3における操作音ガイド装置について説明する。前述の説明では、電子番組表の画面を対象としていたが、本実施の形態においてはメニュー画面を対象とする。
 図7は本発明を適用する操作音ガイド装置によって実現されるメニュー画面上のカーソルの動きと、それに伴う操作音の結果を模式的に示した説明図である。画面31~画面35は説明のために簡素化したメニュー画面を示しており、縦軸方向にメニュー項目「項目1」~「項目4」が形成されている。
 またこのメニュー画面中の特定のメニュー項目がカーソルによって視覚的に指定されている。カーソルの移動操作に伴ってカーソルが順に移動していく様子が、画面31~画面35に示されている。メニュー画面を起動した時の画面が画面31であり、この時カーソルの初期位置は、項目2のメニューである。これが基点位置となる。ここでは、基点位置となるメニュー項目は、前回のメニュー画面を終了する直前に選択していたメニュー項目とするが、メニュー画面の先頭項目であるメニュー項目1を基点位置としても構わない。
 ここから使用者がカーソル移動操作により、下移動操作を行うと、カーソルは1つ下の項目3のメニューに移る(画面32)。この操作に伴い、例えば図面のように電子音「ピッ」という音が出力される。さらに同じ下移動操作を行うと、図面では項目4のメニューへ移る(画面33)。この操作に伴い、例えば図面のように電子音「ピッ」という音が出力される。さらに同じ下移動操作を行うと、図面では項目4が下端なので上端の項目1に飛んで戻る(画面34)。この時も操作音「ピッ」が出力される。
 さらに下移動操作を継続すると、カーソルは1つ下の項目2のメニューに移る(画面35)。前述のようにメニュー画面起動時のカーソルの基点位置は項目2であったので、同じ項目2に戻ってきた今回の操作では、基点位置のメニューに戻ったことを使用者に聴覚的に知らせるために、通常とは異なる操作音「ピピッ」を出力する。これにより使用者はカーソル移動操作の結果、基点位置のメニューであったメニュー項目2にカーソルが戻ったことを聴覚的に容易に把握できる。
 図7では説明の便宜上、メニュー項目数は4つとしたが、実際のデジタルテレビ放送ではこれに限定されず、さらに多くのメニュー項目を備えても構わない。電子番組表における放送局数の増加と同じように、メニュー項目数が多くなればなるほど、メニュー項目を一巡して基点位置のメニュー項目に戻ったことを知らせる操作音を鳴らすことがカーソル移動操作において極めて有用である。また、本実施の形態では上下方向に循環可能なメニュー画面について説明したが、左右方向に循環可能なメニュー画面についても同様の処理で同様の効果が得られる。
 上記の動作は、図4及び図5に示したフローチャートが実行されることにより実現される。図4において、電子番組表をメニュー画面と置き換えて、これらのフローチャートを制御部213が実行すればよい。なお、ステップS109の音声読み上げでは、電子番組表に置き換えてメニュー項目の読み上げが開示される。
 このように本実施の形態の操作音ガイド装置によれば、メニュー画面上でリモコンを使ったカーソル移動操作により行いたいメニュー(画質調整、音質調整等)を探す場合に、カーソルが最初にあった位置に対応するメニュー項目を容易に把握できるので、メニューの操作性を大幅に改善できる。特に、視覚障害を持つ人の場合には有用である。
 なお、画面33から画面34へループ移動した時に、通常の操作音とも基点位置に戻った操作音とも異なる操作音(ループ音)を出力するようにしても構わない。
 (実施の形態4)
 上述した実施の形態1又は実施の形態2における電子番組表においても、実施の形態3におけるメニュー画面においても、許容されないカーソル移動が存在する。電子番組表の場合には、例えば所定の日数以降の電子番組表は配信されない場合があるので(ここでは、1週間分の電子番組表が配信されるものとする)、8日目以降の方向へのカーソル移動が許容されない。さらに、メニュー画面の場合には、上述した実施の形態3においては項目4でさらにカーソルの下移動操作で項目1へ循環させていたが、循環させない場合には項目4が終端となり、項目4より下方向へのカーソル移動が許容されない。このように、許容されないカーソル操作の場合には、通常の操作音でも基点位置に戻ったことを示す操作音でもない、別の操作音を出力させることが好ましい。本実施の形態に係る操作音ガイド装置は、許容されないカーソル操作に対する警告音を出力する。
 図9は本発明を適用する操作音ガイド装置によって実現される電子番組表画面上のカーソルの動きと、それに伴う操作音の結果を模式的に示した説明図である。画面41~画面44は説明のために簡素化した電子番組表100を示しており、横軸方向にデジタルテレビの放送局「1ch」~「3ch」、また縦軸方向に放送時間「21時」~「23時」の表が形成されている。着目すべきは、この放送時間は現在から1週間後の時間であって、24時(すなわち8日先の0時)以降の電子番組表は配信されていないので、存在しない。なお、過去の電子番組表も存在しないので、現在の時間帯よりも以前の時間帯に移動するカーソル移動も許容されない。
 このような現在から7日先の電子番組表100中の特定の番組がカーソル110によって視覚的に指定されている。カーソル110の移動操作に伴ってカーソル110が順に移動していく様子が、画面41~画面44に示されている。電子番組表100を起動した時の画面が画面41であり、この時カーソル110の初期位置は、1chの21時の時間帯の番組である。これが基点位置となる。
 ここから使用者がカーソル移動操作により、下移動操作を行うと、カーソル110は1つ下の同じ1chの22時の時間帯の番組に移る(画面42)。この操作に伴い、例えば図面のように電子音「ピッ」という音が出力される。さらに同じ下移動操作を行うと、カーソル110は1つ下の同じ1chの23時の時間帯の番組に移る(画面43)。この操作に伴い、例えば図面のように電子音「ピッ」という音が出力される。
 さらに下移動操作を継続しても、カーソル110は移動しない。上述したように、これ以降の時間帯の電子番組表が存在しないために、カーソルの下方向への移動が許容されていないためである。このような許容されないカーソル操作に対しては、カーソルが移動できないことを使用者に聴覚的に知らせるために、通常の操作音「ピッ」とも基点位置に戻ったことを示す操作音「ピピッ」とも異なる操作音「ブブッ」を出力する。これにより使用者はカーソル移動操作ができないことを聴覚的に容易に把握できる。
 上記の動作は、図4に示したフローチャート及び図8に示したフローチャートが実行されることにより実現される。図8は、図5のフローチャートの一部を変更したものである。同じ処理については同じステップ番号を付してありその処理も同じであるので、ここでは繰り返して説明しない。図8を参照して、図7と異なるステップについて説明する。
 図8は、図4におけるステップS107の動作をさらに詳しいステップに分解して表わしたフローチャートである。ステップS301で比較処理が開始されて、現在情報と基点情報が異なっていれば(ステップS202で「No」の場合)、ステップS302に移り、カーソルが移動可能か否かが判定される。カーソルが移動可能な場合には(ステップS302で「Yes」の場合)、ステップS203へ移される。一方、カーソルが移動可能でない場合には(ステップS302で「No」の場合)、ステップS303へ移される。ステップS303において、通常用の操作音データ(第2の操作音)でも基点用の操作音データ(第1の操作音)でもない、終端用の操作音データ(第3の操作音)を操作音ROM215から取得する。操作音の区別の方法としては、例えば、終端用の操作音は、警告を与えるような音に設定することができる。
 このように本実施の形態の操作音ガイド装置によれば、電子番組表画面上でリモコンを使ったカーソル移動操作により見たい番組を探す場合に、カーソルが移動できないことを容易に把握できるので、電子番組表の操作性を大幅に改善できる。特に、視覚障害を持つ人の場合には有用である。また、本実施の形態をメニュー画面に適用することも可能であるし、他の実施の形態に組み合わせることも可能である。
 (その他の実施の形態)
 また、上記した4つの実施の形態では、基点情報の判定手段として、放送局情報(サービスID)、番組の時間情報又はメニュー項目情報を使うとしたが、電子番組表の各列又はメニュー項目の各行にインデックス値を付与し、そのインデックス値で判定してもよい。さらには、各放送局固有に設定されるチャンネルプリセット情報で判定してもよい。
 本発明は、多数の番組が表示された電子番組表の画面中でカーソルを移動させて所望の番組を選択する際に有用なものであり、電子番組表を扱う映像機器一般に広く応用可能である。さらに、電子番組表にとどまらず、多数のメニューを表示する操作端末等に広く利用可能である。
 100  電子番組表
 110  カーソル
 201  チューナ
 202  分離部
 203  デコード処理部
 204  映像処理部
 205  音声処理部
 206  映像信号重畳部
 207  音声信号重畳部
 208  映像出力部
 209  音声出力部
 210  表示部
 211  スピーカ
 212  記憶部
 213  制御部
 214  画面描画処理部
 215  操作音ROM
 216  操作音生成部
 217  リモコン
 218  リモコン受光部
 219  リモコンコード解析部
 220  音声読上げ生成部
 

Claims (14)

  1.  表示された複数の情報項目の中から、カーソルを移動させて1の情報項目を選択する際に、前記カーソルの移動先の情報項目を特定の音声で知らせる操作音ガイド装置であって、
     前記複数の情報項目と、前記カーソルの初期位置の情報項目を示す基点情報と、前記カーソルの移動先の情報項目を示す現在情報とを記憶する記憶部と、
     前記カーソルの操作情報を入力する操作情報入力部と、
     前記複数の情報項目および前記カーソルを描画する画面描画処理部と、
     描画された前記複数の情報項目および前記カーソルを前記映像信号に重畳する映像信号重畳部と、
     前記カーソルが操作された時に操作音を生成する操作音生成部と、
     生成された前記操作音を前記音声信号に重畳する音声信号重畳部と、
     前記操作情報入力部に入力された前記カーソルの操作情報に基づいて、前記複数の情報項目の中から1の情報項目が選択されるように前記カーソルを移動させ、前記記憶部から前記基点情報および前記現在情報を読み出して比較し、一致した場合には第1の操作音を、一致しない場合には第2の操作音を前記操作音生成部に生成させる制御部と、
     を備えたことを特徴とする操作音ガイド装置。
  2.  前記情報項目はメニュー項目であって、
     前記制御部は、前記操作情報入力部に入力された前記カーソルの操作情報に基づいて、複数の前記メニュー項目間で前記カーソルを移動させ、前記記憶部から前記基点情報および前記現在情報を読み出して比較し、一致した場合には第1の操作音を、一致しない場合には第2の操作音を前記操作音生成部に生成させる、
     ことを特徴とする、請求項1に記載の操作音ガイド装置。
  3.  前記操作音ガイド装置は、電子番組表上でカーソルを移動させて所定の番組を選択する際に、前記カーソルの移動先の番組情報を特定の音声で知らせる装置であって、
     放送信号を受信する受信部と、
     受信された前記放送信号から映像信号、音声信号、前記電子番組表を分離する分離部とをさらに備え、
     前記記憶部は、前記電子番組表と、前記カーソルの初期位置の番組情報を示す基点情報と、前記カーソルの移動先の番組情報を示す現在情報とを記憶し、
     前記制御部は、前記操作情報入力部に入力された前記カーソルの操作情報に基づいて、前記電子番組表の前記カーソルを移動させ、前記記憶部から前記基点情報および前記現在情報を読み出して比較し、一致した場合には第1の操作音を、一致しない場合には第2の操作音を前記操作音生成部に生成させる、
     ことを特徴とする、請求項1に記載の操作音ガイド装置。
  4.  前記番組情報は、番組を放送する放送局情報である、ことを特徴とする請求項3に記載の操作音ガイド装置。
  5.  前記番組情報は、番組を放送する放送局情報および放送時間である、ことを特徴とする請求項3に記載の操作音ガイド装置。
  6.  前記基点情報は、前記電子番組表を起動する直前に選択されていた番組情報を示す、ことを特徴とする請求項3に記載の操作音ガイド装置。
  7.  前記基点情報は、予め使用者により選択された番組情報を示す、ことを特徴とする請求項3に記載の操作音ガイド装置。
  8.  前記第1の操作音と前記第2の操作音との差は、音量、音程、音色、音の長さ、音の発生回数を含む、ことを特徴とする請求項3に記載の操作音ガイド装置。
  9.  前記第1の操作音および前記第2の操作音を記憶する操作音記憶部をさらに備え、前記操作音生成部は前記操作音記憶部から前記第1の操作音または前記第2の操作音を読み出して前記操作音を生成する、ことを特徴とする請求項3に記載の操作音ガイド装置。
  10.  前記操作情報入力部に入力された前記カーソルの操作情報に基づいて、前記カーソルの移動が許容されない方向への移動である場合には、前記第1の操作音および前記第2の操作音と異なる第3の操作音を前記操作音生成部に生成させる警告制御部をさらに備える、ことを特徴とする、請求項1に記載の操作音ガイド装置。
  11.  表示された複数の情報項目の中から、カーソルを移動させて1の情報項目を選択する際に、前記カーソルの移動先の情報項目を特定の音声で知らせる操作音ガイド方法であって、
     前記複数の情報項目と、前記カーソルの初期位置の情報項目を示す基点情報と、前記カーソルの移動先の情報項目を示す現在情報とを記憶するステップと、
     前記カーソルの操作情報を入力するステップと、
     前記複数の情報項目および前記カーソルを描画するステップと、
     描画された前記複数の情報項目および前記カーソルを前記映像信号に重畳するステップと、
     前記カーソルが操作された時に操作音を生成するステップと、
     生成された前記操作音を前記音声信号に重畳するステップと、
     前記入力された前記カーソルの操作情報に基づいて、前記複数の情報項目の中から1の情報項目が選択されるように前記カーソルを移動させ、前記記憶された前記基点情報および前記現在情報を読み出して比較し、一致した場合には第1の操作音を、一致しない場合には第2の操作音を生成するステップと、
     を含むことを特徴とする操作音ガイド方法。
  12.  前記操作音ガイド方法は、電子番組表上でカーソルを移動させて所定の番組を選択する際に、前記カーソルの移動先の番組情報を特定の音声で知らせる方法であって、
     放送信号を受信するステップと、
     受信された前記放送信号から映像信号、音声信号、前記電子番組表を分離するステップとをさらに含み、
     前記情報を記憶するステップは、前記電子番組表と、前記カーソルの初期位置の番組情報を示す基点情報と、前記カーソルの移動先の番組情報を示す現在情報とを記憶し、
     前記操作音を生成するステップは、前記入力されたカーソルの操作情報に基づいて、前記電子番組表の前記カーソルを移動させ、前記記憶された基点情報および現在情報を読み出して比較し、一致した場合には第1の操作音を、一致しない場合には第2の操作音を生成する、
     ことを特徴とする、請求項11に記載の操作音ガイド方法。
  13.  前記番組情報は、番組を放送する放送局情報であること、を特徴とする、請求項12に記載の操作音ガイド方法。
  14.  前記番組情報は番組を放送する放送局情報および放送時間であること、を特徴とする、請求項12に記載の操作音ガイド方法。
PCT/JP2010/006636 2009-12-28 2010-11-11 操作音ガイド装置及び操作音ガイド方法 WO2011080864A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2011547253A JP5520318B2 (ja) 2009-12-28 2010-11-11 操作音ガイド装置及び操作音ガイド方法
EP10840724.8A EP2521352B1 (en) 2009-12-28 2010-11-11 Operation sound guide device and operation sound guide method
US13/518,384 US9154839B2 (en) 2009-12-28 2010-11-11 Operation sound guide apparatus and operation sound guide method
CN201080059585.4A CN102687525B (zh) 2009-12-28 2010-11-11 操作音引导装置及操作音引导方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-297395 2009-12-28
JP2009297395 2009-12-28

Publications (1)

Publication Number Publication Date
WO2011080864A1 true WO2011080864A1 (ja) 2011-07-07

Family

ID=44226293

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/006636 WO2011080864A1 (ja) 2009-12-28 2010-11-11 操作音ガイド装置及び操作音ガイド方法

Country Status (5)

Country Link
US (1) US9154839B2 (ja)
EP (1) EP2521352B1 (ja)
JP (1) JP5520318B2 (ja)
CN (1) CN102687525B (ja)
WO (1) WO2011080864A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104104984B (zh) * 2014-07-31 2015-12-30 合一网络技术(北京)有限公司 焦点控制方法及其装置
CN105049946A (zh) * 2015-08-17 2015-11-11 浪潮软件集团有限公司 一种实现数字电视机顶盒页面中焦点移动音效的方法
CN113141527B (zh) * 2020-01-17 2022-06-14 青岛海信传媒网络技术有限公司 一种基于内容的语音播放方法及显示设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09258946A (ja) * 1996-03-26 1997-10-03 Fujitsu Ltd 情報処理装置
JP2004252652A (ja) * 2003-02-19 2004-09-09 Matsushita Electric Ind Co Ltd 電子機器
JP2004254006A (ja) * 2003-02-19 2004-09-09 Matsushita Electric Ind Co Ltd 電子機器
JP2009145965A (ja) * 2007-12-11 2009-07-02 Brother Ind Ltd ブラウザプログラムおよび情報処理装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04216117A (ja) * 1990-12-17 1992-08-06 Nec Corp 項目選択方式
CA2068476C (en) * 1991-08-19 1996-07-23 Frank A. Mckiel, Jr. Audio user interface with stereo and filtered sound effects
JP2565047B2 (ja) * 1991-12-26 1996-12-18 ブラザー工業株式会社 テープ印刷装置
US7194753B1 (en) * 1999-04-15 2007-03-20 Microsoft Corporation System and method for efficiently tuning to channels of a variety of different broadcast types
US8205223B2 (en) * 2000-04-12 2012-06-19 Lg Electronics Inc. Method and video device for accessing information
US6449767B1 (en) * 2000-06-30 2002-09-10 Keen Personal Media, Inc. System for displaying an integrated portal screen
US6999066B2 (en) 2002-06-24 2006-02-14 Xerox Corporation System for audible feedback for touch screen displays
JP2004288073A (ja) 2003-03-25 2004-10-14 Murata Mach Ltd 操作入力装置
JP4310779B2 (ja) 2004-02-18 2009-08-12 株式会社リコー 電子装置、電子装置の音声案内方法、プログラムおよび記録媒体
US8418202B2 (en) * 2004-04-14 2013-04-09 Comcast Cable Holdings, Llc Method and system for providing on-demand viewing
JP2006094409A (ja) * 2004-09-27 2006-04-06 Toshiba Corp 番組表表示装置および番組表表示方法
JP2007087104A (ja) 2005-09-22 2007-04-05 Sony Corp 音声出力制御装置および方法、記録媒体、並びに、プログラム
US7596765B2 (en) * 2006-05-23 2009-09-29 Sony Ericsson Mobile Communications Ab Sound feedback on menu navigation
CN101449236A (zh) * 2006-05-23 2009-06-03 索尼爱立信移动通讯股份有限公司 菜单导航的声音反馈
US20080088621A1 (en) * 2006-10-11 2008-04-17 Jean-Jacques Grimaud Follower method for three dimensional images
JP5355097B2 (ja) * 2007-01-12 2013-11-27 株式会社カプコン 表示制御装置、制御方法、プログラム、及びこのプログラムを記録したコンピュータ読み取り可能な記録媒体
KR101397051B1 (ko) * 2007-06-25 2014-05-20 엘지전자 주식회사 디지털 방송 시스템 및 데이터 처리 방법
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09258946A (ja) * 1996-03-26 1997-10-03 Fujitsu Ltd 情報処理装置
JP2004252652A (ja) * 2003-02-19 2004-09-09 Matsushita Electric Ind Co Ltd 電子機器
JP2004254006A (ja) * 2003-02-19 2004-09-09 Matsushita Electric Ind Co Ltd 電子機器
JP2009145965A (ja) * 2007-12-11 2009-07-02 Brother Ind Ltd ブラウザプログラムおよび情報処理装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2521352A4 *

Also Published As

Publication number Publication date
CN102687525B (zh) 2014-12-17
JPWO2011080864A1 (ja) 2013-05-09
CN102687525A (zh) 2012-09-19
EP2521352A4 (en) 2013-02-20
US9154839B2 (en) 2015-10-06
JP5520318B2 (ja) 2014-06-11
EP2521352A1 (en) 2012-11-07
EP2521352B1 (en) 2014-03-26
US20120256952A1 (en) 2012-10-11

Similar Documents

Publication Publication Date Title
KR100717691B1 (ko) 디스플레이장치 및 그 채널 네비게이션 방법
US20090089675A1 (en) Method for providing graphical user interface and video apparatus using the same
KR20120080985A (ko) 영상 표시 방법 및 이를 적용한 방송 수신 장치
JP5520318B2 (ja) 操作音ガイド装置及び操作音ガイド方法
JP2004032658A (ja) 番組情報表示装置
JP2008148076A (ja) 番組録画予約装置
JP2006319680A (ja) テレビシステム、携帯端末、tvチューナー、携帯端末で動作するプログラム、及びtvチューナーで動作するプログラム
US20130318553A1 (en) System and methods for enhancing operation of a graphical user interface
KR100780725B1 (ko) 디지털 방송 수신기의 프로그램 안내 정보 갱신 방법
EP2157785A1 (en) Broadcasting processing apparatus and control method thereof
JP4742177B1 (ja) 番組表を備えた電子機器
JP5033056B2 (ja) デジタル放送受信装置
JP2006340111A (ja) ディジタル放送受信装置
EP3396968B1 (en) Display apparatus and method of operating the same
JP4026148B2 (ja) 番組表搭載デジタル放送受信機
JP2008060718A (ja) テレビ受信機
JP2008085403A (ja) 放送受信装置
JP2007067839A (ja) 放送受信装置
JP4621724B2 (ja) 放送受信装置
KR101021724B1 (ko) 영상표시기기
WO2016009563A1 (ja) デジタル放送受信装置及びその選局方法
JP2008098725A (ja) テレビ受像機
KR20070079829A (ko) 디지털 tv
JP2008294912A (ja) テレビジョン受像機
JP2008109695A (ja) 放送受信装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080059585.4

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10840724

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011547253

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2010840724

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 13518384

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE