WO2010004629A1 - コンテンツ再生装置 - Google Patents

コンテンツ再生装置 Download PDF

Info

Publication number
WO2010004629A1
WO2010004629A1 PCT/JP2008/062460 JP2008062460W WO2010004629A1 WO 2010004629 A1 WO2010004629 A1 WO 2010004629A1 JP 2008062460 W JP2008062460 W JP 2008062460W WO 2010004629 A1 WO2010004629 A1 WO 2010004629A1
Authority
WO
WIPO (PCT)
Prior art keywords
noise
information
schedule
content
time
Prior art date
Application number
PCT/JP2008/062460
Other languages
English (en)
French (fr)
Inventor
洋一 奥山
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Priority to PCT/JP2008/062460 priority Critical patent/WO2010004629A1/ja
Publication of WO2010004629A1 publication Critical patent/WO2010004629A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44209Monitoring of downstream path of the transmission network originating from a server, e.g. bandwidth variations of a wireless network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/60Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals

Definitions

  • the present invention relates to a content playback apparatus that plays back content, and more particularly, to a content playback apparatus with noise countermeasures taken.
  • an information display device and an information reproducing device with noise countermeasures are known.
  • the ambient noise level is detected, and it is determined whether subtitle display is necessary in consideration of the relationship between the reproduction state of the reproduced sound and the detected noise level.
  • a technique for generating a caption-displayed video signal when caption display is required is disclosed.
  • a technique for adjusting the display format of captions and the output format of audio information according to environmental noise data indicating the noise level at the installation location is disclosed.
  • the above-described conventional noise countermeasure apparatus performs noise countermeasures after the actual noise is generated, and effective noise countermeasures are performed after the noise is generated. After a predetermined time has elapsed. That is, at the beginning of noise generation, noise countermeasures are not taken, and there is a problem that it is not a comfortable viewing environment.
  • the present invention has been made in view of such circumstances, and as an example of the problem, an effective noise countermeasure can be taken from the start of noise generation, and a comfortable viewing environment can be provided.
  • the object is to provide a content reproduction apparatus.
  • the content reproduction apparatus is a noise schedule creation unit that predicts and creates noise schedule information that associates the noise occurrence date and time and noise content that will be detected in the future at the installation location;
  • the noise schedule storage means When reproducing the content at the noise occurrence date and time described in the noise schedule information stored in the noise schedule storage means, the noise schedule storage means for storing the noise schedule information created by the noise schedule creation means, Content reproduction control means for reproducing a content by executing a noise countermeasure process for performing subtitle display or audio adjustment based on the noise content of the noise schedule information.
  • FIG. 1 is a schematic configuration diagram of a content reproduction apparatus 1 according to an embodiment of the present invention.
  • the content reproduction apparatus 1 is a content reproduction apparatus having a noise countermeasure function, and information on a noise source (hereinafter referred to as noise source information d20) acquired from an external database (hereinafter referred to as noise DB 5), an actual microphone, etc.
  • noise source information d20 information on a noise source acquired from an external database (hereinafter referred to as noise DB 5), an actual microphone, etc.
  • the noise information processing unit 2 that calculates the noise situation at the installation location from the noise d30 observed in step S2 and creates noise schedule information d60 according to the noise situation, and subtitles in the content to be reproduced according to the created noise schedule information d60
  • a video / audio processing unit 3 that outputs content that has been subjected to noise countermeasures, such as displaying or adjusting the output audio (adjustment of volume, tone color, sound field, etc.).
  • the content playback apparatus 1 is specifically assumed to be a TV (television), for example, and is a program content provided by broadcast waves such as terrestrial digital and BS digital, DVD (Digital Versatile Disc) ), Contents recorded on an information recording medium such as BD (Blu-ray Disc), programs provided via a network communication network such as the Internet, contents for download distribution, and the like are reproduced.
  • the content playback apparatus 1 is described as a TV.
  • the content playback apparatus may be a content playback apparatus other than a TV, and may be a content playback apparatus such as a DVD player or a BD player.
  • FIG. 2 is a functional configuration diagram of the noise information processing unit 2 and the video / audio processing unit 3 of the content reproduction apparatus 1.
  • the noise information processing unit 2 includes a current location information management unit 201, a network interface unit 202, a noise detection unit 203, a noise analysis unit 204, a noise schedule management unit 205, a noise schedule creation unit 206, and a noise schedule DB 207. It is a configuration.
  • the current location information management unit 201 stores and manages current location information d10 that can specify the installation location (also referred to as current location) of the content reproduction apparatus 1.
  • the current location information d10 is information that can uniquely identify the current location, such as an address or a telephone number, and is input and set by the user in the present embodiment.
  • the network interface unit 202 is an interface for communicating with the communication network 4 such as the Internet network, for example, and the current location information d10 managed by the current location information management unit 201 is transmitted via the network interface unit 202 and the communication network 4. It is transmitted to the noise DB 5.
  • the noise DB 5 when the noise DB 5 receives the current location information d10, the noise DB 5 grasps the current location of the content reproduction apparatus 1. Therefore, the noise DB 5 searches for noise information (noise source information d20) related to a noise source existing in the vicinity of the current location, and searches for the noise source.
  • the information d20 is transmitted to the content reproduction apparatus 1 that has transmitted the current location information d10.
  • the noise source information d20 specifically includes the date and time of noise generated in a noise source (for example, an elementary school existing near the current location or a train passing near the current location), and the type, magnitude, and frequency component of the noise.
  • the information includes a noise schedule associated with the noise content, information indicating the positional relationship between the current location and the noise source (for example, distance, direction, and the like).
  • the noise detection unit 203 is configured to detect the noise d30 actually observed at the place where the content reproduction apparatus 1 is installed using, for example, a microphone.
  • the noise analysis unit 204 analyzes the noise d30 observed by the noise detection unit 203. For example, the noise analysis unit 204 extracts only the noise component by removing the audio component of the content being reproduced from the noise d30 observed by the noise detection unit 203 while the content reproduction device 1 is reproducing the content. However, only the noise component (hereinafter referred to as noise information d40 during reproduction) is analyzed. That is, since the noise d30 observed by the noise detection unit 203 includes the audio component of the content data being reproduced, the noise analysis unit 204 receives the audio signal of the content being reproduced from the audio signal processing unit 311 described later. Only the noise component is extracted by inputting. This during-reproduction noise information d40 is utilized for correction processing of the created noise schedule information d60, as will be described later.
  • the noise analysis unit 204 is configured to analyze the noise d30 that is constantly observed by the noise detection unit 203. That is, the noise analysis unit 204 can analyze time-series history information (hereinafter referred to as noise history information d50) of the noise d30 actually observed at the installation location of the content reproduction apparatus 1.
  • the noise history information d50 includes at least the date and time of noise generation, the magnitude and frequency component of noise, the direction of noise generation, and the like.
  • the noise schedule management unit 205 manages all information related to noise. That is, the noise schedule management unit 205 includes the noise source information d20 input via the network interface unit 202, the noise information d40 being reproduced and the noise history information d50 analyzed by the noise analysis unit 204, and a noise schedule creation unit described later. The noise schedule information d60 created in 206 is managed.
  • the noise schedule information d60 is information related to a schedule of noise to be observed in the future at the current location. Specifically, the noise occurrence date and time, the noise content such as the type and the magnitude of the noise, and the like. , And information associated with each other. Note that the noise content may include information on the frequency component of noise, the direction of noise generation, and the like.
  • the noise schedule creation unit 206 creates the noise schedule information d60 based on the noise source information d20 and the noise history information d50 managed by the noise schedule management unit 205 under the control of the noise schedule management unit 205. ing. For example, the noise schedule creation unit 206 calculates the date and time of noise observation at the current location and the magnitude of the noise from the noise source information d20 to create the noise schedule information d60, and periodically observes from the noise history information d50. The noise schedule information d60 of the noise observed regularly is grasped
  • the noise schedule creation unit 206 corrects the noise schedule information d60 once created based on the noise information d40 during reproduction managed by the noise schedule management unit 205. That is, when the content reproduction with noise countermeasures is performed according to the created noise schedule information d60, but there is an error between the actually observed noise and the expected noise, The noise schedule information d60 is corrected in preparation for occurrence. For example, if there is a difference greater than or equal to a predetermined numerical value (for example, the difference in occurrence date and time is 1 minute, the difference in noise level is 10 dB, etc.), the noise in the noise schedule information d60 The date and time of occurrence and the amount of noise are corrected.
  • a predetermined numerical value for example, the difference in occurrence date and time is 1 minute, the difference in noise level is 10 dB, etc.
  • the noise schedule DB 207 is a database that stores the noise schedule information d60 created by the noise schedule creation unit 206 and the noise schedule information d60 corrected by the noise schedule creation unit 206. That is, the content reproduction apparatus 1 holds the noise schedule information d60 of noise that will be observed at the current location in the future.
  • the noise schedule creation unit 206 may generate noise that adversely affects viewing (for example, when noise generated at the current location exceeds a predetermined noise level (dB)). Therefore, the noise schedule information d60 stored in the noise schedule DB 207 is schedule information related to noise that is harmful to viewing. Of course, apart from this, noise schedule information d60 for all noises generated in the current location is created, and noise countermeasures are performed only for noises of a predetermined noise level or higher in the created noise schedule information d60. Also good.
  • the audio / video processing unit 3 includes a content data input unit 301, a content data processing unit 302, a video data input unit 303, an audio data input unit 304, a character data input unit 305, an audio extraction unit 306, and a character data generation unit 307. , Subtitle generation section 308, video / audio control section 309, video signal processing section 310, audio signal processing section 311, video output section 312, and audio output section 313.
  • the content data input unit 301 is an input interface for inputting playback content.
  • the content data processing unit 302 classifies the content input via the content data input unit 301 into video data, audio data, and character data, and each of the classified data is a video data input unit 303, an audio data input unit 304 and the character data input unit 305.
  • the video data input unit 303 inputs the video data of the content classified by the content data processing unit 302
  • the audio data input unit 304 inputs the audio data of the content classified by the content data processing unit 302
  • the character data input unit 305 is configured to input the character data of the content classified by the content data processing unit 302.
  • the audio extraction unit 306 extracts audio data necessary for subtitle creation from the audio data of the content input to the audio data input unit 304 when character data is not included in the content.
  • the audio data necessary for subtitle creation is, for example, audio data such as a human voice in news and dramas.
  • the character data generation unit 307 generates character data from the voice data extracted by the voice extraction unit 306.
  • the caption generation unit 308 generates caption data from the character data of the content input to the character data input unit 305 or the character data of the content generated by the character data generation unit 307.
  • the video / audio control unit 309 instructs the video signal processing unit 310 to control the display / non-display of subtitles according to the noise schedule information d60 transferred from the noise schedule management unit 309, and controls the audio adjustment to the audio signal processing unit. 311 is instructed.
  • the sound adjustment specifically means sound volume adjustment (output level increase / decrease), tone color adjustment (frequency characteristic correction), sound field adjustment (output channel distribution change), and the like.
  • the video / audio control unit 309 instructs the video signal processing unit 310 to display subtitles when noise occurs, and controls the video signal processing unit to hide subtitles when the noise ends. 310 is instructed.
  • the video / audio control unit 309 instructs the audio signal processing unit 311 to increase the sound volume when noise occurs according to the noise schedule information d60, and restores the increased sound volume when noise ends.
  • the audio signal processing unit 311 compare the frequency spectrum of noise (frequency spectrum: frequency and intensity distribution for calibrating sound) with the frequency spectrum of the content sound, analyze the frequency band that causes problems with hearing, and correct the frequency characteristics of the content sound.
  • the voice adjustment control if the voice is suddenly changed at the time of noise occurrence, the user feels uncomfortable, so the voice signal processing unit 311 is instructed to change smoothly according to the noise level curve. For example, when adjusting the sound volume during the noise period, as shown in FIG. 11C, the sound volume is smoothly changed during the noise period according to the noise level curve. Is controlled to increase.
  • the video signal processing unit 310 outputs adjusted video data to the video output unit 312 in accordance with instructions from the video / audio control unit 309. That is, the video signal processing unit 310 adjusts whether or not the caption data generated by the caption generation unit 308 is arranged on the video screen in accordance with an instruction from the video / audio control unit 309.
  • the audio signal processing unit 311 outputs adjusted audio data to the audio output unit 313 in accordance with instructions from the video / audio control unit 309. That is, the audio signal processing unit 311 adjusts audio volume adjustment (output level increase / decrease), tone color adjustment (frequency characteristic correction), audio adjustment (output channel distribution change), etc. in accordance with instructions from the video / audio control unit 309. I do.
  • the video output unit 312 is an output interface that outputs video data processed by the video signal processing unit 310
  • the audio output unit 313 is an output interface that outputs video data processed by the audio signal processing unit 311.
  • subtitle display and audio output adjustment are performed when noise occurs, but only subtitle display and audio output are performed according to user settings. Only adjustment, both subtitle display and audio output adjustment, or no noise countermeasure can be selected. For example, when the noise start date and time of the noise schedule information d60 is near, a notification of noise occurrence is displayed on the screen, and whether or not to reproduce video and audio with noise countermeasures, and which noise countermeasure to perform is selected by the user You may make it make it. Further, the content reproduction apparatus 1 may automatically select whether to take any noise countermeasure according to the noise pattern (the noise type of the noise schedule information d60).
  • the user adjusts the sound volume adjustment value (output level increase / decrease value), tone adjustment value (frequency band to be corrected), sound field adjustment value (output channel distribution change value). ) Or the like may be set specifically, or the content reproduction apparatus 1 may be set automatically according to the noise pattern.
  • noise countermeasures are performed by adjusting the display of subtitles or the output of audio in accordance with the occurrence date and time (start date and time, end date and time) of the noise schedule information d60.
  • start date and time start date and time
  • ending noise countermeasures at the end date and time starting noise countermeasures at a predetermined time (for example, several seconds before) the start date and time, and after a predetermined time (for example, several seconds after) Etc.)
  • noise countermeasures may be taken (see FIG. 11C).
  • the noise countermeasure is performed by the latter method, the user can view the natural sound without feeling more uncomfortable.
  • FIG. 3 is a diagram illustrating a data configuration of the noise source information d20 and the noise schedule information d60 when there are two noise sources in the vicinity of the current location A, that is, the F elementary school and the railway TT line.
  • the content reproduction device 1 transmits the current location information d10 that can identify the current location A where the content reproduction device 1 is installed to the noise DB 5.
  • the content reproduction apparatus 1 receives the noise source information d20a and d20b.
  • the noise source information d20a is mainly composed of F elementary school event information, and includes a lesson schedule and event schedule (information in which the date and time and the noise level are associated. For example, weekday attendance time, classes and lunch breaks, etc. Time schedule, event information such as morning gatherings and athletic events, date and time of occurrence, noise level curve during that time period, etc., noise source is fixed, the distance between the current location A and F elementary school is 300m in a straight line distance Information.
  • the noise source information d20b is mainly composed of timetable information of the TT line.
  • the shortest straight distance from the current location A to the track (the railway TT line is closest to the current location A).
  • the straight distance between point B and the current location (for example, 100 m), the time required for a train from W station to the shortest straight distance point (the required time from point B to W station, for example, 3 minutes), noise at the shortest straight distance point Information (such as the frequency spectrum of noise at point B, the noise level curve for each time), and the like.
  • the content reproduction apparatus 1 that has received the noise source information d20a and d20b creates noise schedule information d60a based on the noise source information d20a and noise schedule information d60b based on the noise source information d20b. That is, the noise schedule information d60a is created by adding the distance between the current location A and the F elementary school to the generation date and the noise content of the noise generated at the F elementary school, and the generation of noise occurring at the point B on the TT line. The noise schedule information d60b is created by adding the distance between the current location and the point B to the date and time and the noise content.
  • the noise schedule information d60a is noise schedule information regarding the F elementary school, and the date and time when the noise related to the F elementary school is observed at the current location A, the magnitude of the noise related to the F elementary school observed at the date and time, and the noise level It is information on the type (for example, whether it is attending school, taking a lunch break, an athletic meet, or a regular chime sound). For example, according to the noise schedule information d60a shown in FIG. 3, it is shown that the noise accompanying the school time of the noise level 60-65 dB is observed between 8 AM and 8:30 AM on Wednesday.
  • the noise schedule information d60b is noise schedule information related to the TT line, and the date and time when noise related to the TT line is observed at the current location A and the magnitude of noise related to the TT line observed at the date and time (for example, elapsed time) Noise level curve according to the frequency), frequency characteristics, and noise type (for example, whether the train is an ascending train or a descending train). For example, according to the noise schedule information d60b shown in FIG. 3, it is shown that noise accompanying the passage of an up-train with a noise level of 83-105 dB is observed between 6:55 AM and 6:55 AM on Wednesday. ing.
  • the content reproduction apparatus 1 acquires the noise source information d20a and 20b in the vicinity of the current location A from the noise DB 5, and based on the acquired noise source information d20a and 20b, Since the information (occurrence date and noise content) is estimated and noise schedule information d60 at the current location A is created, detailed noise schedule information d60 suitable for the installation location can be created.
  • the subtitles are displayed on the video according to the noise schedule information d60, the volume of the output sound, the timbre, and the sound field are adjusted to reproduce the content with noise countermeasures taken. be able to.
  • the content is reproduced by displaying captions on the video during the same time period. Also good.
  • the user since it is possible to perform subtitle display and audio adjustment for noise countermeasures based on the noise schedule information d60 created in advance in this way, the user can view the audio in a viewing state with reduced adverse effects due to noise from the beginning of noise generation. Can watch the content.
  • FIG. 4 to FIG. 4 is a flowchart showing the flow of the noise schedule creation process 1 in which the content reproduction apparatus 1 creates the noise schedule information d60 from the noise source information d20, and FIG. 5 shows the noise d30 acquired by the content reproduction apparatus 1 itself.
  • FIG. 6 is a flowchart showing a flow of a noise schedule execution process in which the content reproduction apparatus 1 reproduces content according to the noise schedule information d60.
  • FIG. 7 is a flowchart showing in detail the noise countermeasure processing in the noise schedule execution processing
  • FIG. 8 is a flowchart showing in detail the noise schedule correction processing in the noise schedule execution processing.
  • Noise schedule creation process 1 First, the noise schedule creation process 1 will be described with reference to FIG. In the present embodiment, the content reproduction apparatus 1 executes the noise schedule creation process 1 when the current location information d10 is set and periodically.
  • the content playback device 1 transmits the current location information d10 to the noise DB 5 via the communication network 4 (step S10).
  • the noise DB 5 acquires the noise source information d20 in the vicinity of the current location based on the received current location information d10 and transmits the noise source information d20 to the content reproduction device 1. Therefore, the content reproduction device 1 can obtain the noise in the vicinity of the current location from the noise DB 5.
  • the source information d20 is received (step S20).
  • the content playback apparatus 1 uses the received noise source information d20 to observe the noise occurrence date and time (for example, start time, end time, duration) observed at the current location, and the noise content (for example, noise level (dB) ), A noise level curve with respect to time, frequency spectrum, etc.) are estimated and calculated (step S30).
  • the noise occurrence date and time for example, start time, end time, duration
  • the noise content for example, noise level (dB)
  • dB noise level
  • the content reproduction device 1 creates noise schedule information d60 based on the result calculated in step S30 (step S40), and registers the created noise schedule information d60 in the noise schedule DB 207 (step S50).
  • Noise schedule information d60 optimum for the installation location can be created.
  • Noise schedule creation process 2 Next, the noise schedule creation process 2 will be described with reference to FIG. In the present embodiment, the content reproduction apparatus 2 always executes the noise schedule creation process 2.
  • the content reproduction apparatus 1 observes the generation status of the noise d30 at the installation location using, for example, a microphone (step S110). Then, as the observation result, the noise level, occurrence date (start time, end time), frequency spectrum, noise direction, etc. of the observed noise d30 are recorded as noise history information d50 (step S120).
  • the content reproduction apparatus 1 analyzes the observed noise generation pattern with reference to the recorded time-series noise history information d50 (step S130), and whether the observed noise is regularly generated. It is determined whether or not (step S140). For example, it is determined whether or not the same type of noise is periodically observed on a daily basis, weekly basis, monthly basis, or the like.
  • the content reproduction apparatus 1 creates the noise schedule information d60 based on the noise history information d50 (step S150), and the created noise schedule information d60 is used as the noise schedule. Register in the DB 207 (step S160).
  • the noise schedule optimum for the installation location can be created from the noise acquired by itself without using the data of the external DB. It is effective for noise countermeasures for noise that cannot be managed by DB5.
  • the noise schedule information d60 can be created for noise that is constantly generated from an adjacent road or the like and noise that is generated in a living environment (operation sounds of a washing machine, an air conditioner, a refrigerator, etc.).
  • the content playback device 1 executes a noise schedule execution process when the content playback device 1 is playing back predetermined content.
  • the content reproduction apparatus 1 refers to the noise schedule information d60 of the noise schedule DB 207 (step S210) and determines whether it is the date and time when noise countermeasures are taken (step S220). That is, it is determined whether or not the current date and time (the date and time of the clock held by the content reproduction apparatus 1) is a predetermined time (for example, several minutes) before the noise start date and time of the noise schedule information d60.
  • step S220 When it is the date and time when noise countermeasures are taken (step S220: YES), the content reproduction apparatus 1 performs noise countermeasure processing (details will be described later) (step S230), and then noise schedule correction processing (details will be described later). Is performed (step S240).
  • the noise countermeasure process is a process for controlling the reproduction of the content by taking a noise countermeasure.
  • FIG. 7 is a flowchart showing in detail the noise countermeasure process in step S230 of FIG.
  • the content reproduction apparatus 1 determines whether or not caption display is performed when noise occurs (step S310).
  • step S310 When subtitles are displayed when noise is generated (step S310: YES), it is determined whether or not there is character data in the content in advance (step S320). If character data is present (step S320: YES), it remains as it is.
  • Character data is generated as subtitle data (step S350), and when there is no character data (step S320: NO), the subtitle generation target audio is extracted from the audio of the content (step S330), and the extracted audio is converted into character data. Conversion is performed (step S340), and caption data is generated (step S350).
  • the content reproduction device 1 arranges the generated caption data at an appropriate position on the display screen and prepares to display it (step S360).
  • the content reproduction apparatus 1 determines whether or not to adjust the audio output when noise occurs (step S310).
  • the sound output is adjusted when noise is generated, that is, when at least one of the sound volume adjustment, timbre adjustment, and sound field adjustment is performed, according to the noise content of the noise schedule information d60.
  • an adjustment value for sound volume adjustment, tone color adjustment, or sound field adjustment is set, and sound output is prepared (step S380).
  • Step S390 when the current date and time (the date and time of the clock held by the content playback device 1) is the noise start date and time of the noise schedule information d60, the content playback device 1 performs subtitle display or audio output adjustment and plays back the content.
  • the content playback device 1 collects the actually observed noise d30.
  • the content playback apparatus 1 ends the playback operation of the content for which noise countermeasures have been taken. In consideration of a noise schedule correction process described later, the content reproduction apparatus 1 continues to collect the actually observed noise d30 for a predetermined time (for example, several minutes) after the end.
  • FIG. 8 is a flowchart showing in detail the noise schedule correction process in step S240 of FIG.
  • the content reproduction apparatus 1 performs the noise (noise generation date and time, noise content) indicated by the noise schedule information d60 and the actually observed noise (noise generation of the noise information d40 during reproduction). It is determined whether or not there is an error in the date and time and the noise content (step S410).
  • the error means an error more than a predetermined threshold in detail. For example, specifically, the difference in noise level is 10 dB or more, the difference in noise start date and time is 1 minute or more, and the like. Indicates an error.
  • the content reproduction apparatus 1 creates error information d70 (step S420) and creates it.
  • the noise schedule information d60 of the same type of noise that will be generated in the future is corrected (step S430). That is, the noise occurrence date and time and the noise content of the noise schedule information d60 for noise are corrected. For example, when the actual noise start date and time is 30 minutes earlier than the noise start date and time of the noise schedule information d60, the noise start date and time of the noise schedule information d60 for noise is corrected to a date and time that is 30 minutes earlier. When the actual noise level is 20 dB larger than the noise level of the noise schedule information d60, the noise level of the noise noise schedule information d60 is corrected to a value 20 dB higher.
  • the content reproduction device 1 reflects the corrected noise schedule information d60 in the noise schedule DB 207 (step S440).
  • noise countermeasures can be taken according to the accurate noise schedule information d60.
  • the content can be viewed in a comfortable viewing environment.
  • the noise schedule information d60 When the fact that an error between the noise schedule information d60 and the actually observed noise (noise information during reproduction d40) has occurred due to a traffic delay or a change in the event schedule is obtained via the communication network 4 or the like. Since this is a temporary phenomenon, the noise schedule information d60 is not corrected. In addition, when traffic delays, event schedule changes, and the like can be obtained in advance through the communication network 4 or the like, the content reproduction device 1 creates error information d70 according to the created information, and noise based on the created error information d70. By correcting the noise schedule information d60, it is possible to cope with temporary traffic delays and event schedule changes.
  • FIG. 9 is an example of a graph showing a time series transition of the noise level of the noise indicated in the noise schedule information d60 and the actually observed noise level of the noise.
  • the noise level curve C1 of the actually observed noise exceeds the noise level line L that has a negative effect on content viewing compared to the noise level curve C2 of the noise indicated in the noise schedule information d60.
  • the noise start date and time is earlier by ⁇ t1
  • the noise end date and time that is below the noise level line L is earlier by ⁇ t2.
  • the noise level of the actually observed noise is higher by ⁇ p than the noise level of the noise indicated in the noise schedule information d60.
  • the content reproduction apparatus 1 since the content reproduction apparatus 1 creates the above-described ⁇ t1, ⁇ t2, and ⁇ p as the correction information d70, the content reproduction apparatus 1 sets the noise start date and time earlier by ⁇ t1 than the noise schedule information d60 shown in FIG. Further, the noise schedule information d60 is created in which the noise end date / time is advanced by ⁇ t2 and the noise level at the date / time t3 is increased by ⁇ p.
  • FIG. 10 shows a specific example when the sound field is adjusted.
  • FIG. 10A shows the state of the sound output from each of the four output channels at the normal time when no noise is generated. That is, as shown in FIG. 10 (a), left front channel (FLch) audio from the left front speaker S1, right front channel (FRch) audio from the right front speaker S2, and left surround from the left surround speaker S3. The sound of the channel (SLch) and the sound of the right surround channel (SRch) are output from the right surround speaker S4.
  • FIG. 10B shows the state of the sound output from each of the four output channels when the noise is generated.
  • the content reproduction apparatus 1 has grasped the noise generation direction (occurrence from the right side) from the noise schedule information d60 corrected based on the noise information d40 being reproduced previously acquired.
  • the content reproduction apparatus 1 originally outputs the sound of the right front channel (FRch) output from the right front speaker S2 also from the left front speaker S1.
  • the content reproduction apparatus 1 originally outputs the sound of the right surround channel (SRch) output from the right surround speaker S4 also from the left surround speaker S3.
  • the user U can hear the sound output from the right speaker S2 and the right surround speaker S4, which is difficult to hear when noise is generated, from the left front speaker S1 and the left surround speaker S3, and therefore, the user U consists of left and right sounds.
  • the contents can be surely grasped.
  • the noise schedule creation unit that predicts and creates the noise schedule information d60 that associates the noise occurrence date and time and the noise content that will be detected in the future at the installation location.
  • a noise schedule DB 207 for storing the noise schedule information d60 created by the noise schedule creation unit 206, and a case where the content is reproduced at the noise occurrence date and time described in the noise schedule information d60 stored in the noise schedule DB 207
  • a comfortable viewing environment that can take measures against noise. Rukoto can.
  • the present embodiment it is possible to perform subtitle display and audio adjustment for noise countermeasures based on the noise schedule information d60 created in advance, so that in a viewing state in which adverse effects due to noise are reduced from the beginning of noise generation.
  • the user can view the content.
  • the noise detection unit 203 that detects noise at the installation location and the noise detection unit 203 when the video / audio processing unit 3 is executing the noise countermeasure processing.
  • the noise analysis unit 204 that records information (noise information during reproduction d40) that associates the noise occurrence date and time detected at the installation location with the noise content, the information recorded by the noise analysis unit 204, and the corresponding noise
  • the noise schedule management unit 205 that creates the error information d70 by comparing the contents of the schedule information d60, and when the error information d70 created by the noise schedule management unit 205 exceeds a predetermined threshold, Based on this, the corresponding noise schedule information d60 is corrected, and the corrected noise schedule information d60 is stored in the noise schedule DB 207.
  • noise schedule creation unit 206 to be projected, so that even if noise that does not follow the schedule information d60 once created, the noise schedule information d60 can be corrected, and the next time the same kind of noise occurs. Can take effective noise countermeasures from the beginning of noise generation.
  • the network interface unit 202 that acquires the noise source information d20 regarding the noise source in the vicinity of the installation location via the communication network 4 and the network interface unit 202
  • a noise schedule creation unit 206 that predicts and creates the noise schedule information d60 at the installation location based on the noise source information d20, so even if the information about the noise source near the installation location is not held by itself, the data in the external DB Can be used to create noise schedule information d60 optimal for the installation location.
  • information regarding noise can be obtained from the external DB, so that quick noise countermeasures can be taken.
  • noise analysis that records information associating noise occurrence date / time detected by the noise detection unit 203 and noise content in time series as noise history information d50.
  • the noise history information d50 recorded by the unit 204 and the noise analysis unit 204 is analyzed, and the noise schedule information d60 at the installation location is determined based on the noise history information 50 for noise having a periodic generation pattern.
  • the noise schedule creation unit 206 that performs prediction creation can be used to create a noise schedule that is optimal for the installation location from the noise acquired by itself without using data in the external DB. As a result, it is particularly effective for noise countermeasures for noise that cannot be managed by the external DB.
  • FIG. 11C shows a graph showing the relationship between the noise level curve and the volume adjustment curve.
  • FIG. 11A shows a case where noise countermeasures are not taken
  • FIG. 11B shows a case where noise countermeasures of the prior art are taken
  • FIG. 11C shows a case where the noise countermeasures of the present embodiment are taken.
  • FIG. 11A since the volume curve remains constant even when noise occurs, the sound cannot be heard due to the noise. Further, in FIG.
  • the volume level is adjusted according to the noise generation.
  • the volume adjustment is performed after the noise is detected, a time delay occurs and the voice cannot be heard at the beginning of the noise generation. Will occur.
  • the sound volume level setting is maintained immediately after the noise, so that the volume becomes higher than necessary and the viewing is not comfortable.
  • the noise generation time is known in advance, the volume is adjusted to an appropriate value in real time immediately after the noise is generated, and the noise is generated immediately after the noise ends. If not, return to the appropriate volume setting.
  • the volume level curve does not change abruptly before and after the noise, but gradually changes slightly before the noise is generated or slightly after the end of the noise, so that the user can view the sound naturally without any discomfort. Can be changed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

 コンテンツ再生装置1は、設置場所において今後検知される騒音の発生日時と騒音内容を対応付けた騒音スケジュール情報d60を予測作成する騒音スケジュール作成部206と、騒音スケジュール作成部206で作成された騒音スケジュール情報d60を記憶する騒音スケジュールDB207と、騒音スケジュールDB207に記憶された騒音スケジュール情報d60に記載された騒音の発生日時にコンテンツを再生する場合には、当該騒音スケジュール情報d60の騒音内容に基づいた字幕表示または音声調整を行う騒音対策処理を実行して、コンテンツを再生する映像音声処理部3と、を有する。

Description

コンテンツ再生装置
 本発明は、コンテンツを再生するコンテンツ再生装置に関し、特に、騒音対策が施されたコンテンツ再生装置に関する。
 ユーザが放送番組やビデオなどを視聴するときは、実際には様々な騒音が時々刻々と発生する環境下でコンテンツを視聴することになる。そのため、重要なシーンなどで騒音が発生した場合には、台詞を聞き逃したり、内容がうまく視聴者に伝わらなかったりする恐れがある。
 上述した問題点を解決するため、従来においては、騒音対策が施された情報表示装置や情報再生装置が知られている。例えば、特許文献1に記載の情報表示装置においては、周囲の騒音レベルを検知し、再生音声の再生状態と検知された騒音レベルの関係を考慮して、字幕表示が必要か否かを判断し、字幕表示が必要なときは字幕表示された映像信号を生成する技術が開示されている。また、特許文献2に記載の情報受信・再生装置においては、設置場所の騒音レベルを示す環境騒音データに応じて、字幕の表示形式と音声情報の出力形式を調整する技術が開示されている。
特開2004-304531号公報 特開2006-5418号公報
 しかしながら、上述した従来技術の騒音対策が施された装置は、実際に騒音が発生してから、騒音対策を行うものであり、効果的な騒音対策が行われるのは、騒音が発生してから所定の時間経過した後である。すなわち、騒音発生当初には、騒音対策が施されておらず、快適な視聴環境ではないという問題がある。
 本発明はこのような事情を鑑みてなされたものであり、その課題の一例としては、騒音発生の開始時から効果的な騒音対策を施すことができ、快適な視聴環境を提供することができるコンテンツ再生装置を提供することにある。
 上記の課題を達成するため、請求項1記載のコンテンツ再生装置は、設置場所において今後検知される騒音の発生日時と騒音内容を対応付けた騒音スケジュール情報を予測作成する騒音スケジュール作成手段と、前記騒音スケジュール作成手段で作成された騒音スケジュール情報を記憶する騒音スケジュール記憶手段と、前記騒音スケジュール記憶手段に記憶された騒音スケジュール情報に記載された騒音の発生日時にコンテンツを再生する場合には、当該騒音スケジュール情報の騒音内容に基づいた字幕表示または音声調整を行う騒音対策処理を実行して、コンテンツを再生するコンテンツ再生制御手段と、を有することを特徴とする。
本発明の実施の形態に係るコンテンツ再生装置の概略構成図である。 本発明の実施の形態に係るコンテンツ再生装置の騒音情報処理部及び映像音声処理部の機能構成図である。 本発明の実施の形態に係るコンテンツ再生装置で使用される騒音源情報及び騒音スケジュール情報のデータ構成を具体的に示す図である。 本発明の実施の形態に係るコンテンツ再生装置が騒音源情報から騒音スケジュール情報を作成する騒音スケジュール作成処理の流れを示すフローチャートである。 本発明の実施の形態に係るコンテンツ再生装置が自ら取得した騒音の騒音履歴情報から騒音スケジュール情報を作成する騒音スケジュール作成処理2の流れを示すフローチャートである。 本発明の実施の形態に係るコンテンツ再生装置が騒音スケジュールに沿ってコンテンツ再生を行う騒音スケジュール実行処理の流れを示すフローチャートである。 図6のステップS230の騒音対策処理の流れを詳しく示すフローチャートである。 図6のステップS240の騒音スケジュール補正処理の流れを詳しく示すフローチャートである。 本発明の実施の形態に係るコンテンツ再生装置が作成した騒音スケジュール情報に示された騒音の騒音レベルと、実際に観測された騒音の騒音レベルの時系列の推移を示すグラフである。 本発明の実施の形態に係るコンテンツ再生装置の通常時及び騒音発生時における音場設定の一例を示す図である。 本発明の実施の形態に係るコンテンツ再生装置の騒音対策を施した音量調整と従来技術の騒音対策を施した音量調整の時間的推移を示すグラフである。
符号の説明
  1 コンテンツ再生装置
  2 騒音情報処理部
  3 映像音声処理部
  4 通信ネットワーク
  5 騒音DB
  201 現在地情報管理部
  202 ネットワークインターフェース部
  203 騒音検知部
  204 騒音解析部
  205 騒音スケジュール管理部
  206 騒音スケジュール作成部
  207 騒音スケジュールDB
  301 コンテンツデータ入力部
  302 コンテンツデータ処理部
  303 映像データ入力部
  304 音声データ入力部
  305 文字データ入力部
  306 音声抽出部
  307 文字データ生成部
  308 字幕生成部
  309 映像音声制御部
  310 映像信号処理部
  311 音声信号処理部
  312 映像出力部
  313 音声出力部
 以下、本発明の実施の形態を図面を用いて説明する。
<コンテンツ再生装置の構成>
 図1は、本発明の実施の形態に係るコンテンツ再生装置1の概略構成図である。コンテンツ再生装置1は、騒音対策機能を備えたコンテンツ再生装置であり、外部のデータベース(以下、騒音DB5という)から取得した騒音源に関する情報(以下、騒音源情報d20という)や、実際にマイクロフォン等で観測した騒音d30から、設置場所における騒音状況を計算し、騒音状況に応じた騒音スケジュール情報d60を作成する騒音情報処理部2と、作成された騒音スケジュール情報d60に従って、再生するコンテンツに字幕を表示したり、出力される音声の調整(音量、音色、音場などの調整)をしたりして、騒音対策が施されたコンテンツを出力する映像音声処理部3と、を備えている。
 本実施の形態のコンテンツ再生装置1は、例えば、具体的には、TV(television)などが想定され、地上波デジタル、BSデジタルなどの放送波で提供される番組のコンテンツ、DVD(Digital Versatile Disc)、BD(Blu-ray Disc)などの情報記録媒体に記録されたコンテンツ、インターネット網などのネットワーク通信網を介して提供される番組やダウンロード配信用のコンテンツなどを再生するようになっている。以下においては、コンテンツ再生装置1をTVとして説明するが、TV以外のコンテンツ再生装置であってもよいのは勿論であり、例えば、DVDプレーヤ、BDプレーヤなどのコンテンツ再生装置であってもよい。
 図2は、コンテンツ再生装置1の騒音情報処理部2及び映像音声処理部3の機能構成図である。
 騒音情報処理部2は、詳しくは、現在地情報管理部201、ネットワークインターフェース部202、騒音検知部203、騒音解析部204、騒音スケジュール管理部205、騒音スケジュール作成部206、及び騒音スケジュールDB207を具備する構成である。
 現在地情報管理部201は、コンテンツ再生装置1の設置場所(現在地ともいう)を特定できる現在地情報d10を記憶して管理するようになっている。ここで、現在地情報d10とは、例えば、住所や電話番号など現在地を一意に特定できる情報であり、本実施の形態では、ユーザにより入力設定される。
 ネットワークインターフェース部202は、例えば、インターネット網などの通信ネットワーク4と通信を行うためのインターフェースであり、現在地情報管理部201で管理された現在地情報d10は、ネットワークインターフェース部202及び通信ネットワーク4を介して騒音DB5に送信されるようになっている。
 ここで、騒音DB5は、現在地情報d10を受信すると、コンテンツ再生装置1の現在地を把握するので、現在地近隣に存在する騒音源に関する騒音情報(騒音源情報d20)を検索して、検索した騒音源情報d20を、現在地情報d10を送信したコンテンツ再生装置1に送信するようになっている。
 なお、騒音源情報d20は、詳しくは、騒音源(例えば、現在地近隣に存在する小学校や現在地近隣を通過する電車など)において発生する騒音の日時と、騒音の種類、大きさ及び周波数成分を含む騒音内容と、を対応付けた騒音のスケジュールに関する情報、並びに現在地と騒音源との位置関係を示す情報(例えば、距離、方向など)などから構成されている。
 騒音検知部203は、例えば、マイクロフォンなどを用いて、コンテンツ再生装置1の設置場所で実際に観測される騒音d30を検知するようになっている。
 騒音解析部204は、騒音検知部203で観測される騒音d30を解析するようになっている。例えば、騒音解析部204は、コンテンツ再生装置1でコンテンツを再生中においては、騒音検知部203で観測される騒音d30の中から再生中のコンテンツの音声成分を除去して、騒音成分のみを抽出し、騒音成分のみ(以下、再生中騒音情報d40という)を解析するようになっている。すなわち、騒音検知部203で観測される騒音d30には、再生中のコンテンツデータの音声成分も含まれるので、騒音解析部204は、再生中のコンテンツの音声信号を後述する音声信号処理部311から入力して、騒音成分だけを抽出するようになっている。この再生中騒音情報d40は、後述するように、作成された騒音スケジュール情報d60の補正処理に活用される。
 また、例えば、騒音解析部204は、騒音検知部203で常時観測されている騒音d30を解析するようになっている。すなわち、騒音解析部204は、コンテンツ再生装置1の設置場所で実際に観測される騒音d30の時系列の履歴情報(以下、騒音履歴情報d50という)を解析することが可能となっている。騒音履歴情報d50としては、少なくとも、騒音の発生日時、騒音の大きさや周波数成分、騒音の発生方向などを含んでいる。
 騒音スケジュール管理部205は、騒音に関する情報全般を管理するようになっている。すなわち、騒音スケジュール管理部205は、ネットワークインターフェース部202を介して入力された騒音源情報d20、騒音解析部204で解析された再生中騒音情報d40及び騒音履歴情報d50、並びに後述する騒音スケジュール作成部206で作成された騒音スケジュール情報d60を管理するようになっている。
 ここで、騒音スケジュール情報d60とは、現在地において今後観測される騒音のスケジュールに関する情報であり、詳しくは、現在地において今後観測される騒音の発生日時と、騒音の種類及び大きさなどの騒音内容と、を対応付けた情報を含んで構成される。なお、騒音内容に関しては、騒音の周波数成分や騒音の発生方向などに関する情報を含んでもよい。
 騒音スケジュール作成部206は、騒音スケジュール管理部205の制御の下、騒音スケジュール管理部205で管理されている騒音源情報d20及び騒音履歴情報d50に基づいて、騒音スケジュール情報d60を作成するようになっている。例えば、騒音スケジュール作成部206は、騒音源情報d20から現在地で騒音が観測される日時や騒音の大きさを計算して、騒音スケジュール情報d60を作成したり、騒音履歴情報d50から定期的に観測される騒音を把握して、定期的に観測される騒音の騒音スケジュール情報d60を作成したりする。
 また、騒音スケジュール作成部206は、騒音スケジュール管理部205で管理されている再生中騒音情報d40に基づいて、一旦作成された騒音スケジュール情報d60を補正するようになっている。すなわち、作成した騒音スケジュール情報d60に従って騒音対策を行ったコンテンツ再生を行ったが、実際に観測された騒音と予想した騒音との間に誤差があった場合には、次回、同種類の騒音が発生するときに備えて、騒音スケジュール情報d60を補正するようになっている。例えば、騒音発生日時や騒音の大きさに予め定めた数値(例えば、発生日時のずれが1分、騒音レベルの差が10dBなど)以上の差があった場合には、騒音スケジュール情報d60の騒音発生日時や騒音の大きさを修正するようになっている。
 騒音スケジュールDB207は、騒音スケジュール作成部206で作成された騒音スケジュール情報d60、騒音スケジュール作成部206で補正された騒音スケジュール情報d60を記憶するデータベースである。すなわち、コンテンツ再生装置1は、今後、現在地で観測される騒音の騒音スケジュール情報d60を自装置内に保持している。
 なお、本実施の形態の騒音スケジュール作成部206は、視聴に弊害が出るような騒音が発生するような場合(例えば、現在地で発生する騒音が予め定めた騒音レベル値(dB)を越えた場合など)にだけ、騒音スケジュール情報d60を作成するので、騒音スケジュールDB207に記憶される騒音スケジュール情報d60は、視聴に弊害が出るような騒音に関するスケジュール情報となっている。勿論、これとは別に、現在地において発生する騒音すべての騒音スケジュール情報d60を作成し、作成した騒音スケジュール情報d60のうち、予め定めた騒音レベル以上の騒音だけを対象に騒音対策を行うようにしてもよい。
 映像音声処理部3は、詳しくは、コンテンツデータ入力部301、コンテンツデータ処理部302、映像データ入力部303、音声データ入力部304、文字データ入力部305、音声抽出部306、文字データ生成部307、字幕生成部308、映像音声制御部309、映像信号処理部310、音声信号処理部311、映像出力部312、及び音声出力部313を具備する構成である。
 コンテンツデータ入力部301は、再生コンテンツを入力する入力インターフェースである。
 コンテンツデータ処理部302は、コンテンツデータ入力部301を介して入力されたコンテンツを映像データ、音声データ、及び文字データに分類し、分類されたそれぞれのデータを映像データ入力部303、音声データ入力部304、及び文字データ入力部305に出力するようになっている。
 すなわち、映像データ入力部303は、コンテンツデータ処理部302で分類されたコンテンツの映像データを入力し、音声データ入力部304は、コンテンツデータ処理部302で分類されたコンテンツの音声データを入力し、また、文字データ入力部305は、コンテンツデータ処理部302で分類されたコンテンツの文字データを入力するようになっている。
 音声抽出部306は、文字データがコンテンツに含まれていない場合に、音声データ入力部304に入力されたコンテンツの音声データから、字幕作成に必要となる音声データを抽出するようになっている。字幕作成に必要となる音声データとは、例えば、ニュースやドラマにおける人の声などの音声データである。
 文字データ生成部307は、音声抽出部306で抽出された音声データから文字データを生成するようになっている。
 字幕生成部308は、文字データ入力部305に入力されたコンテンツの文字データ、または文字データ生成部307で生成されたコンテンツの文字データから字幕データを生成するようになっている。
 映像音声制御部309は、騒音スケジュール管理部309から転送された騒音スケジュール情報d60に従って、字幕の表示/非表示の制御を映像信号処理部310に指示し、音声の調整の制御を音声信号処理部311に指示するようになっている。ここで、音声の調整とは、具体的には、音声の音量調整(出力レベルの増減)、音色調整(周波数特性の補正)、音場調整(出力チャンネルの配分変更)など意味する。
 例えば、映像音声制御部309は、騒音スケジュール情報d60に従って、騒音発生時には、字幕を表示する制御を映像信号処理部310に指示し、騒音終了時には、字幕を非表示にする制御を映像信号処理部310に指示する。また、映像音声制御部309は、騒音スケジュール情報d60に従って、騒音発生時には、音声の音量を大きくするように音声信号処理部311に指示し、騒音終了時には、大きくした音声の音量を元に戻すように、音声信号処理部311に指示する。また、騒音の周波数スペクトル(周波数スペクトル:音を校正する周波数とその強度分布)とコンテンツの音声の周波数スペクトルを比較し、聴感上問題となる周波数帯を解析し、コンテンツの音声の周波数特性を補正する(例えば、コンテンツの音声において聴感上問題となる周波数帯の音に対して音圧レベルを上げたり、騒音の周波数成分に対して逆位相の音を出して騒音の音圧レベルを下げたりする)ように、音声信号処理部311に指示する。
 また、音声の調整制御に関しては、騒音発生時に急激に音声を変化させると違和感を覚えるので、騒音のレベルカーブに合わせて滑らかに変化させるように音声信号処理部311に指示する。例えば、騒音期間中に音声の音量を調整する場合には、図11(c)に示すように、騒音期間中には騒音のレベルカーブに合わせて、音声の音量を滑らかに変化させて、音量を大きくするように制御する。
 映像信号処理部310は、映像音声制御部309の指示に従って、調整された映像データを映像出力部312に出力するようになっている。すなわち、映像信号処理部310は、映像音声制御部309の指示に従って、字幕生成部308で生成された字幕データを映像画面上に配置するか、否かの調整を行う。
 音声信号処理部311は、映像音声制御部309の指示に従って、調整された音声データを音声出力部313に出力するようになっている。すなわち、音声信号処理部311は、映像音声制御部309の指示に従って、音声の音量調整(出力レベルの増減)、音色調整(周波数特性の補正)、音声調整(出力チャンネルの配分変更)などの調整を行う。
 映像出力部312は、映像信号処理部310で処理された映像データを出力する出力インターフェースであり、音声出力部313は、音声信号処理部311で処理された映像データを出力する出力インターフェースである。
 なお、本実施の形態のコンテンツ再生装置1では、上述したように、騒音発生時には字幕の表示、音声の出力調整を行うようになっているが、ユーザの設定により、字幕表示のみ、音声の出力調整のみ、字幕の表示及び音声の出力調整の双方、または騒音対策を行わない、のいずれかを選択できるようになっている。例えば、騒音スケジュール情報d60の騒音開始日時が近くなると、騒音発生の通知を画面上に表示して、騒音対策した映像音声の再生を行うか否か、いずれの騒音対策を行うかをユーザに選択させるようにしてもよい。また、コンテンツ再生装置1が騒音パターン(騒音スケジュール情報d60の騒音の種類)に応じていずれかの騒音対策を行うか自動的に選択するようにしてもよい。
また、音声の調整を行う場合には、ユーザにより、音声の音量調整値(出力レベルの増減値)、音色の調整値(補正する周波数帯域)、音場の調整値(出力チャンネルの配分変更値)など値を具体的に設定可能としてもよいし、コンテンツ再生装置1が騒音パターンに応じて自動的に設定可能としてもよい。
また、本実施の形態のコンテンツ再生装置1においては、騒音スケジュール情報d60の発生日時(開始日時、終了日時)に合わせて、字幕の表示または音声の出力の調整を行って騒音対策を行うが、開始日時に騒音対策を開始して、終了日時に騒音対策を終了するほか、開始日時の所定時間前(例えば数秒前など)に騒音対策を開始して、終了日時の所定時間後(例えば数秒後など)に騒音対策を行うようにしてもよい(図11(c)参照)。特に騒音発生期間中に音声の調整を行う場合には、後者の方式で騒音対策を行うと、ユーザは、より違和感なく、自然な音声を視聴することができる。
<騒音源情報、騒音スケジュール情報>
 次に、図3を用いて、コンテンツ再生装置1で使用される騒音源情報d20及び騒音スケジュール情報d60について具体的に説明する。図3は、現在地Aの近隣に2つの騒音源、つまり、F小学校及び鉄道TTライン、が存在する場合の騒音源情報d20、騒音スケジュール情報d60のデータ構成を示す図である。
 上述したように、コンテンツ再生装置1は、コンテンツ再生装置1が設置されている現在地Aを特定可能な現在地情報d10を騒音DB5に送信する。この結果、コンテンツ再生装置1は、騒音源情報d20a及びd20bを受信する。ここで、騒音源情報d20aは、主としてF小学校のイベント情報で構成されており、授業スケジュールやイベントスケジュール(日時と騒音レベルを対応付けた情報。例えば、平日の登下校時間、各授業や昼休みなどの時間割り、朝礼や運動会などのイベント情報と発生日時、その時間帯の騒音レベルカーブなど)のほか、騒音源が固定されていること、現在地AとF小学校の距離は直線距離で300mであることなどの情報を含んでいる。また、騒音源情報d20bは、主としてTTラインの時刻表情報で構成されており、TTラインW駅の時刻表のほか、現在地Aから線路までの最短直線距離(鉄道TTラインが現在地Aに最も近づく地点Bと現在地との直線距離。例えば、100m)、W駅から最短直線距離地点まで電車が要する所要時間(地点BからW駅までの所要時間。例えば、3分)、最短直線距離地点における騒音に関する情報(地点Bでの騒音の周波数スペクトル、時間毎の騒音レベルカーブなど)などの情報を含んでいる。
 騒音源情報d20a及びd20bを受信したコンテンツ再生装置1は、騒音源情報d20aに基づいて騒音スケジュール情報d60a、騒音源情報d20bに基づいて騒音スケジュール情報d60bを作成する。すなわち、F小学校において発生する騒音の発生日時と騒音内容に、現在地AとF小学校との距離を加味して、騒音スケジュール情報d60aを作成し、また、TTラインの地点Bにおいて発生する騒音の発生日時と騒音内容に、現在地と地点Bとの距離を加味して、騒音スケジュール情報d60bを作成する。ここで、騒音スケジュール情報d60aは、F小学校に関する騒音スケジュール情報であって、現在地AにおいてF小学校に関する騒音が観測される日時と、当該日時において観測されるF小学校に関する騒音の大きさ、及び騒音の種類(例えば、登下校なのか昼休みなのか運動会などのイベントのか、または定期的なチャイム音なのかなど)などに関する情報である。例えば、図3に示す騒音スケジュール情報d60aによれば、水曜日のAM8時からAM8時30分の間においては、騒音レベル60-65dBの登校時間に伴う騒音が観測されることを示している。
 また、騒音スケジュール情報d60bは、TTラインに関する騒音スケジュール情報であって、現在地AにおいてTTラインに関する騒音が観測される日時と、当該日時において観測されるTTラインに関する騒音の大きさ(例えば、経過時間に応じた騒音レベルカーブ)や周波数特性、及び騒音の種類(例えば、上りの電車か、下りの電車か)などに関する情報である。例えば、図3に示す騒音スケジュール情報d60bによれば、水曜日のAM6時53分から6時55分までの間には、騒音レベル83-105dBの上り電車の通過に伴う騒音が観測されることを示している。
 このように、本実施の形態のコンテンツ再生装置1は、騒音DB5から現在地Aの近隣の騒音源情報d20a及び20bを取得し、取得した騒音源情報d20a及び20bに基づいて、現在地Aの騒音に関する情報(発生日時及び騒音内容)を推定計算して、現在地Aにおける騒音スケジュール情報d60を作成するので、設置場所に適したきめ細かい騒音スケジュール情報d60を作成することができる。
 この結果、騒音発生時には、騒音スケジュール情報d60に従って、映像に字幕表示をしたり、出力音声の音量調整、音色調整、及び音場調整を行ったりして、騒音対策が施されたコンテンツを再生することができる。例えば、上述した騒音スケジュール情報d30bの水曜日のAM6時53分から6時55分の間に発生する騒音に対しては、同時間帯に映像に字幕表示を行うようにしてコンテンツを再生するようにしてもよい。本実施の形態では、このように事前に作成した騒音スケジュール情報d60に基づいて、騒音対策の字幕表示や音声調整を行うことができるので、騒音発生当初から騒音による弊害を低減した視聴状態でユーザはコンテンツを視聴することができる。
<コンテンツ再生装置の動作>
 次に、図4から図8を用いて、本実施の形態に係るコンテンツ再生装置1の動作について説明する。ここで、図4は、コンテンツ再生装置1が騒音源情報d20から騒音スケジュール情報d60を作成する騒音スケジュール作成処理1の流れを示すフローチャート、図5は、コンテンツ再生装置1が自ら取得した騒音d30の騒音履歴情報d50から騒音スケジュール情報d60を作成する騒音スケジュール作成処理2の流れを示すフローチャート、図6は、コンテンツ再生装置1が騒音スケジュール情報d60に従ってコンテンツ再生を行う騒音スケジュール実行処理の流れを示すフローチャート、図7は、騒音スケジュール実行処理の中の騒音対策処理を詳しく示すフローチャート、図8は、騒音スケジュール実行処理の中の騒音スケジュール補正処理を詳しく示すフローチャートである。
(騒音スケジュール作成処理1)
 まず、図4を用いて、騒音スケジュール作成処理1について説明する。なお、本実施の形態においては、コンテンツ再生装置1は、現在地情報d10が設定されたとき、及び定期的に騒音スケジュール作成処理1を実行する。
 コンテンツ再生装置1は、現在地情報d10を、通信ネットワーク4を介して騒音DB5に送信する(ステップS10)。この結果、騒音DB5は、受信した現在地情報d10に基づいて、現在地近傍の騒音源情報d20を取得して、コンテンツ再生装置1に送信するので、コンテンツ再生装置1は、騒音DB5から現在地近傍の騒音源情報d20を受信する(ステップS20)。
 次に、コンテンツ再生装置1は、受信した騒音源情報d20から現在地において観測される騒音の発生日時(例えば、開始時刻、終了時刻、継続時間など)、及び騒音の内容(例えば、騒音レベル(dB)、時間経過に対する騒音レベルカーブ、周波数スペクトルなど)を推定して計算する(ステップS30)。
 次に、コンテンツ再生装置1は、ステップS30で計算した結果に基づいて、騒音スケジュール情報d60を作成し(ステップS40)、作成した騒音スケジュール情報d60を騒音スケジュールDB207に登録する(ステップS50)。
 このように本実施の形態の騒音スケジュール作成処理1では、現在地の近隣の騒音源に関する情報を自ら保持しなくても、外部DBから取得することができるので、外部DBのデータを利用して、設置場所に最適な騒音スケジュール情報d60を作成することができる。
(騒音スケジュール作成処理2)
 次に、図5を用いて、騒音スケジュール作成処理2について説明する。なお、本実施の形態においては、コンテンツ再生装置2は、常時、騒音スケジュール作成処理2を実行している。
 まず、コンテンツ再生装置1は、例えば、マイクロフォンなどを用いて、設置場所における騒音d30の発生状況を観測する(ステップS110)。そして、観測結果として、観測される騒音d30の騒音レベル、発生日時(開始時刻、終了時刻)、周波数スペクトル、騒音方向などを騒音履歴情報d50として記録する(ステップS120)。
 次に、コンテンツ再生装置1は、記録した時系列の騒音履歴情報d50を参照して、観測された騒音の発生パターンを解析し(ステップS130)、観測された騒音が定期的に発生しているか否かを判定する(ステップS140)。例えば、日単位、週単位、月単位などで周期的に同種類の騒音が観測されているか否かを判断する。
 観測された騒音が定期的に発生しているときは、コンテンツ再生装置1は、騒音履歴情報d50に基づいて、騒音スケジュール情報d60を作成し(ステップS150)、作成した騒音スケジュール情報d60を騒音スケジュールDB207に登録する(ステップS160)。
 このように本実施の形態の騒音スケジュール作成処理2では、外部DBのデータを利用しなくても、自ら取得した騒音から、設置場所に最適な騒音スケジュールを作成することができるので、特に、騒音DB5で管理できない騒音の騒音対策に有効である。例えば、隣接した道路などからの定常的に発生する騒音、生活環境で発生する騒音(洗濯機、エアコン、冷蔵庫などの動作音)に対しても騒音スケジュール情報d60を作成することができる。
(騒音スケジュール実行処理)
 次に、図6を用いて、騒音スケジュール実行処理について説明する。なお、コンテンツ再生装置1は、コンテンツ再生装置1で所定のコンテンツを再生しているときに、騒音スケジュール実行処理を実行する。
 まず、コンテンツ再生装置1は、騒音スケジュールDB207の騒音スケジュール情報d60を参照して(ステップS210)、騒音対策を行う日時であるか否かを判定する(ステップS220)。すなわち、現在の日時(コンテンツ再生装置1が保持する時計の日時)が騒音スケジュール情報d60の騒音開始日時の所定時間(例えば、数分)前であるか否かを判定する。
 騒音対策を行う日時であるときは(ステップS220:YES)、コンテンツ再生装置1は、騒音対策処理(詳しくは後述する)を行い(ステップS230)、次いで、騒音スケジュール補正処理(詳しくは後述する)を行う(ステップS240)。
(騒音対策処理)
 次に、図7を用いて、騒音対策処理について詳しく説明する。騒音対策処理は、騒音対策を施して、コンテンツを再生制御する処理であり、図7は、図6のステップS230の騒音対策処理を詳しく示すフローチャートである。
 まず、コンテンツ再生装置1は、騒音発生時に字幕表示を行うか否かを判定する(ステップS310)。騒音発生時に字幕表示を行う場合は(ステップS310:YES)、コンテンツの中に文字データが予めあるか否かを判定し(ステップS320)、文字データがあるときは(ステップS320:YES)、そのまま文字データを字幕データとして生成し(ステップS350)、文字データがないときは(ステップS320:NO)、コンテンツの音声から字幕生成対象の音声を抽出し(ステップS330)、抽出した音声を文字データに変換して(ステップS340)、字幕データを生成する(ステップS350)。
 次に、コンテンツ再生装置1は、生成された字幕データを表示画面上の適切な位置に配置して、表示する準備を行う(ステップS360)。
 次に、コンテンツ再生装置1は、騒音発生時に音声の出力の調整を行うか否かを判定する(ステップS310)。騒音発生時に音声の出力の調整を行う場合、すなわち、音声の音量調整、音色調整、または音場調整のうち、少なくとも一つ以上の調整を行う場合には、騒音スケジュール情報d60の騒音内容に応じて、音声の音量調整、音色調整、または音場調整の調整値を設定して、音声出力を準備する(ステップS380)。
 次に、コンテンツ再生装置1は、現在の日時(コンテンツ再生装置1が保持する時計の日時)が騒音スケジュール情報d60の騒音開始日時になると、字幕表示または音声の出力調整を行って、コンテンツを再生する(ステップS390)。なお、騒音対策を施されたコンテンツ再生をしている間は、コンテンツ再生装置1は、実際に観測される騒音d30を採取する。そして、現在の日時が騒音スケジュール情報d60の騒音終了日時になると、コンテンツ再生装置1は、騒音対策を施されたコンテンツの再生動作を終了する。なお、後述する騒音スケジュール補正処理を考慮して、終了後、所定時間(例えば、数分)の間は、コンテンツ再生装置1は、実際に観測される騒音d30の採取を継続する。
(騒音スケジュール補正処理)
 次に、図8を用いて、騒音スケジュール補正処理について詳しく説明する。図8は、図6のステップS240の騒音スケジュール補正処理を詳しく示すフローチャートである。
 コンテンツ再生装置1は、図7に示す騒音対策処理を実行した結果、騒音スケジュール情報d60が示す騒音(騒音発生日時、騒音の内容)と実際に観測された騒音(再生中騒音情報d40の騒音発生日時、騒音の内容)に誤差があるか否かを判定する(ステップS410)。ここで、誤差とは、詳しくは、予め定められた閾値以上の誤差を意味し、例えば、具体的には、騒音の大きさの差が10dB以上、騒音開始日時の差が1分以上などの誤差を示す。
 騒音スケジュール情報d60と実際に観測された騒音(再生中騒音情報d40)に誤差がある場合には(ステップS410:YES)、コンテンツ再生装置1は、誤差情報d70を作成し(ステップS420)、作成した誤差情報d70に基づいて、今後発生する同種類の騒音の騒音スケジュール情報d60を補正する(ステップS430)。すなわち、騒音の騒音スケジュール情報d60の騒音発生日時や騒音内容を補正する。例えば、実際の騒音開始日時が騒音スケジュール情報d60の騒音開始日時よりも30分早かったときは、騒音の騒音スケジュール情報d60の騒音開始日時を30分早い日時に補正する。また、実際の騒音の大きさが騒音スケジュール情報d60の騒音の大きさよりも20dB大きかったときは、騒音の騒音スケジュール情報d60の騒音の大きさを20dB大きな値に補正する。
 次に、コンテンツ再生装置1は、補正された騒音スケジュール情報d60を騒音スケジュールDB207に反映する(ステップS440)。
 この結果、次回に同種の騒音が発生するときには、正確な騒音スケジュール情報d60に従って、騒音対策を施すことができるので、予想した内容と異なった騒音に対しても次回の発生時においては、ユーザは快適な視聴環境でコンテンツを視聴することができる。
 なお、騒音スケジュール情報d60と実際に観測された騒音(再生中騒音情報d40)との誤差が交通遅延やイベントスケジュールの変更などによって発生したという事実を、通信ネットワーク4などを介して入手した場合は、一時的な現象である為、騒音スケジュール情報d60の補正処理は行わない。また、交通遅延やイベントスケジュールの変更などを、通信ネットワーク4などを通じて事前に入手できる場合は、コンテンツ再生装置1は、それに合わせた誤差情報d70を作成し、作成した誤差情報d70に基づいて、騒音の騒音スケジュール情報d60を補正することで一時的な交通遅延やイベントスケジュールの変更などにも対応が可能である。
 図9は、騒音スケジュール情報d60に示された騒音の騒音レベルと、実際に観測された騒音の騒音レベルの時系列の推移を示すグラフの一例である。図9に示すように、実際に観測した騒音の騒音レベルカーブC1では、騒音スケジュール情報d60に示された騒音の騒音レベルカーブC2と比べて、コンテンツの視聴に弊害が出る騒音レベルラインLを超える騒音開始日時がΔt1だけ早くなっており、また、騒音レベルラインL以下となる騒音終了日時がΔt2だけ早くなっている。また、時刻t3において、実際に観測された騒音の騒音レベルは、騒音スケジュール情報d60に示された騒音の騒音レベルと比べて、Δpだけ高くなっている。このため、コンテンツ再生装置1は、上述したΔt1、Δt2、Δpを補正情報d70として作成するので、コンテンツ再生装置1は、図9に示した騒音スケジュール情報d60に比べて、騒音開始日時をΔt1早く、また、騒音終了日時をΔt2早く、さらに、日時t3における騒音レベルをΔpだけ高くした騒音スケジュール情報d60を作成することになる。
 図10は、音場調整をする場合の具体例を示している。ここで、図10(a)は、騒音が発生していない通常時に、コンテンツ再生装置1が4つの出力チャネルそれぞれから出力する音声の様子を示している。すなわち、図10(a)に示すように、左フロントスピーカS1からは左フロントチャンネル(FLch)の音声、右フロントスピーカS2からは右フロントチャンネル(FRch)の音声、左サラウンドスピーカS3からは左サラウンドチャンネル(SLch)の音声、右サラウンドスピーカS4からは右サラウンドチャンネル(SRch)の音声がそれぞれ出力される。これに対して、図10(b)は、騒音発生時に、コンテンツ再生装置1が4つの出力チャネルそれぞれから出力する音声の様子を示している。なお、前提として、コンテンツ再生装置1は、騒音の発生方向(右側から発生)を、以前に取得した再生中騒音情報d40に基づいて補正した騒音スケジュール情報d60から把握しているものとする。この場合には、コンテンツ再生装置1は、本来、右フロントスピーカS2から出力される右フロントチャンネル(FRch)の音声を、左フロントスピーカS1からも出力する。また、コンテンツ再生装置1は、本来、右サラウンドスピーカS4から出力される右サラウンドチャンネル(SRch)の音声を、左サラウンドスピーカS3からも出力する。この結果、ユーザUは、騒音発生時には聴き取りにくい右スピーカS2及び右サラウンドスピーカS4から出力される音声を、左フロントスピーカS1及び左サラウンドスピーカS3からも聴くことができるので、左右の音声で成り立つコンテンツの内容を確実に把握することができる。
 以上説明したように、本実施の形態に係るコンテンツ再生装置1によれば、設置場所において今後検知される騒音の発生日時と騒音内容を対応付けた騒音スケジュール情報d60を予測作成する騒音スケジュール作成部206と、騒音スケジュール作成部206で作成された騒音スケジュール情報d60を記憶する騒音スケジュールDB207と、騒音スケジュールDB207に記憶された騒音スケジュール情報d60に記載された騒音の発生日時にコンテンツを再生する場合には、当該騒音スケジュール情報d60の騒音内容に基づいた字幕表示または音声調整を行う騒音対策処理を実行して、コンテンツを再生する映像音声処理部3と、を有するので、騒音発生の開始時から効果的な騒音対策を施すことができ、快適な視聴環境を提供することができる。すなわち、本実施の形態によれば、事前に作成した騒音スケジュール情報d60に基づいて、騒音対策の字幕表示や音声調整を行うことができるので、騒音発生当初から騒音による弊害を低減した視聴状態でユーザはコンテンツを視聴することができる。
 また、本実施の形態に係るコンテンツ再生装置1によれば、設置場所の騒音を検知する騒音検知部203と、映像音声処理部3が騒音対策処理を実行しているときに、騒音検知部203により、設置場所において検知された騒音の発生日時と騒音内容を対応付けた情報(再生中騒音情報d40)を記録する騒音解析部204と、騒音解析部204で記録された情報と、対応する騒音スケジュール情報d60の内容を比較して誤差情報d70を作成する騒音スケジュール管理部205と、騒音スケジュール管理部205で作成された誤差情報d70が予め定められた閾値を超える場合には、誤差情報d70に基づいて、対応する騒音スケジュール情報d60を補正して、補正した騒音スケジュール情報d60を騒音スケジュールDB207に反映する騒音スケジュール作成部206と、を有するので、一旦作成したスケジュール情報d60に沿わない騒音が発生したとしても、騒音スケジュール情報d60を補正することができ、次回、同種の騒音が発生する場合には、騒音発生の開始時から効果的な騒音対策が施すことができる。
 また、本実施の形態に係るコンテンツ再生装置1によれば、通信ネットワーク4を介して、設置場所近隣の騒音源に関する騒音源情報d20を取得するネットワークインターフェース部202と、ネットワークインターフェース部202により取得した騒音源情報d20に基づいて、設置場所における騒音スケジュール情報d60を予測作成する騒音スケジュール作成部206と、を有するので、設置場所近隣の騒音源に関する情報を自ら保持しなくても、外部DBのデータを利用して、設置場所に最適な騒音スケジュール情報d60を作成することができる。また、視聴環境をとりまく騒音の状況が変わった場合でも、外部DBから騒音に関する情報を得ることができるので、迅速な騒音対策を行うことができる。
 また、本実施の形態に係るコンテンツ再生装置1によれば、騒音検知部203により検知された騒音の発生日時と騒音内容を対応付けた情報を時系列的に騒音履歴情報d50として記録する騒音解析部204と、騒音解析部204により記録された騒音履歴情報d50を解析して、定期的な発生パターンを有する騒音に対しては、騒音履歴情報50に基づいて、設置場所における騒音スケジュール情報d60を予測作成する騒音スケジュール作成部206と、を有するので、外部DBのデータを利用しなくても、自ら取得した騒音から、設置場所に最適な騒音スケジュールを作成することができる。この結果、外部DBで管理できない騒音の騒音対策に特に有効である。
 また、本実施の形態に係るコンテンツ再生装置1において、音声調整する場合には、図11(c)に示すように、騒音発生開始前から騒音対策を施すとともに音声調整(音量調整)を緩やかに施すことができるので、ユーザは違和感なく自然な感じで音声を視聴することができる。なお、図11は、騒音レベルカーブと音量調整カーブの関係を示したグラフであり、図11(a)は、騒音対策しない場合、図11(b)は、従来技術の騒音対策をした場合、図11(c)本実施の形態の騒音対策をした場合を示している。図11(a)では、騒音が発生しても音量カーブは初期設定のまま一定であるため、騒音により音声が聞き取れなくなる。また、図11(b)では、騒音発生に応じて音量レベルを調整しているが、騒音を検知してから音量調整するため、時間的な遅れが発生し騒音発生当初は音声が聞き取れない場合が発生する。また、騒音がなくなっても直後は騒音に合わせた音量レベルの設定が維持されるため、必要以上の音量となり快適な視聴とは言えなくなる。これに対して、図11(c)では、事前に騒音の発生時間が分かっているため、騒音発生直後からリアルタイムに音量が適正な値に調整され、騒音終了直後には、騒音が発生していない場合に適切な音量設定値に戻る。また、音量レベルのカーブも騒音前後で急激に変化するのではなく、騒音発生の少し前や騒音終了の少し後に渡って、ゆるやかに変化することで、ユーザに違和感なく自然に音声を視聴できるように変化させることができる。
 以上、本発明の実施の形態について説明してきたが、本発明は、上述した実施の形態に限られるものではなく、本発明の要旨を逸脱しない範囲において、本発明の実施の形態に対して種々の変形や変更を施すことができ、そのような変形や変更を伴うものもまた、本発明の技術的範囲に含まれるものである。   

Claims (7)

  1.  設置場所において今後検知される騒音の発生日時と騒音内容を対応付けた騒音スケジュール情報を予測作成する騒音スケジュール作成手段と、
     前記騒音スケジュール作成手段で作成された騒音スケジュール情報を記憶する騒音スケジュール記憶手段と、
     前記騒音スケジュール記憶手段に記憶された騒音スケジュール情報に記載された騒音の発生日時にコンテンツを再生する場合には、当該騒音スケジュール情報の騒音内容に基づいた字幕表示または音声調整を行う騒音対策処理を実行して、コンテンツを再生するコンテンツ再生制御手段と、
    を有することを特徴とするコンテンツ再生装置。
  2.  前記騒音スケジュール作成手段は、
     前記設置場所の騒音を検知する騒音検知手段と、
     前記コンテンツ再生制御手段が前記騒音対策処理を実行しているときに、前記騒音検知手段により、前記設置場所において検知された騒音の発生日時と騒音内容を対応付けた情報を記録する騒音記録手段と、
     前記騒音情報記録手段で記録された情報と、対応する前記騒音スケジュール情報の内容を比較して誤差情報を作成する誤差情報作成手段と、
     前記誤差情報作成手段で作成された誤差情報が予め定められた閾値を超える場合には、前記誤差情報に基づいて、前記対応する騒音スケジュール情報を補正して、補正した騒音スケジュール情報を前記騒音スケジュール記憶手段に反映する騒音スケジュール補正手段と、
    を有することを特徴とする請求項1記載のコンテンツ再生装置。
  3.  前記騒音スケジュール作成手段は、
     通信ネットワークを介して、前記設置場所近隣の騒音源に関する情報を取得する騒音源情報取得手段と、
     前記騒音源情報取得手段により取得した情報に基づいて、前記設置場所における前記騒音スケジュール情報を予測作成する第1騒音スケジュール作成手段と、
    を有することを特徴とする請求項1又は2記載のコンテンツ再生装置。
  4.  前記騒音源情報取得手段により取得された情報は、
     前記騒音源において発生する騒音の日時と、騒音の種類、大きさ及び周波数成分を含む騒音内容とを対応付けたスケジュール情報、並びに前記設置場所と前記騒音源との位置関係を含む情報であり、
     前記第1騒音スケジュール作成手段は、
     前記騒音源において発生する騒音の日時と、騒音の種類、大きさ及び周波数成分を含む騒音内容とを対応付けたスケジュール情報、並びに前記設置場所と前記騒音源との位置関係に基づいて、前記設置場所において検知される騒音の発生日時、大きさ、及び周波数成分を計算して、前記騒音スケジュール情報を作成することを特徴とする請求項3記載のコンテンツ再生装置。
  5.  前記騒音スケジュール作成手段は、
     前記騒音検知手段により検知された騒音の発生日時と騒音内容を対応付けた情報を時系列的に騒音履歴情報として記録する騒音履歴記録手段と、
     前記騒音履歴記録手段により記録された騒音履歴情報を解析して、定期的な発生パターンを有する騒音に対しては、前記騒音履歴情報に基づいて、前記設置場所における前記騒音スケジュール情報を予測作成する第2騒音スケジュール作成手段と
    を有することを特徴とする請求項2乃至4のいずれか1項に記載のコンテンツ再生装置。
  6.  前記騒音履歴情報は、
     前記設置場所において発生する騒音の日時と、騒音の大きさ、周波数成分、及び発生方向を含む騒音内容とを対応付けたスケジュール情報であり、
     前記第2騒音スケジュール作成手段は、
     前記スケジュール情報の中から同種の騒音が定期的な発生パターンを有する場合には、定期的な発生パターンを有する騒音に対して、前記設置場所において検知される騒音の発生日時、大きさ、周波数成分、及び発生方向を計算して、前記騒音スケジュール情報を作成することを特徴とする請求項5記載のコンテンツ再生装置。
  7.  前記音声調整は、音量調整、音色調整、及び音場調整を含み、
     前記コンテンツ再生制御手段は、
     ユーザの指示により、前記騒音対策処理の実行または非実行の選択、前記騒音対策処理を実行する場合における前記字幕表示または前記音声調整の選択、及び前記音声調整を行う場合における、音量調整、音色調整、または音場調整の選択を行う操作選択手段をさらに有することを特徴とする請求項1乃至6のいずれか1項に記載のコンテンツ再生装置。
PCT/JP2008/062460 2008-07-10 2008-07-10 コンテンツ再生装置 WO2010004629A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2008/062460 WO2010004629A1 (ja) 2008-07-10 2008-07-10 コンテンツ再生装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2008/062460 WO2010004629A1 (ja) 2008-07-10 2008-07-10 コンテンツ再生装置

Publications (1)

Publication Number Publication Date
WO2010004629A1 true WO2010004629A1 (ja) 2010-01-14

Family

ID=41506763

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2008/062460 WO2010004629A1 (ja) 2008-07-10 2008-07-10 コンテンツ再生装置

Country Status (1)

Country Link
WO (1) WO2010004629A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180225088A1 (en) * 2017-02-08 2018-08-09 Kyocera Corporation Electronic device, control method, and non-transitory storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003060737A (ja) * 2001-08-09 2003-02-28 Hitachi Kokusai Electric Inc 携帯電子機器及びその制御プログラム
JP2005333191A (ja) * 2004-05-18 2005-12-02 Matsushita Electric Ind Co Ltd 携帯端末型テレビジョン受信装置
JP2006005886A (ja) * 2004-06-21 2006-01-05 Pioneer Electronic Corp コンテンツデータ再生装置、コンテンツデータ再生システム及びコンテンツデータ再生プログラム
JP2007336593A (ja) * 2007-08-13 2007-12-27 Toshiba Corp 情報表示装置、情報表示方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003060737A (ja) * 2001-08-09 2003-02-28 Hitachi Kokusai Electric Inc 携帯電子機器及びその制御プログラム
JP2005333191A (ja) * 2004-05-18 2005-12-02 Matsushita Electric Ind Co Ltd 携帯端末型テレビジョン受信装置
JP2006005886A (ja) * 2004-06-21 2006-01-05 Pioneer Electronic Corp コンテンツデータ再生装置、コンテンツデータ再生システム及びコンテンツデータ再生プログラム
JP2007336593A (ja) * 2007-08-13 2007-12-27 Toshiba Corp 情報表示装置、情報表示方法及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180225088A1 (en) * 2017-02-08 2018-08-09 Kyocera Corporation Electronic device, control method, and non-transitory storage medium
US10496365B2 (en) * 2017-02-08 2019-12-03 Kyocera Corporation Electronic device, control method, and non-transitory storage medium

Similar Documents

Publication Publication Date Title
US8139165B2 (en) Television receiver
JP5201692B2 (ja) クローズド・キャプションをつけるシステムおよび方法
US8744244B2 (en) Reproducing apparatus, reproducing method, and storage medium
JP4170808B2 (ja) 情報表示装置、情報表示方法及びプログラム
JP5957760B2 (ja) 映像音声処理装置
CN102113339B (zh) 数字广播再现装置和数字广播再现方法
JP2006211636A (ja) 字幕付き映像信号の遅延制御装置及び遅延制御プログラム
JPWO2009044818A1 (ja) コンテンツ表示制御装置、コンテンツ表示制御方法、プログラム、および記録媒体
KR100678938B1 (ko) 영상과 자막의 동기화 조절 장치 및 방법
WO2010004629A1 (ja) コンテンツ再生装置
JP2007053510A (ja) 記録再生装置、再生装置、音量自動調整方法および音量自動調整プログラム
JP4587916B2 (ja) 音声信号判別装置、音質調整装置、コンテンツ表示装置、プログラム、及び記録媒体
JP5274179B2 (ja) 字幕放送システム及び字幕放送方法
EP2187635B1 (en) Video voice recorder
US20090106811A1 (en) Information processing apparatus, information processing method, program, and recording medium on which such program is recorded
JP4929375B2 (ja) 放送録画装置及び放送録画方法
JP2010154249A (ja) 映像音声再生システム及び配信装置
JP2009290334A (ja) 放送受信装置
JP2005204265A (ja) 時計装置及び番組記録装置
Komori et al. Development of a broadcast sound receiver for elderly persons
US8712220B2 (en) Video reproducing apparatus and video reproducing method
JP3811751B2 (ja) 合成タイミング調整システム
JP2009135754A (ja) ダイジェスト作成装置及び方法
JP6026230B2 (ja) 音声調整卓
KR101425555B1 (ko) 청력 보완 기능을 가진 티브이

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 08791030

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 08791030

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP