WO2009074372A2 - Vorrichtung und verfahren zur ausgabe eines aus einem rundfunksignal gewonnenen audiosignals - Google Patents

Vorrichtung und verfahren zur ausgabe eines aus einem rundfunksignal gewonnenen audiosignals Download PDF

Info

Publication number
WO2009074372A2
WO2009074372A2 PCT/EP2008/063754 EP2008063754W WO2009074372A2 WO 2009074372 A2 WO2009074372 A2 WO 2009074372A2 EP 2008063754 W EP2008063754 W EP 2008063754W WO 2009074372 A2 WO2009074372 A2 WO 2009074372A2
Authority
WO
WIPO (PCT)
Prior art keywords
audio data
audio
unit
memory
memory address
Prior art date
Application number
PCT/EP2008/063754
Other languages
English (en)
French (fr)
Other versions
WO2009074372A3 (de
Inventor
Hartwig Koch
Karsten Mauler
Gerald Spreitz
Sascha Jakoblew
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Publication of WO2009074372A2 publication Critical patent/WO2009074372A2/de
Publication of WO2009074372A3 publication Critical patent/WO2009074372A3/de

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs

Definitions

  • the invention is based on a device or a method according to the preamble of the independent claims.
  • Audio signal a time offset of the audio signal. It is known that the memory address at which the audio signal is read from the memory is variable by an input of a user. This allows the user to influence the time offset for the output of the audio signal.
  • audio data subdivide audio data into audio data segments, the audio data segments having audio data contents of different types.
  • Types of audio data content include, for example, types such as voice, music, commercials, or other types of audio data content. Disclosure of the invention
  • the inventive method with the features of the independent claim has the advantage that a memory address at which audio data are read from a memory, depending on an input of a user and in dependence on indices, at which there is a change of a type of audio data, is selected.
  • Claimed is a method for outputting an audio signal obtained from a broadcast signal, wherein the audio signal is written in the form of first audio data in a memory at a memory address which changes over time, wherein at the same time as writing the first
  • Audio data is read from memory in the memory second audio data at a further, consecutively changing memory address, wherein the audio signal is output using the second audio data, characterized in that the first audio data are analyzed on types of audio data contents such that the first audio data are indexed at those locations with indices at which there is a change of a type of the first audio data, and that the further memory address is selected in dependence on the indices of the first audio data and an input of a user.
  • the input of the user is a selection of an index of the first audio data.
  • the input of the user is a selection of that index which immediately follows the further memory address. This is advantageous since the user can thus select the further memory address in such a way that the second audio data to be read out are read out at that memory address to which, on the one hand, there is a change in the type of audio data content
  • Audio data and which is closest to the current memory address.
  • an input of the user sets a type of audio data contents so as to omit the use of second audio data of the specified type for outputting the audio signal.
  • This is advantageous because the user can thus influence which audio data of a certain type of audio data content should not be used to output this audio signal.
  • the reading of the second audio data for outputting an externally supplied audio signal is interrupted. This is advantageous, as a result
  • Influence on the time offset in the output of the audio signal can be taken.
  • respective audio signals are obtained from respective broadcast signals and in the form of respective first audio data at time continuously changing memory addresses written in respective memory
  • at the same time for writing the respective first audio data second audio data at a further, temporally continuously changing memory address from one of the memory are read out, wherein the audio signal is output using the second audio data, wherein - A -
  • the respective first audio data are analyzed on types of audio data contents such that the respective first audio data are indexed at those locations with indices having a change of one type of the respective first audio data, and the further memory address being dependent on the indices of the respective ones first audio data and a
  • Input of a user is selected. This is advantageous because it thus enables the user to fall back on respective audio signals which are obtained from respective broadcast signals in the course of the output of the audio signal.
  • a control unit for outputting an audio signal obtained from a broadcasting signal, comprising a first interface to an acoustic output unit for acoustically outputting the audio signal, a second interface to a provisioning unit for providing the from the
  • Broadcast signal obtained audio data obtained audio data, a third interface to an input unit for detecting an input of a user, a memory unit for storing from the broadcast signal obtained first audio data at a temporally continuously changing memory address, a readout unit for reading second audio data at a further, temporally changing continuously Memory address from the memory, wherein the reading is performed simultaneously with the storage of the first audio data, a decoding unit for decoding the second audio data in the output audio signal, characterized by an analysis unit which analyzes the first audio data on types of audio data contents such that the first Indices are indexed at those locations with indices having a change of a type of the first audio data, and in that the read-out unit stores the further memory address in dependence on the indices of the first audio data and the like nd the input of the user chooses.
  • a device for outputting a signal obtained from a broadcast signal comprising a first interface to an acoustic output unit for the acoustic output of the audio signal, a second interface to a delivery unit for providing the from Broadcast signal obtained audio data, a third interface to an input unit for detecting an input of a user, a memory unit for storing from the broadcast signal obtained first audio data at a temporally continuously changing memory address, a readout unit for reading second audio data at another, temporally continuously changing memory address from the memory, wherein the reading is performed simultaneously with the storage of the first audio data, a decoding unit for decoding the second audio data into the audio signal to be output, characterized by an analysis unit which analyzes the first audio data on types of audio data contents such that the first audio data indexes are indexed at those locations where there is a change of a type of the first audio data, and in that the readout unit uses the further memory address in dependence on the indices of the first audio data
  • control unit according to the invention and the device according to the invention have the advantages of the method according to the invention.
  • FIGS. 1a, 1b show exemplary embodiments for obtaining audio data from broadcast signals.
  • Figure 2 shows a structure of first audio data.
  • FIG. 3 a shows a memory unit with memory addresses.
  • FIG. 3b shows a memory unit in which first audio data are written and from which second audio data are read out.
  • FIG. 4 shows the decoding of second audio data into the output
  • FIG. 5 shows an analysis of first audio data by an analysis unit
  • Figure 6 shows audio data having audio data segments of different type of audio data contents.
  • Figures 7a, 7b show an indexing of audio data of different types of audio data contents according to different embodiments.
  • FIGS. 8a, 8b, 8c show a writing as well as a readout of first and second audio data at memory addresses.
  • FIGS. 9, 10 show a writing as well as a readout of first and second, respectively
  • FIGS. IIa, IIb show different embodiments of a control unit according to the invention and a device according to the invention.
  • FIG. 1a shows the extraction of first audio data 5 from a broadcast signal 1.
  • the transmission method according to this exemplary embodiment is an analog transmission method.
  • the broadcast signal 1 is received by the receiving unit 2, which converts it into an audio signal 3.
  • the receiving unit 2 for example, a demodulation of the broadcast signal 1 before.
  • Such demodulation methods are known to the person skilled in the art.
  • the audio signal 3 is now supplied to a coding unit 4, which performs an encoding of the audio signal 3 into first audio data 5.
  • FIG. 1 b shows a further exemplary embodiment for obtaining first audio data 5 from a second broadcasting signal 11.
  • the second broadcasting signal 11 this is, for example, a broadcast signal of a
  • the Transmission method of digital transmission preferably the Digital Audio Broadcasting DAB method.
  • the second broadcast signal 11 is received by the receiver 22, which extracts the first audio data 5 from the second broadcast signal 11.
  • the extraction of audio data based on the second broadcast signal 11 of a digital transmission method is the
  • FIG. 2 shows a structure of the first audio data 5.
  • the first audio data 5 consist for example of a plurality of audio data segments 51, 52, 53.
  • the first audio data 5 have, for example, a first audio data segment 51 on which a second audio data segment 52 follows in chronological order and thereupon a third audio data segment 53.
  • FIG. 3 a shows a memory unit 100, which has a first memory address 1001, a second memory address 1002 following thereon, and a third memory address 1003 that follows thereon.
  • FIG. 3b shows the writing of the first audio data 5 into the memory unit 100 as well as the reading out of the second audio data 500 from the memory unit 100.
  • the memory unit 100 initially has the fourth viewed from left to right
  • Memory address 2001, the fifth memory address 2002, and the sixth memory address 2003 At a certain distance from the sixth memory address 2003 is located farther to the right in the memory unit 100, the first memory address 3001, then the second memory address 3002, thereafter the third memory address 3003. Between the sixth
  • Memory address 2003 and the first memory address 3001 are, for example, more memory addresses. Also located before the fourth memory address 2001 more memory addresses, and further to the right of the third memory address 3003 more memory addresses.
  • the first audio data 5 consists of the first audio data segment 51, the second audio data segment 52 and the third audio data segment 53.
  • the second audio data 500 to be read from the memory unit 100 consists of a fourth audio data segment 501, a fifth audio data segment 502 and a second audio data segment 502 sixth audio data segment 503.
  • the principle of simultaneously writing the first audio data 5 into the memory unit 100 and reading out the second audio data 500 from the memory unit 100 will now be explained.
  • the first audio data segment 51 at the first memory address 3001 in the Memory unit 100 is written.
  • the fourth audio data segment 501 is read from the memory unit 100 at the fourth memory address 2001.
  • the second audio data segment 52 at the second memory address 3002 is written to the memory unit 100.
  • the fifth audio data segment 502 at the fifth memory address 2002 is read from the memory unit 100.
  • the third audio data segment 53 is written to the third memory address 3003 in the memory 100.
  • T3 becomes the sixth
  • Audio data segment 503 at the sixth memory address 2003 read from the memory 100.
  • both the writing of the first audio data 5 and the reading out of the second audio data 500 occur segmentally on the basis of audio data segments 51, 52, 53, 501, 502, 503.
  • the writing of the audio data segments or the readout of the audio data segments takes place in accordance with FIG. 3b at consecutive times T1, T2, T3.
  • the segmental time offset between two times, for example, the first time Tl and the second time T2, represents the present time clock T.
  • Time offset of the playback of the audio signal as a product of the clock T and the removal of the two memory addresses determine.
  • FIG. 4 shows the decoding of the second audio data 500 by means of a decoder 6 into the audio signal 31 to be output.
  • the read-out fourth, fifth and sixth audio data segments 501, 502, 503 are sequentially fed to the decoder 6, which outputs the audio signal 31 to be output by means of decoding the audio data segments outputs.
  • the decoder 6 is supplied with the first audio data segment 501, then the second audio data segment 502, and then the third audio data segment 503.
  • Figure 3b and Figure 4 show the first audio data 5 and the second audio data 500 according to the embodiment as each consisting of three audio data segments 51, 52, 53, 501, 502, 503. It is known to the person skilled in the art that audio data 5, 500 comprising audio data segments 51, 52, 53, 501,
  • the number of the audio data segments is not limited to three audio data segments. Furthermore, it is known to the person skilled in the art to supply audio data segments 501, 502, 503 to a decoder 6, the person skilled in the art having different data formats for segmenting audio data 5, 500 into respective audio data segments 51 to 501 as well as the respective ones
  • FIG. 5 and FIG. 6 show an analysis of the first audio data 5 using an analysis unit 30.
  • the first audio data 5 consists of twenty-seven audio data segments 51 to 77 according to FIG. 6.
  • the analysis unit 30 analyzes the first audio data 5 for types of audio data contents.
  • types of audio data contents are, for example, the type of speech contribution, the type of piece of music or the type of advertising contribution.
  • An analysis of first audio data 5 on types of audio data contents is known in the art.
  • the analysis unit 30 performs the analysis of the first audio data 5 on types of audio data contents, and segments the first audio data 5 into four consecutive audio data type segments 9000, 9001, 9002, 9003 depending on the types of the audio data contents of the audio data segments 51 to
  • An audio data type segment consists of at least one audio data segment. If an audio data type segment consists of several audio data segments, the audio data segments of the audio data type segment are of the same type of audio data content.
  • segmentation of the first audio data 5 into four audio data type segments 9000 to 9003 is present through the analysis unit 30.
  • the first audio data 5 in more or less audio data type segments 9000 to 9003 depending on types of audio data contents of the Audio data segments 51 to 77 are segmented.
  • the first audio data type segment 9000 consists of eleven audio data segments, namely the first audio data segment 51 up to the eleventh audio data segment 61. Furthermore, the second audio data type segment 9001, which differs from the twelfth audio data segment, is found in FIG. 6
  • Audio data segment 62 extends to the seventeenth audio data segment 67.
  • the second audio data type segment 9001 is an audio data type segment of the audio data type B indicated by a second identifier 8001.
  • the second audio data type segment 9001 is followed by a third audio data type segment 9002 extending from the eighteenth
  • the third audio data type segment 9002 is an audio data type segment of the audio data type C, which is identified by a third identifier 8002.
  • the fourth audio data type segment 9003 extends from the twenty-third audio data segment 73 to the twenty-fifth audio data segment 75, wherein the fourth audio data type segment 9003 is an audio data type B indicated by a fourth identifier 8003.
  • the last audio data segment 75 of the fourth audio data type segment 9003 is followed by further audio data segments 76, 77 according to FIG. 6.
  • the first audio data 5 is not necessarily limited to twenty-seven audio data segments 51 to 77, but may include further audio data segments, which may also be combined as audio data type segments of particular audio data types.
  • the segmentation of the first audio data 5 into the four illustrated audio data type segments 9000 to 9003 is performed by the analysis unit 30.
  • the first audio data 5 are indexed at those locations or audio data segments with indices, at which a change of the type of audio data contents from an audio data segment to the audio data segment the next audio data segment.
  • An indexing of the first audio data 5, as shown according to the exemplary embodiment in FIG. 6, is shown in FIGS. 7a, 7b in different embodiments.
  • FIG. 7a A first embodiment of an indexing of the first audio data 5 at those locations or audio data segments at which there is a change of one type of the first audio data 5 is shown in FIG. 7a.
  • the first audio data 5 also has twenty-seven audio data segments from 51 to 77 in FIG. 7 a.
  • a first data structure 5000 which is associated with each data segment, can be found in FIG. 7a
  • the first audio data type segment 9000 begins with the first audio data segment 51.
  • This first audio data segment 51 is associated with the first index segment 5051 of the first data structure 5000.
  • the second audio data segment 52 is associated with the second index segment 5052.
  • association of the index segments with the audio data segments is contiguous so that the twenty-seventh audio data segment 77 is associated with the twenty-seventh index segment 5077.
  • a 1 is stored in the first index segment 5051, which index indicates that the first audio data type segment 9000 of the audio data type A begins with the first audio segment 51.
  • the twelfth index segment 5062 is associated with the twelfth audio data segment 62.
  • a 2 is stored in the twelfth index segment 5062 to indicate the beginning of a type B audio data type segment.
  • the beginning of the third audio data type segment 9002 of the audio data type C is present, so in FIG. 7a a 3 is stored in the eighteenth index segment 5068 associated with the eighteenth audio data segment.
  • the fourth audio data type segment 9003 of the audio data type B starts at the twenty-third audio data segment 73 in FIG 7a shows in the twenty-third index segment a stored 2 which indicates that an audio data type segment of the audio data type B starts at the twenty-third audio data segment 73 of the first audio data 5.
  • the beginning audio data type segment is different from the previous audio data type segment by its audio data type.
  • index segments which are associated with such audio data segments in which no change of an audio data type is present zero values are preferably stored.
  • FIG. 7b shows an indexing of the audio data segments of the first audio data 5 according to a further exemplary embodiment.
  • FIG. 7b shows a first data structure 5000 and a second data structure 5100 in which first index segments and second index segments are stored.
  • the first data structure 5000 is that data structure which has already been described in detail in accordance with the exemplary embodiment in FIG. 7a.
  • the second data structure 5100 has the same number of index segments as the first data structure 5000, wherein the index segments of the second data structure 5100 are also associated with audio data segments 51 to 77 of the audio data 5. For each audio data segment 51 to 77 of the audio data 5 is thus a respective one
  • the first audio data 5 with the audio data segments 51 to 77 have the same distribution
  • the change of the type of the audio data contents from the first audio data type segment 9000 to the second audio data type segment 9001 in the second data structure 5100 is made by the twelfth Index segment 5162 displayed such that at this twelfth index segment 5162 a 1 is stored.
  • a 1 is stored due to the change of the type of audio data contents at the eighteenth audio data segment 68 of the first audio data 5 in the eighteenth index segment 5168 of the second data structure 5100.
  • audio data contents on an audio data segment of the first audio data 5 are indicated by a stored 1 in that index segment of the second data structure 5100, which are associated with the audio data segments 62, 68, 73 at which the change of a type of audio data contents exists.
  • a zero is stored at those index segments of the second data structure 5100, which are associated with such audio data segments of the first audio data 5 at which there is no change of a type of the audio data contents. It is thus possible, based on the values stored in the index segments of the second data structure 5100, to indicate at which audio data segments of the first audio data 5 associated with the index segments of the second data structure 5100 there is a change of a type of audio data contents.
  • a value can also be read from the first data structure 5000 and the index segment associated with an index segment of the second data structure 5100, which value provides information about the audio data type present at the audio data segment associated therewith.
  • the memory addresses where there is a change of a type of audio data and thus indexed are stored in a list.
  • the list for each entry has the memory address itself as well as the type of audio data contents beginning at the memory address. From the list and its entries, it is possible to easily find a memory address having a change of a type of audio data without individually checking, for each possible memory address, whether it has an index.
  • Figure 8a and Figure 8b show the implementation of the method according to the invention according to two embodiments. Shown in Figure 8a is a memory unit 100 having a first memory address 2001 up to a twenty-seventh memory address 2027. This memory unit 100 is not necessarily limited to twenty-seven memory units, it may have any number of memory addresses. According to the embodiment, both the audio data segments 51 to 77 of the first audio data 5 and the index segments 5051 to 5077 of the first data structure 5000 are stored in the memory addresses 2001 to 2027.
  • a memory address 2001 to 2027 is located per memory address, a data structure consisting of an audio data segment and an index segment.
  • the first memory address 2001 is a data structure consisting of the first audio data segment 51 and the first index segment 5051, which has the value 1 for indexing.
  • the second memory address 2002 a data structure consisting of the second audio data segment 52 and the second index segment 5052 is stored, wherein the second index segment 5052 has the value 1.
  • audio data segments 51 to 77 are continuously stored per memory address in the memory unit 100, each with index segments 5051 to 5077 associated therewith.
  • the audio data segments 51 to 77 and the index data segments 5051 to 5077 correspond to those audio data segments and index segments as shown in the embodiment of FIG. 7a.
  • FIG. 8b shows a selection of the second memory address as a function of an input by a user.
  • the twenty-third memory data segment 73 is stored at the twenty-third memory address 2023.
  • the first audio data segment 51 is read out from the first memory address 2001 as part of the second audio data 500.
  • the first audio data segment 51 as the audio data segment of the second audio data 500 is supplied to the decoder 6, which decodes the data of the audio data segment and outputs the audio signal 31 to be output.
  • an input of the user ensues, as a function of which the second memory address at which the second audio data 500 is read out is selected.
  • the input of the user is, for example, a selection of that index which immediately follows the memory address at which the second audio data 500 in the form of the first audio data segment 51 are read out at the time of the input. This corresponds according to the embodiment of a selection of the twelfth index segment 5062, which is stored in the twelfth memory address 2012 together with the twelfth audio data segment 62.
  • the twelfth audio data segment 62 is read from the memory 100 at the second time T2 at the twelfth memory address 2012 and this twelfth audio data segment 62 as the second audio data 500 to the decoder 6, which is based on the twelfth
  • Audio data segment 62 at the second time T2 the output of the output audio signal 31 by decoding the data of the twelfth audio data segment 62 performs.
  • the user's input is a selection of one
  • the writing of the first audio data 5 as well as the readout of the second audio data 500 at the first time T1 are carried out as already shown according to the exemplary embodiments in FIGS. 8a and 8b.
  • an input of the user which is a selection of an index of the first audio data 5 takes place at the first time T 1.
  • the user selects the index of the eighteenth index segment 5068 which is stored at the eighteenth memory address 2018 together with the eighteenth audio data segment 68. Because of this selection, at the second time point T2, the eighteenth will occur
  • the eighteenth audio data segment 68 is read out and supplied as the second audio data 500 to the decoder 6, which decodes the audio data of the eighteenth audio data segment 68 and thus performs the output of the output audio signal 31 at the second time T2.
  • the decoder 6 decodes the audio data of the eighteenth audio data segment 68 and thus performs the output of the output audio signal 31 at the second time T2.
  • an input of the user sets a type of audio data contents, and that the use of second audio data of the specified type for outputting the audio signal is omitted.
  • FIG. FIG. 9 shows a
  • Memory 100 with corresponding memory addresses to which audio data segments and index segments are stored, as already shown in Figures 8a to 8c.
  • the writing of the twenty-third audio data segment 73 at the twenty-third memory address 2023 is carried out at a first time T 1, while the first audio data segment 51 is read out at the first memory address 5051 and supplied to the decoder 6 as the second audio data 500 for it to output the audio signal 31 to be output.
  • the user has one by an input at the first time Tl or at an earlier time
  • Type of audio data content so as to omit the use of second audio data of the specified type for outputting the audio signal.
  • the input of the user as the type of audio data contents has the audio data type B set.
  • Audio data segments of the audio data type B are shown in FIG. 9 from the twelfth memory address 2012 to the seventeenth memory address 2017.
  • the first audio data segment 51 is read out.
  • the second audio data segment 52 is read out. This continues in time until the eleventh time TIl the eleventh audio data segment 61 is read out. Due to the present determination of the type of audio data contents, after the eleventh time TIl, the use of the twelfth audio data segment 62 as the second audio data 500 at the twelfth time point T12 is omitted. The omission is because the twelfth audio data segment 62 is associated with the twelfth index segment 5062, which has a 2, which in turn indicates that the twelfth audio data segment 62 is of the audio data type B.
  • the audio data type B is the audio data type whose use as the second audio data 500 according to the input of the user is to be omitted. Out For this reason, at the twelfth point in time T12, the eighteenth audio data segment 68 is read from the eighteenth memory address 2018, since the index segment 5068 associated with the eighteenth audio data segment 68, which is also stored at the memory address 2000, has a 3 which indicates that the eighteenth audio data segment 68 from
  • Audio data type C is. The process of reading out audio data segments is thus now continued at the twelfth time T12 from the eighteenth memory address 2018.
  • Type of audio data content is set, and that the use of second audio data of this other type to output the audio signal is omitted.
  • FIG. 10 shows a memory 100 with corresponding audio data segments and index segments, which are stored at corresponding memory addresses, as already shown in FIGS. 8a, 8b, 8c, 9.
  • the memory 100 furthermore has a twenty-fourth
  • Memory address 2024 at which a twenty-fourth audio data segment 74 together with a twenty-fourth index segment
  • the memory 100 has a twenty-fifth memory address 2075, at which a twenty-fifth audio data segment 75 together with a twenty-fifth index segment
  • the reading of the second audio data 500 in the form of reading out of Audio data segments from the memory 100 interrupted to output instead of the output audio signal 31, which is output from the read-out audio data segments by decoding, an externally supplied audio signal.
  • the twenty-fourth audio data segment 74 at the twenty-fourth memory address 2024 is written into the memory 100 at the second time T2.
  • the twenty-fifth audio data segment 75 is written at the twenty-fifth Memory address 2025 in the memory 100.
  • the output of the externally supplied audio signal is terminated, so that the reading of the second audio data 500 in the form of reading out audio data segments from the memory 100 is resumed.
  • the second audio data segment 52 is read out at the second memory address 2002 of the memory 100 and fed to the decoder 6 as the second audio data 500.
  • FIG. 11 a shows a control unit according to the invention for outputting an audio signal obtained from a broadcast signal.
  • the control unit 86 has a first interface 82 to an acoustic output unit 85 for the acoustic output of the output audio signal 31. Furthermore, the
  • Control unit 86 a second interface 87 to a delivery unit 13 for providing the obtained from the broadcast signal 1 audio data 5. Furthermore, the control unit 86 has a third interface 83 to an input unit 84 for detecting an input of a user.
  • the control unit 86 has a memory unit 88, in which the from the
  • the control unit 86 also has an analysis unit 30, which is connected to the memory unit 88.
  • the analysis unit 30 analyzes the first audio data 5 residing in the memory 88 on types of Audio data contents such that the first audio data 5 are indexed at those locations with indices at which a change of the type of the first audio data 5 is present. Such indexing of the first audio data 5 is described in detail in the exemplary embodiments shown in FIGS. 7a, 7b.
  • the control unit 86 has a read-out unit 89, which reads out second audio data 500 from the memory unit 88 and feeds it to a decoding unit 6.
  • the decoding unit decodes the second audio data 500 and outputs the audio signal 31 to be output via the first interface 82 to the acoustic output unit 85.
  • the broadcast signal 1 is a broadcast signal of an analog transmission method.
  • the broadcast signal 1 received by the antenna 12 is supplied to a demodulation unit 14, which thus extracts the audio signal 3 from the broadcast signal 1 by demodulation.
  • the audio signal 3 is thus according to the present embodiment, an analog audio signal.
  • Audio signal 3 is further supplied in the providing unit 13 to a coding unit 90 which codes the analog audio signals 3 into first audio data 5.
  • the provisioning unit 13 is connected to the control unit 86, so that the first audio data 5 are transmitted to the control unit 86 by the provisioning unit 13.
  • the provision unit 13 has no coding unit 90, but that between the providing unit 13 and the control unit 86, a separate coding unit 90 is connected, which performs a coding of the analog audio signal 3 in the first audio data 5.
  • control unit 86 it is possible for the control unit 86 to have the coding unit 90, so that the analogue audio signal 3 is transmitted to the control unit 86 by the providing unit 13 via the second interface 87.
  • the coding unit 90 then performs a coding of the analog audio signal 3 into the first audio data 5 as part of the control unit 86 by.
  • the coding unit 90 can be designed, for example, as a circuit unit, Asic, freely programmable circuit, FPGA or as software on a computer. Other embodiments of the coding unit 90 according to the prior art are possible.
  • the input unit 84 may be a keyboard, a touchscreen, a voice interface or operating elements, by means of which the user input to the control unit 86 can be made.
  • the memory unit 88 may be in the form of a hard disk, a ring buffer, a flashcard or other rewritable storage media.
  • Decoding unit 6, like coding unit 90, may be in different embodiments.
  • the acoustic output unit 85 can be, for example, a loudspeaker, an audio system of a car radio or further means for the acoustic output of an audio signal.
  • the interfaces are preferably wired or wireless interfaces for transmitting signals and / or data.
  • FIG. 11b shows, according to one exemplary embodiment, a control unit 186 together with a provision unit 132 according to a further exemplary embodiment.
  • the providing unit 132 is a receiving unit for receiving broadcast signals 112 of a digital transmission method.
  • Provisioning unit 132 has an antenna 12 via which the digital broadcasting signal 112 is received. Furthermore, the providing unit 132 has a receiving module 15, which extracts the first audio data 5 from the digital broadcasting signal 112. Via the second interface 87 of the control unit 186, the first audio data 5 are transmitted to the control unit 186. In the
  • Control unit 186 is a storage of the first audio data 5 in the memory unit 88, an analysis of the first audio data 5 based on an analysis unit 30 which is connected to the memory unit 88, and a readout of the second audio data 500 by a readout unit 89, which the second audio data 500 the decoding unit 6 supplies, which the second Decodes audio data 500 and thus outputs the audio signal 31 to be output via the first interface 82 to the acoustic output unit 85.
  • FIGS. 11a and 11b also show embodiments of the device 133, 134 according to the invention.
  • inventive device 134 according to the embodiment in Figure IIb includes all units shown there, which are according to the description of Figure IIb connected to each other and work together.

Abstract

Die Erfindung betrifft ein Verfahren zur Ausgabe eines auseinem Rundfunksignal gewonnenen Audiosignals, wobei das Audiosignal in Form von ersten Audiodaten in einen Speicher an einer ersten, sich zeitlich fortlaufend ändernden Speicheradresse geschrieben wird, wobei zeitgleich zum Schreiben der ersten Audiodatenin den Speicher zweite Audiodaten an einer zweiten, sich zeitlich fortlaufend ändernden Speicheradresse aus dem Speicher ausgelesen werden, wobei unter Verwendung der zweiten Audiodaten das Audiosignal ausgegeben wird,dadurch gekennzeichnet, dass die ersten Audiodaten auf Typen von Audiodateninhalten hin derart analysiert werden,dass die ersten Audiodaten an jenen Stellen mit Indizes indiziert werden, an welchen ein Wechsel eines Typs der ersten Audiodaten vorliegt,und dass die zweiteSpeicheradresse in Abhängigkeit von den Indizes der ersten Audiodaten und einer Eingabe eines Nutzers gewählt wird.

Description

Beschreibung
Titel
Vorrichtung und Verfahren zur Ausgabe eines aus einem Rundfunksignal gewonnenen Audiosignals
Stand der Technik
Die Erfindung geht aus von einer Vorrichtung oder einem Verfahren nach Gattung der unabhängigen Ansprüche.
Aus der US 20070154182 Al ist ein Verfahren bekannt, um ein Rundfunksignal in Form von Audiodaten während des Empfangs zeitlich kontinuierlich in einen Speicher zu schreiben und gleichzeitig zeitlich kontinuierlich aus dem Speicher auszulesen, wobei sich die Speicheradresse, an welcher Audiodaten in den Speicher geschrieben werden, von jener Speicheradresse unterscheidet, an welcher Audiodaten aus dem Speicher ausgelesen werden. Dadurch, dass es sich bei der Speicheradresse, an welcher Audiodaten aus dem Speicher ausgelesen werden, um eine Speicheradresse handelt, an welcher diese Audiodaten zu einem früheren Zeitpunkt in den Speicher geschrieben wurden, ergibt sich bei Verwendung der ausgelesenen Audiodaten zur Ausgabe des
Audiosignals ein Zeitversatz des Audiosignals. Bekannt ist es, dass durch eine Eingabe eines Nutzers die Speicheradresse, an welcher das Audiosignal aus dem Speicher ausgelesen wird, veränderlich ist. Hierdurch kann der Nutzer Einfluss auf den Zeitversatz zur Ausgabe des Audiosignals nehmen.
Ferner sind Algorithmen bekannt, welche Audiodaten in Audiodatensegmente unterteilen, wobei die Audiodatensegmente Audiodateninhalte unterschiedlicher Typen aufweisen. Bei Typen von Audiodateninhalten handelt es sich beispielsweise um Typen wie Sprache, Musikstück, Werbung oder weitere Typen von Audiodateninhalten. Offenbarung der Erfindung
Vorteile der Erfindung
Das erfindungsgemäße Verfahren mit den Merkmalen des unabhängigen Anspruchs hat demgegenüber den Vorteil, dass eine Speicheradresse, an welcher Audiodaten aus einem Speicher ausgelesen werden, in Abhängigkeit von einer Eingabe eines Nutzers und in Abhängigkeit von Indizes, an welchen ein Wechsel eines Typs der Audiodaten vorliegt, gewählt wird.
Beansprucht wird ein Verfahren zur Ausgabe eines aus einem Rundfunksignal gewonnenem Audiosignals, wobei das Audiosignal in Form von ersten Audiodaten in einen Speicher an einer sich zeitlich fortlaufend ändernden Speicheradresse geschrieben wird, wobei zeitgleich zum Schreiben der ersten
Audiodaten in den Speicher zweite Audiodaten an einer weiteren, sich zeitlich fortlaufend ändernden Speicheradresse aus dem Speicher ausgelesen werden, wobei unter Verwendung der zweiten Audiodaten das Audiosignal ausgegeben wird, dadurch gekennzeichnet, dass die ersten Audiodaten auf Typen von Audiodateninhalten hin derart analysiert werden, dass die ersten Audiodaten an jenen Stellen mit Indizes indiziert werden, an welchen ein Wechsel eines Typs der ersten Audiodaten vorliegt, und dass die weitere Speicheradresse in Abhängigkeit von den Indizes der ersten Audiodaten und einer Eingabe eines Nutzers gewählt wird.
Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen des im unabhängigen Anspruchs angegebenen Verfahrens möglich.
Vorzugsweise handelt es sich bei der Eingabe des Nutzers um eine Auswahl eines Index der ersten Audiodaten. Dieses ist vorteilhaft, da es hierdurch dem Nutzer ermöglicht wird, die weitere Speicheradresse derart zu wählen, dass die zweiten Audiodaten ab solch einer Speicheradresse ausgelesen werden, an welcher ein Wechsel des Typs der Audiodateninhalte der Audiodaten vorliegt. Insbesondere ist die Eingabe des Nutzers eine Auswahl jenes Index, welcher unmittelbar auf die weitere Speicheradresse folgt. Dieses ist vorteilhaft, da der Nutzer somit die weitere Speicheradresse derart wählen kann, dass die zweiten auszulesenden Audiodaten an jener Speicheradresse ausgelesen werden, an welcher zum einen sich ein Wechsel des Typs von Audiodateninhalten der
Audiodaten befindet, und welche zum anderen der momentanen Speicheradresse am nächsten ist.
Vorzugsweise wird durch eine Eingabe des Nutzers ein Typ von Audiodateninhalten festgelegt, so dass die Verwendung zweiter Audiodaten des festgelegten Typs zur Ausgabe des Audiosignals unterlassen wird. Dieses ist vorteilhaft, da der Nutzer somit Einfluss darauf nehmen kann, welche Audiodaten eines bestimmten Typs von Audiodateninhalten nicht zur Ausgabe dieses Audiosignals verwendet werden sollen.
Ferner ist es vorteilhaft, dass in Abhängigkeit von der Tageszeit ein weiterer Typ von Audiodateninhalten festgelegt wird, und dass die Verwendung zweiter Audiodaten dieses weiteren Typs zur Ausgabe des Audiosignals unterlassen wird. Dieses ist vorteilhaft, da somit zweite Audiodaten eines weiteren Typs von Audiodateninhalten nicht zur Ausgabe des Audiosignals verwendet werden, so dass der Nutzer in Abhängigkeit von der Tageszeit nicht mit bestimmten Audiodateninhalten konfrontiert wird.
Insbesondere wird das Auslesen der zweiten Audiodaten zur Ausgabe eines extern zugeführten Audiosignals unterbrochen. Dies ist vorteilhaft, da hierdurch
Einfluss auf den Zeitversatz bei der Ausgabe des Audiosignals genommen werden kann.
Beispielsweise werden zeitgleich jeweilige Audiosignale aus jeweiligen Rundfunksignalen gewonnen und in Form von jeweiligen ersten Audiodaten an sich zeitlich fortlaufend ändernden Speicheradressen in jeweilige Speicher geschrieben, wobei zeitgleich zum Schreiben der jeweiligen ersten Audiodaten zweite Audiodaten an einer weiteren, sich zeitlich fortlaufend ändernden Speicheradresse aus einem der Speicher ausgelesen werden, wobei unter Verwendung der zweiten Audiodaten das Audiosignal ausgegeben wird, wobei - A -
die jeweiligen ersten Audiodaten auf Typen von Audiodateninhalten hin derart analysiert werden, dass die jeweiligen ersten Audiodaten an jenen Stellen mit Indizes indiziert werden, an welchen ein Wechsel eines Typs der jeweiligen ersten Audiodaten vorliegt, und wobei die weitere Speicheradresse in Abhängigkeit von den Indizes der jeweiligen ersten Audiodaten und einer
Eingabe eines Nutzers gewählt wird. Dieses ist vorteilhaft, da es somit dem Nutzer ermöglicht wird, im Zuge der Ausgabe des Audiosignals auf jeweilige Audiosignale, welche aus jeweiligen Rundfunksignalen gewonnen werden, zurückzugreifen.
Gemäß eines nebengeordneten, unabhängigen Anspruchs wird eine Steuereinheit zur Ausgabe eines aus einem Rundfunksignal gewonnen Audiosignals beansprucht, aufweisend eine erste Schnittstelle zu einer akustischen Ausgabeeinheit zur akustischen Ausgabe des Audiosignals, eine zweite Schnittstelle zu einer Bereitstellungseinheit zur Bereitstellung der aus dem
Rundfunksignal gewonnenen Audiodaten, eine dritte Schnittstelle zu einer Eingabeeinheit zur Erfassung einer Eingabe eines Nutzers, eine Speichereinheit zur Speicherung aus dem Rundfunksignal gewonnener, erster Audiodaten an einer sich zeitlich fortlaufend ändernden Speicheradresse, eine Ausleseeinheit zum Auslesen zweiter Audiodaten an einer weiteren, sich zeitlich fortlaufend ändernden Speicheradresse aus dem Speicher, wobei das Auslesen zeitgleich zu der Speicherung der ersten Audiodaten vorgenommen wird, eine Decodierungseinheit zur Decodierung der zweiten Audiodaten in das auszugebende Audiosignal, gekennzeichnet durch eine Analyseeinheit, welche die ersten Audiodaten auf Typen von Audiodateninhalten hin derart analysiert, dass die ersten Audiodaten an jenen Stellen mit Indizes indiziert werden, an welchen ein Wechsel eines Typs der ersten Audiodaten vorliegt, und dadurch, dass die Ausleseeinheit die weitere Speicheradresse in Abhängigkeit von den Indizes der ersten Audiodaten und der Eingabe des Nutzers wählt.
Gemäß eines weiteren, nebengeordneten, unabhängigen Anspruchs wird eine Vorrichtung zur Ausgabe eines aus einem Rundfunksignal gewonnenen Audiosignals beansprucht, aufweisend eine erste Schnittstelle zu einer akustischen Ausgabeeinheit zur akustischen Ausgabe des Audiosignals, eine zweite Schnittstelle zu einer Bereitstellungseinheit zur Bereitstellung der aus dem Rundfunksignal gewonnenen Audiodaten, eine dritte Schnittstelle zu einer Eingabeeinheit zur Erfassung einer Eingabe eines Nutzers, eine Speichereinheit zur Speicherung aus dem Rundfunksignal gewonnener erster Audiodaten an einer sich zeitlich fortlaufend ändernden Speicheradresse, eine Ausleseeinheit zum Auslesen zweiter Audiodaten an einer weiteren, sich zeitlich fortlaufend ändernden Speicheradresse aus dem Speicher, wobei das Auslesen zeitgleich zu der Speicherung der ersten Audiodaten vorgenommen wird, eine Decodierungseinheit zur Decodierung der zweiten Audiodaten in das auszugebende Audiosignal, gekennzeichnet durch eine Analyseeinheit, welche die ersten Audiodaten auf Typen von Audiodateninhalten hin derart analysiert, dass die ersten Audiodaten an jenen Stellen mit Indizes indiziert werden, an welchen ein Wechsel eines Typs der ersten Audiodaten vorliegt, und dadurch, dass die Ausleseeinheit die weitere Speicheradresse in Abhängigkeit von den Indizes der ersten Audiodaten und der Eingabe des Nutzers wählt.
Die erfindungsgemäße Steuereinheit und die erfindungsgemäße Vorrichtung weisen die Vorteile des erfindungsgemäßen Verfahrens auf.
Kurze Beschreibung der Zeichnungen
Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert.
Es zeigen Figur Ia, Ib Ausführungsbeispiele zur Gewinnung von Audiodaten aus Rundfunksignalen.
Figur 2 zeigt eine Struktur erster Audiodaten.
Figur 3a zeigte eine Speichereinheit mit Speicheradressen.
Figur 3b zeigt eine Speichereinheit, in welche erste Audiodaten geschrieben werden und aus welcher zweite Audiodaten ausgelesen werden. Figur 4 zeigt die Decodierung zweiter Audiodaten in das auszugebende
Audiosignal.
Figur 5 zeigt eine Analyse erster Audiodaten durch eine Analyseeinheit auf
Typen von Audiodateninhalten hin.
Figur 6 zeigt Audiodaten, welche Audiodatensegmente unterschiedlichen Typs von Audiodateninhalten aufweisen. Figuren 7a, 7b zeigen eine Indizierung von Audiodaten unterschiedlicher Typen von Audiodateninhalten gemäß unterschiedlicher Ausführungsbeispiele. Figur 8a, 8b, 8c zeigen ein Schreiben sowie ein Auslesen von ersten bzw. zweiten Audiodaten an Speicheradressen. Figur 9, 10 zeigen ein Schreiben sowie ein Auslesen von ersten bzw. zweiten
Audiodaten an Speicheradressen in Abhängigkeit von Eingaben eines Nutzers. Figuren IIa, IIb zeigen unterschiedliche Ausführungsformen einer erfindungsgemäßen Steuereinheit sowie einer erfindungsgemäßen Vorrichtung.
Ausführungsformen der Erfindung
Bekannt sind Übertragungsverfahren der analogen sowie der digitalen Übertragung von Audiosignalen durch Rundfunksignale. Figur Ia zeigt die Gewinnung von ersten Audiodaten 5 aus einem Rundfunksignal 1. Bei dem Übertragungsverfahren handelt es sich gemäß dieses Ausführungsbeispieles um ein analoges Übertragungsverfahren. Das Rundfunksignal 1 wird von der Empfangseinheit 2 empfangen, welche dieses in ein Audiosignal 3 umwandelt. Hierbei nimmt die Empfangseinheit 2 beispielsweise eine Demodulation des Rundfunksignals 1 vor. Derartige Demodulationsverfahren sind dem Fachmann bekannt. Das Audiosignal 3 wird nun einer Codierungseinheit 4 zugeführt, welche eine Codierung des Audiosignals 3 in erste Audiodaten 5 vornimmt.
Figur Ib zeigte ein weiteres Ausführungsbeispiel zur Gewinnung von ersten Audiodaten 5 aus einem zweiten Rundfunksignal 11. Hierbei handelt es sich beispielsweise bei dem zweiten Rundfunksignal 11 um ein Rundfunksignal eines
Übertragungsverfahrens der digitalen Übertragung, vorzugsweise des Verfahrens Digital- Audio- Broadcasting DAB. Das zweite Rundfunksignal 11 wird von dem Empfänger 22 empfangen, welcher aus dem zweiten Rundfunksignal 11 die ersten Audiodaten 5 gewinnt. Die Gewinnung von Audiodaten anhand des zweiten Rundfunksignals 11 eines digitalen Übertragungsverfahrens ist dem
Fachmann bekannt.
Figur 2 zeigt eine Struktur der ersten Audiodaten 5. Die ersten Audiodaten 5 bestehen beispielsweise aus mehreren Audiodatensegmenten 51, 52, 53. Die ersten Audiodaten 5 weisen beispielsweise ein erstes Audiodatensegment 51 auf, auf welches in zeitlicher Reihenfolge ein zweites Audiodatensegment 52 folgt sowie darauf ein drittes Audiodatensegment 53.
Figur 3a zeigt eine Speichereinheit 100, welche eine erste Speicheradresse 1001, eine darauf folgende zweite Speicheradresse 1002 sowie eine darauf weiter folgende dritte Speicheradresse 1003 aufweist.
Figur 3b zeigt das Schreiben der ersten Audiodaten 5 in die Speichereinheit 100 sowie das Auslesen zweiter Audiodaten 500 aus der Speichereinheit 100. Die Speichereinheit 100 weist von links nach rechts gesehen zunächst die vierte
Speicheradresse 2001, die fünfte Speicheradresse 2002 sowie die sechste Speicheradresse 2003 auf. In einem gewissen Abstand zu der sechsten Speicheradresse 2003 befindet sich weiter rechts in der Speichereinheit 100 die erste Speicheradresse 3001, darauf folgend die zweite Speicheradresse 3002, darauf folgend die dritte Speicheradresse 3003. Zwischen der sechsten
Speicheradresse 2003 und der ersten Speicheradresse 3001 befinden sich beispielsweise weitere Speicheradressen. Ebenso befinden sich vor der vierten Speicheradresse 2001 weitere Speicheradressen, und ferner rechts von der dritten Speicheradresse 3003 weitere Speicheradressen.
Ein Schreiben von Daten in die Speichereinheit 100 erfolgt gemäß zeitlicher Abfolge entlang der Speicheradressen der Speichereinheit 100 von links nach rechts gehend. Ebenso erfolgt ein Auslesen von Daten an Speicheradressen der Speichereinheit 100 gemäß zeitlicher Abfolge von links nach rechts gehend. Gemäß des Ausführungsbeispieles in Figur 3b bestehen die ersten Audiodaten 5 aus dem ersten Audiodatensegment 51, dem zweiten Audiodatensegment 52 sowie dem dritten Audiodatensegment 53. Die zweiten, aus der Speichereinheit 100 auszulesenden Audiodaten 500 bestehen aus einem vierten Audiodatensegment 501, einem fünften Audiodatensegment 502 sowie einem sechsten Audiodatensegment 503.
Es wird nun das Prinzip des zeitgleichen Schreibens der ersten Audiodaten 5 in die Speichereinheit 100 sowie des Auslesens der zweiten Audiodaten 500 aus der Speichereinheit 100 erläutert. Zu einem ersten Zeitpunkt Tl wird das erste Audiodatensegment 51 an der ersten Speicheradresse 3001 in die Speichereinheit 100 geschrieben. Zu dem gleichen Zeitpunkt Tl wird aus der Speichereinheit 100 an der vierten Speicheradresse 2001 das vierte Audiodatensegment 501 ausgelesen. Zu einem zweiten Zeitpunkt T2, welcher auf den ersten Zeitpunkt Tl folgt, wir das zweite Audiodatensegment 52 an der zweiten Speicheradresse 3002 in die Speichereinheit 100 geschrieben. Zu diesem zweiten Zeitpunkt T2 wird das fünfte Audiodatensegment 502 an der fünften Speicheradresse 2002 aus der Speichereinheit 100 ausgelesen. Zu einem dritten Zeitpunkt T3, welcher auf den zweiten Zeitpunkt T2 folgt, wird das dritte Audiodatensegment 53 an der dritten Speicheradresse 3003 in den Speicher 100 geschrieben. Zu diesem dritten Zeitpunkt T3 wird das sechste
Audiodatensegment 503 an der sechsten Speicheradresse 2003 aus dem Speicher 100 ausgelesen.
Aus der Figur 3b wird erkennbar, dass sowohl das Schreiben der ersten Audiodaten 5 als auch das Auslesen der zweiten Audiodaten 500 segmentell anhand von Audiodatensegmenten 51, 52, 53, 501, 502, 503 erfolgt. Das Schreiben der Audiodatensegmente bzw. das Auslesen der Audiodatensegmente erfolgt gemäß Figur 3b zu fortlaufenden Zeitpunkten Tl, T2, T3. Der segmentelle Zeitversatz zwischen zwei Zeitpunkten, beispielsweise dem ersten Zeitpunkt Tl und dem zweiten Zeitpunkt T2, stellt den vorliegenden Zeittakt T dar.
Berücksichtigt man ferner die Anzahl an Speicheradressen, welche zwischen jener Speicheradresse liegen, an welcher ein Audiodatensegment zu einem bestimmten Zeitpunkt in den Speicher 100 geschrieben wird, und der weiteren Speicheradresse, an welcher ein Audiodatensegment zu dem gleichen bestimmten Zeitpunkt aus dem Speicher 100 ausgelesen wird, so lässt sich der
Zeitversatz der Wiedergabe des Audiosignals als Produkt des Zeittaktes T und der Entfernung der beiden Speicheradressen bestimmen.
Figur 4 zeigt die Decodierung der zweiten Audiodaten 500 mittels eines Decoders 6 in das auszugebende Audiosignal 31. Die ausgelesenen vierten, fünften sowie sechsten Audiodatensegmente 501, 502, 503 werden zeitlich sequentiell dem Decoder 6 zugeführt, welcher hieraus mittels Decodierung der Audiodatensegmente das auszugebende Audiosignal 31 ausgibt. Zuerst wird dem Decoder 6 das erste Audiodatensegment 501 zugeführt, anschließend das zweite Audiodatensegment 502 und danach das dritte Audiodatensegment 503. Figur 3b sowie Figur 4 zeigen die ersten Audiodaten 5 sowie die zweiten Audiodaten 500 gemäß des Ausführungsbeispieles als jeweils aus drei Audiodatensegmenten 51, 52, 53, 501, 502, 503 bestehend. Dem Fachmann ist es bekannt, dass Audiodaten 5, 500 aus Audiodatensegmenten 51, 52, 53, 501,
502, 503 bestehen, wobei die Anzahl der Audiodatensegmente nicht auf drei Audiodatensegmente beschränkt ist. Ferner ist es dem Fachmann bekannt, Audiodatensegmente 501, 502, 503 einem Decoder 6 zuzuführen, wobei dem Fachmann unterschiedliche Datenformate zur Segmentierung von Audiodaten 5, 500 in jeweilige Audiodatensegmente 51 bis 501 sowie die jeweiligen
Decodierungsvorschriften bekannt sind.
Figur 5 und Figur 6 zeigen eine Analyse der ersten Audiodaten 5 anhand einer Analyseeinheit 30. Die ersten Audiodaten 5 bestehen gemäß Figur 6 aus siebenundzwanzig Audiodatensegmenten 51 bis 77. Die Analyseeinheit 30 analysiert die ersten Audiodaten 5 auf Typen von Audiodateninhalten hin. Derartige Typen von Audiodateninhalten sind beispielsweise der Typ Sprachbeitrag, der Typ Musikstück oder der Typ Werbebeitrag. Eine Analyse von ersten Audiodaten 5 auf Typen von Audiodateninhalten hin sind aus dem Stand der Technik bekannt.
Die Analyseeinheit 30 führt die Analyse der ersten Audiodaten 5 auf Typen von Audiodateninhalten hin durch, und segmentiert die ersten Audiodaten 5 in vier aufeinanderfolgende Audiodatentypsegmente 9000, 9001, 9002, 9003 in Abhängigkeit der Typen der Audiodateninhalte der Audiodatensegmente 51 bis
77. Ein Audiodatentypsegment besteht aus mindestens einem Audiodatensegment. Besteht ein Audiodatentypsegment aus mehreren Audiodatensegmenten, so sind die Audiodatensegmente des Audiodatentypsegmentes vom gleichen Typ von Audiodateninhalten.
Gemäß des Ausführungsbeispieles wie in Figur 5 dargestellt liegt durch die Analyseeinheit 30 eine Segmentierung der ersten Audiodaten 5 in vier Audiodatentypsegmente 9000 bis 9003 vor. Selbstverständlich ist es möglich, dass die ersten Audiodaten 5 in mehr oder weniger Audiodatentypsegmente 9000 bis 9003 in Abhängigkeit von Typen von Audiodateninhalten der Audiodatensegmente 51 bis 77 segmentiert werden. In diesem Fall liegt eine Segmentierung der ersten Audiodaten 5 in ein erstes Audiodatentypsegment 9000, ein darauf folgendes zweites Audiodatentypsegment 9001, ein darauf folgendes drittes Audiodatentypsegment 9002 sowie ein darauffolgendes viertes Audiodatentypsegment 9003 vor.
Gemäß Figur 6 besteht das erste Audiodatentypsegment 9000 aus elf Audiodatensegmenten, nämlich dem ersten Audiodatensegment 51 bis zu dem elften Audiodatensegment 61. Weiterhin findet sich in Figur 6 das zweite Audiodatentypsegment 9001, welches sich von dem zwölften
Audiodatensegment 62 bis zu dem siebzehnten Audiodatensegment 67 erstreckt. Bei dem zweiten Audiodatentypsegment 9001 handelt es sich um ein Audiodatentypsegment des Audiodatentyps B, welches durch eine zweite Kennzeichnung 8001 angegeben ist. Auf das zweite Audiodatentypsegment 9001 folgt ein drittes Audiodatentypsegment 9002, welches sich von dem achtzehnten
Audiodatensegment 68 bis zu dem zweiundzwanzigsten Audiodatensegment 72 erstreckt. Bei dem dritten Audiodatentypsegment 9002 handelt es sich um ein Audiodatentypsegment des Audiodatentyps C, welches durch eine dritte Kennzeichnung 8002 gekennzeichnet ist. Das vierte Audiodatentypsegment 9003 erstreckt sich von dem dreiundzwanzigsten Audiodatensegment 73 bis zu dem fünfundzwanzigsten Audiodatensegment 75, wobei es sich bei dem vierten Audiodatentypsegment 9003 um einen Audiodatentyp B handelt, welches durch eine vierte Kennzeichnung 8003 angegeben ist. Auf das letzte Audiodatensegment 75 des vierten Audiodatentypsegments 9003 folgen weitere Audiodatensegmente 76, 77 gemäß Figur 6.
Die ersten Audiodaten 5 sind nicht notwendigerweise auf siebenundzwanzig Audiodatensegmente 51 bis 77 beschränkt, sondern können weitere Audiodatensegmente aufweisen, welche ferner ebenfalls als Audiodatentypsegmente bestimmter Audiodatentypen zusammengefasst sein können. Die Segmentierung der ersten Audiodaten 5 in die vier dargestellten Audiodatentypsegmente 9000 bis 9003 wird durch die Analyseeinheit 30 durchgeführt. Erfindungsgemäß werden die ersten Audiodaten 5 an jenen Stellen bzw. Audiodatensegmenten mit Indizes indiziert, an welchen ein Wechsel des Typs von Audiodateninhalten von einem Audiodatensegment zu dem nächstfolgenden Audiodatensegment vorliegt. Eine Indizierung der ersten Audiodaten 5, wie sie gemäß des Ausführungsbeispieles in Figur 6 dargestellt sind, wird in den Figuren 7a, 7b in unterschiedlichen Ausführungsformen gezeigt.
Ein erstes Ausführungsbeispiel einer Indizierung der ersten Audiodaten 5 an jenen Stellen bzw. Audiodatensegmenten, an welchen ein Wechsel eines Typs der ersten Audiodaten 5 vorliegt, ist in Figur 7a gezeigt. Wie bereits in Figur 6 so weisen auch in Figur 7a die ersten Audiodaten 5 siebenundzwanzigste Audiodatensegmente von 51 bis 77 auf. Neben den ersten Audiodaten 5 findet sich in Figur 7a eine erste Datenstruktur 5000, welche zu jedem Datensegment
51 bis 77 der ersten Audiodaten 5 ein jeweiliges Indexsegment 5051 bis 5077 aufweist. Gemäß Figur 6 beginnt das erste Audiodatentypsegment 9000 mit dem ersten Audiodatensegment 51. Mit diesem ersten Audiodatensegment 51 ist das erste Indexsegment 5051 der ersten Datenstruktur 5000 assoziiert. Mit dem zweiten Audiodatensegment 52 ist das zweite Indexsegment 5052 assoziiert. Die
Assoziierung der Indexsegmente mit den Audiodatensegmenten verhält sich fortlaufend, so dass das siebenundzwanzigste Audiodatensegment 77 mit dem siebenundzwanzigsten Indexsegment 5077 assoziiert ist. Gemäß des Ausführungsbeispieles in Figur 7a ist in dem ersten Indexsegment 5051 eine 1 abgespeichert, welche als Index indiziert, dass mit dem ersten Audiosegment 51 das erste Audiodatentypsegment 9000 des Audiodatentyps A beginnt. Das zwölfte Indexsegment 5062 ist mit dem zwölften Audiodatensegment 62 assoziiert. Da gemäß Figur 6 an dem zwölften Audiodatensegment 62 das zweite Audiodatentypsegment 9001 des Audiodatentyps B beginnt, liegt also an dem zwölften Audiodatensegment 62 ein Wechsel des Typs der ersten Audiodaten 5 von Typ A auf Typ B vor. Aus diesem Grund ist gemäß des Ausführungsbeispiels in Figur 7a in dem zwölften Indexsegment 5062 eine 2 abgespeichert, um den Beginn eines Audiodatentypsegments des Typs B anzuzeigen.
Mit dem achtzehnten Audiodatensegment 68 liegt gemäß Figur 6 der Beginn des dritten Audiodatentypsegments 9002 des Audiodatentyps C vor, weshalb in Figur 7a in dem achtzehnten Indexsegment 5068, welches mit dem achtzehnten Audiodatensegment assoziiert ist, eine 3 abgespeichert ist. An dem dreiundzwanzigsten Audiodatensegment 73 in Figur 6 beginnt das vierte Audiodatentypsegment 9003 des Audiodatentyps B. Aus diesem Grund befindet sich in Figur 7a in dem dreiundzwanzigsten Indexsegment eine abgespeicherte 2, welche anzeigt, dass an dem dreiundzwanzigsten Audiodatensegment 73 der ersten Audiodaten 5 ein Audiodatentypsegment des Audiodatentyps B beginnt.
Gemäß des Ausführungsbeispieles in Figur 7a sind also an jenen
Indexsegmenten, an welchen ein Wechsel eines Typs der Audiodateninhalte der ersten Audiodaten 5 vorliegt, entsprechende Werte abgespeichert, an deren zu den Indexsegmenten assoziierten Audiodatensegmenten ein Beginn eines Audiodatentypsegmentes vorliegt. Das beginnende Audiodatentypsegment unterscheidet sich von dem vorhergehenden Audiodatentypsegment anhand seines Audiodatentyps.
In jenen Indexsegmenten, welche mit solchen Audiodatensegmenten assoziiert sind, an denen kein Wechsel eines Audiodatentyps vorliegt, sind vorzugsweise Nullwerte abgespeichert.
Figur 7b zeigt eine Indizierung der Audiodatensegmente der ersten Audiodaten 5 gemäß eines weiteren Ausführungsbeispieles. Figur 7b zeigt eine erste Datenstruktur 5000 sowie eine zweite Datenstruktur 5100, in welchen erste Indexsegmente und zweite Indexsegmente abgespeichert sind. Bei der ersten Datenstruktur 5000 handelt es sich um jene Datenstruktur, welche bereits gemäß des Ausführungsbeispieles in Figur 7a ausführlich beschrieben ist. Die zweite Datenstruktur 5100 weist gleichviele Indexsegmente wie die erste Datenstruktur 5000 auf, wobei ebenfalls die Indexsegmente der zweiten Datenstruktur 5100 zu Audiodatensegmenten 51 bis 77 der Audiodaten 5 assoziiert sind. Zu jedem Audiodatensegment 51 bis 77 der Audiodaten 5 liegt also ein jeweiliges
Indexsegment der ersten Datenstruktur 5000 sowie ein jeweiliges Indexsegment der zweiten Datenstruktur 5100 vor.
Gemäß des Ausführungsbeispieles in Figur 7b weisen die ersten Audiodaten 5 mit den Audiodatensegmenten 51 bis 77 die gleiche Aufteilung in
Audiodatentypsegmente 9000 bis 9003 auf, wie bereits in dem Ausführungsbeispiel von Figur 7a beschrieben. Gemäß des Ausführungsbeispieles in Figur 7b wird der Wechsel des Typs der Audiodateninhalte von dem ersten Audiodatentypsegment 9000 zu dem zweiten Audiodatentypsegment 9001 in der zweiten Datenstruktur 5100 durch das zwölfte Indexsegment 5162 derart angezeigt, dass an diesem zwölften Indexsegment 5162 eine 1 abgespeichert ist. Ebenso ist aufgrund des Wechsels des Typs von Audiodateninhalten an dem achtzehnten Audiodatensegment 68 der ersten Audiodaten 5 in dem achtzehnten Indexsegment 5168 der zweiten Datenstruktur 5100 eine 1 abgespeichert. Ein Anzeigen eines Wechsels des Typs von
Audiodateninhalten an einem Audiodatensegment der ersten Audiodaten 5 wird also gemäß des Ausführungsbeispieles durch eine abgespeicherte 1 in jenem Indexsegment der zweiten Datenstruktur 5100 angezeigt, welche zu den Audiodatensegmenten 62, 68, 73 assoziiert sind, an welchen der Wechsel eines Typs von Audiodateninhalten vorliegt.
Gemäß des Ausführungsbeispieles in Figur 7b ist an jenen Indexsegmenten der zweiten Datenstruktur 5100 eine Null abgespeichert, welche mit solchen Audiodatensegmenten der ersten Audiodaten 5 assoziiert sind, an welchen kein Wechsel eines Typs der Audiodateninhalten vorliegt. Es ist somit möglich, anhand der in den Indexsegmenten der zweiten Datenstruktur 5100 abgespeicherten Werte darauf zu schließen, an welchen zu den Indexsegmenten der zweiten Datenstruktur 5100 assoziierten Audiodatensegmenten der ersten Audiodaten 5 ein Wechsel eines Typs von Audiodateninhalten vorliegt. Um zusätzlich vorzugsweise zu bestimmen, welcher Typ von Audiodateninhalten vorliegt, kann ferner aus der ersten Datenstruktur 5000 und dem zu einem Indexsegment der zweiten Datenstruktur 5100 assoziierten Indexsegment ein Wert ausgelesen werden, welcher Aufschluss über den an dem dazu assoziierten Audiodatensegment vorliegenden Audiodatentyp gibt.
Vorzugsweise werden die Speicheradressen, an denen ein Wechsel eines Typs von Audiodaten vorliegt und somit mit einem Index indiziert sind, in einer Liste gespeichert. Hierbei weist die Liste je Eintrag die Speicheradresse selber als auch den an der Speicheradresse beginnenden Typ von Audiodateninhalten auf. Anhand der Liste und ihrer Einträge ist es möglich, eine Speicheradresse, an welcher Wechsel eines Typs von Audiodaten vorliegt, auf einfache Weise aufzufinden, ohne für jede mögliche Speicheradresse einzeln zu prüfen, ob diese einen Index aufweist. Figur 8a und Figur 8b zeigen die Durchführung des erfindungsgemäßen Verfahrens gemäß zweier Ausführungsbeispiele. Gezeigt ist in Figur 8a eine Speichereinheit 100 mit einer ersten Speicheradresse 2001 bis hin zu einer siebenundzwanzigsten Speicheradresse 2027. Diese Speichereinheit 100 ist nicht notwendigerweise auf siebenundzwanzig Speichereinheiten beschränkt, sie kann eine beliebige Anzahl an Speicheradressen aufweisen. Gemäß des Ausführungsbeispieles sind in den Speicheradressen 2001 bis 2027 sowohl die Audiodatensegmente 51 bis 77 der ersten Audiodaten 5 als auch die Indexsegmente 5051 bis 5077 der ersten Datenstruktur 5000 abgespeichert.
In einer Speicheradresse 2001 bis 2027 befindet sich je Speicheradresse eine Datenstruktur bestehend aus einem Audiodatensegment und einem Indexsegment. In der ersten Speicheradresse 2001 befindet sich eine Datenstruktur bestehend aus dem ersten Audiodatensegment 51 und dem ersten Indexsegment 5051, welches zur Indizierung den Wert 1 aufweist. An der zweiten Speicheradresse 2002 ist eine Datenstruktur abgespeichert, welche aus dem zweiten Audiodatensegment 52 und dem zweiten Indexsegment 5052 besteht, wobei das zweite Indexsegment 5052 den Wert 1 aufweist. An fortlaufenden Speicheradressen sind in der Speichereinheit 100 je Speicheradresse fortlaufend Audiodatensegmente 51 bis 77 mit jeweils dazu assoziierten Indexsegmenten 5051 bis 5077 abgespeichert. Hierbei entsprechen die Audiodatensegmente 51 bis 77 sowie die Indexdatensegmente 5051 bis 5077 jenen Audiodatensegmente und Indexsegmenten, wie sie in dem Ausführungsbeispiel gemäß Figur 7a dargestellt sind.
Figur 8b zeigt eine Wahl der zweiten Speicheradresse in Abhängigkeit von einer Eingabe eines Nutzers. Zu einem ersten Zeitpunkt Tl wird an der dreiundzwanzigsten Speicheradresse 2023 das dreiundzwanzigste Audiodatensegment 73 abgespeichert. Zu diesem gleichen Zeitpunkt Tl wird aus der ersten Speicheradresse 2001 das erste Audiodatensegment 51 als Teil der zweiten Audiodaten 500 ausgelesen. Es wird somit zu dem Zeitpunkt Tl das erste Audiodatensegment 51 als Audiodatensegment der zweiten Audiodaten 500 dem Decoder 6 zugeführt, welcher die Daten des Audiodatensegmentes decodiert und das auszugebende Audiosignal 31 ausgibt. Während des Auslesens des ersten Audiodatensegmentes 51 aus der Speichereinheit 100 an der ersten Speicheradresse 2001 erfolgt eine Eingabe des Nutzers, in deren Abhängigkeit jene zweite Speicheradresse gewählt wird, an welcher die zweiten Audiodaten 500 ausgelesen werden. Bei der Eingabe des Nutzers handelt es sich beispielsweise um eine Auswahl jenes Index, welcher unmittelbar auf die Speicheradresse folgt, an welcher zum Zeitpunkt der Eingabe die zweiten Audiodaten 500 in Form des ersten Audiodatensegmentes 51 ausgelesen werden. Dieses entspricht gemäß des Ausführungsbeispieles einer Auswahl des zwölften Indexsegmentes 5062, welches in der zwölften Speicheradresse 2012 zusammen mit dem zwölften Audiodatensegment 62 abgespeichert ist. Aufgrund der erfolgten Eingabe des Nutzers gemäß des hier beschriebenen Ausführungsbeispieles wird zum zweiten Zeitpunkt T2 an der zwölften Speicheradresse 2012 das zwölfte Audiodatensegment 62 aus dem Speicher 100 ausgelesen und dieses zwölfte Audiodatensegment 62 als zweite Audiodaten 500 dem Decoder 6 zugeführt, welcher anhand des zwölften
Audiodatensegmentes 62 zu dem zweiten Zeitpunkt T2 die Ausgabe des auszugebenden Audiosignals 31 durch Decodierung der Daten des zwölften Audiodatensegments 62 vornimmt.
Vorzugsweise ist es möglich, dass die Eingabe des Nutzers eine Auswahl eines
Index der ersten Audiodaten ist. Gemäß des Ausführungsbeispieles in Figur 8c erfolgt das Schreiben der ersten Audiodaten 5 sowie das Auslesen der zweiten Audiodaten 500 zu dem ersten Zeitpunkt Tl wie bereits gemäß der Ausführungsbeispiele in Figuren 8a und 8b gezeigt. Gemäß des Ausführungsbeispieles in Figur 8c erfolgt zum ersten Zeitpunkt Tl eine Eingabe des Nutzers, welche eine Auswahl eines Index der erste Audiodaten 5 ist. Zu dem ersten Zeitpunkt Tl wählt der Nutzer den Index des achtzehnten Indexsegmentes 5068 aus, welcher an der achtzehnten Speicheradresse 2018 zusammen mit dem achtzehnten Audiodatensegment 68 abgespeichert ist. Aufgrund dieser Auswahl wird zu dem zweiten Zeitpunkt T2 an der achtzehnten
Speicheradresse 2018 das achtzehnte Audiodatensegment 68 ausgelesen und als die zweiten Audiodaten 500 dem Decoder 6 zugeführt, welcher die Audiodaten des achtzehnten Audiodatensegmentes 68 decodiert und somit die Ausgabe des auszugebenden Audiosignals 31 zum zweiten Zeitpunkt T2 vornimmt. Insbesondere ist es möglich, dass durch eine Eingabe des Nutzers ein Typ von Audiodateninhalten festgelegt wird, und dass die Verwendung zweiter Audiodaten des festgelegten Typs zur Ausgabe des Audiosignals unterlassen wird. Hierzu ist ein Ausführungsbeispiel in Figur 9 dargestellt. Figur 9 zeigt einen
Speicher 100 mit entsprechenden Speicheradressen, an welchen Audiodatensegmente sowie Indexsegmente abgespeichert sind, wie bereits in den Figuren 8a bis 8c gezeigt. Gemäß des Ausführungsbeispieles in Figur 9 wird zu einem ersten Zeitpunkt Tl das Schreiben des dreiundzwanzigsten Audiodatensegments 73 an der dreiundzwanzigsten Speicheradresse 2023 vorgenommen, während zeitgleich an der ersten Speicheradresse 5051 das erste Audiodatensegment 51 ausgelesen wird, und dieses als die zweiten Audiodaten 500 dem Decoder 6 zugeführt, damit dieser das auszugebende Audiosignal 31 ausgibt. Gemäß des Ausführungsbeispieles hat der Nutzer durch eine Eingabe zu dem ersten Zeitpunkt Tl oder zu einem früheren Zeitpunkt einen
Typ von Audiodateninhalten festgelegt, so dass die Verwendung zweiter Audiodaten des festgelegten Typs zur Ausgabe des Audiosignals unterlassen wird. Beispielsweise wurde durch die Eingabe des Nutzers als Typ von Audiodateninhalten der Audiodatentyp B festgelegt.
Audiodatensegmente des Audiodatentyps B befinden sich gemäß Figur 9 ab der zwölften Speicheradresse 2012 bis zur siebzehnten Speicheradresse 2017.
Zu dem ersten Zeitpunkt Tl wird das erste Audiodatensegment 51 ausgelesen. Zu dem zweiten Zeitpunkt T2 wird das zweite Audiodatensegment 52 ausgelesen. Dieses führt sich zeitlich fort, bis zu dem elften Zeitpunkt TIl das elfte Audiodatensegment 61 ausgelesen wird. Aufgrund der vorliegenden Festlegung des Typs von Audiodateninhalten wird nach dem elften Zeitpunkt TIl die Verwendung des zwölften Audiodatensegments 62 als die zweiten Audiodaten 500 zu dem zwölften Zeitpunkt T12 unterlassen. Die Unterlassung erfolgt deshalb, da das zwölfte Audiodatensegment 62 mit dem zwölften Indexsegment 5062 assoziiert ist, welches eine 2 aufweist, welches wiederum anzeigt, dass das zwölfte Audiodatensegment 62 vom Audiodatentyp B ist. Der Audiodatentyp B ist gerade jener Audiodatentyp, dessen Verwendung als zweite Audiodaten 500 gemäß der Eingabe des Nutzers unterlassen werden soll. Aus diesem Grund erfolgt zum zwölften Zeitpunkt T12 das Auslesen des achtzehnten Audiodatensegmentes 68 aus der achtzehnten Speicheradresse 2018, da das mit dem achtzehnten Audiodatensegment 68 assoziierte Indexsegment 5068, welches ebenfalls an der Speicheradresse 2000 abgespeichert ist, eine 3 aufweist, welches anzeigt, dass das achtzehnte Audiodatensegment 68 vom
Audiodatentyp C ist. Der Prozess des Auslesens von Audiodatensegmenten wird also nun zu dem zwölften Zeitpunkt T12 ab der achtzehnten Speicheradresse 2018 zeitlich fortgeführt.
Vorzugsweise ist es möglich, dass in Abhängigkeit von der Tageszeit ein weiterer
Typ von Audiodateninhalten festgelegt wird, und dass die Verwendung zweiter Audiodaten dieses weiteren Typs zur Ausgabe des Audiosignals unterlassen wird. Es ist somit vorzugsweise möglich, in Abhängigkeit von der Tageszeit auf die Verwendung von Audiodatensegmenten, welche einen bestimmten Audiodatentyp aufweisen, zur Ausgabe des auszugebenden Audiosignals zu verzichten.
Ferner ist es möglich, das Auslesen der zweiten Audiodaten zur Ausgabe eines extern zugeführten Audiosignals unterbrochen wird. Hierzu ist ein Ausführungsbeispiel in Figur 10 dargestellt. Figur 10 zeigt einen Speicher 100 mit entsprechenden Audiodatensegmenten sowie Indexsegmenten, welche an entsprechenden Speicheradressen abgespeichert sind wie bereits in den Figuren 8a, 8b, 8c, 9 gezeigt.
Gemäß Figur 10 weist der Speicher 100 weiterhin eine vierundzwanzigste
Speicheradresse 2024 auf, an welcher ein vierundzwanzigstes Audiodatensegment 74 zusammen mit einem vierundzwanzigsten Indexsegment
5074 abgespeichert ist. Ferner weist der Speicher 100 eine fünfundzwanzigste Speicheradresse 2075 auf, an welcher ein fünfundzwanzigstes Audiodatensegment 75 zusammen mit einem fünfundzwanzigsten Indexsegment
5075 abgespeichert ist. Zu einem ersten Zeitpunkt Tl erfolgt ein Schreiben des dreiundzwanzigsten Audiodatensegments 73 sowie ein zeitgleiches Auslesen des ersten Audiodatensegmentes 51 wie bereits in den vorhergehenden Ausführungsbeispielen beschrieben. Zu einem zweiten Zeitpunkt T2 wird das Auslesen der zweiten Audiodaten 500 in Form des Auslesens von Audiodatensegmenten aus dem Speicher 100 unterbrochen, um anstelle des auszugebenden Audiosignals 31, welches anhand der ausgelesenen Audiodatensegmente durch Decodierung ausgegeben wird, ein extern zugeführtes Audiosignal auszugeben. Gemäß des Ausführungsbeispieles in Figur 10 erfolgt während der Ausgabe des extern zugeführten Audiosignals weiterhin zum zweiten Zeitpunkt T2 ein Schreiben des vierundzwanzigsten Audiodatensegments 74 an der vierundzwanzigsten Speicheradresse 2024 in den Speicher 100. Zu dem dritten Zeitpunkt T3 erfolgt ein Schreiben des fünfundzwanzigsten Audiodatensegmentes 75 an der fünfundzwanzigsten Speicheradresse 2025 in den Speicher 100. Zu diesem dritten Zeitpunkt T3 ist gemäß des Ausführungsbeispieles die Ausgabe des extern zugeführten Audiosignals beendet, so dass das Auslesen der zweiten Audiodaten 500 in Form des Auslesens von Audiodatensegmenten aus dem Speicher 100 wieder aufgenommen wird. Zu diesem dritten Zeitpunkt T3 wird also an der zweiten Speicheradresse 2002 des Speichers 100 das zweite Audiodatensegment 52 ausgelesen und als die zweiten Audiodaten 500 dem Decoder 6 zugeführt. Durch eine Unterbrechung des Auslesens der zweiten Audiodaten in Form eines Auslesens der Audiodatensegmente aus dem Speicher 100 ergibt sich eine Änderung des Zeitversatzes, welchen des Audiosignal von seiner Speicherung bis zu seiner Ausgabe erfährt.
Figur IIa zeigt eine erfindungsgemäße Steuereinheit zur Ausgabe eines aus einem Rundfunksignal gewonnenen Audiosignals. Die Steuereinheit 86 weist eine erste Schnittstelle 82 zu einer akustischen Ausgabeeinheit 85 zur akustischen Ausgabe des auszugebenden Audiosignals 31 auf. Ferner weist die
Steuereinheit 86 eine zweite Schnittstelle 87 zu einer Bereitstellungseinheit 13 zur Bereitstellung der aus dem Rundfunksignal 1 gewonnenen Audiodaten 5. Weiterhin weist die Steuereinheit 86 eine dritte Schnittstelle 83 zu einer Eingabeeinheit 84 zur Erfassung einer Eingabe eines Nutzers auf. Die Steuereinheit 86 verfügt über eine Speichereinheit 88, in welche die aus dem
Rundfunksignal 1 gewonnen Audiodaten 5 geschrieben werden, welche über die zweite Schnittstelle 87 in die Steuereinheit 86 eingelesen werden. Die Steuereinheit 86 verfügt ferner über eine Analyseeinheit 30, welche an die Speichereinheit 88 angeschlossen ist. Die Analyseeinheit 30 analysiert die ersten Audiodaten 5, welche sich in dem Speicher 88 befinden, auf Typen von Audiodateninhalten hin derart, dass die ersten Audiodaten 5 an jenen Stellen mit Indizes indiziert werden, an welchen ein Wechsel des Typ der ersten Audiodaten 5 vorliegt. Eine derartige Indizierung der ersten Audiodaten 5 ist ausführlich in den Figuren 7a, 7b gezeigten Ausführungsbeispielen beschrieben. Ferner verfügt die Steuereinheit 86 über eine Ausleseeinheit 89, welche zweite Audiodaten 500 aus der Speichereinheit 88 ausliest und einer Decodierungseinheit 6 zuführt. Die Decodierungseinheit decodiert die zweiten Audiodaten 500 und gibt das auszugebende Audiosignal 31 über die erste Schnittstelle 82 an die akustische Ausgabeeinheit 85 aus.
Gemäß des Ausführungsbeispieles in Figur 9a handelt es sich bei dem Rundfunksignal 1 um ein Rundfunksignal eines analogen Übertragungsverfahrens.
In der Bereitstellungseinheit 13 wird das durch die Antenne 12 empfangene Rundfunksignal 1 einer Demodulationseinheit 14 zugeführt, welche somit aus dem Rundfunksignal 1 durch Demodulation das Audiosignal 3 gewinnt. Bei dem Audiosignal 3 handelt es sich gemäß des hier vorliegenden Ausführungsbeispieles somit um ein analoges Audiosignal. Das analoge
Audiosignal 3 wird ferner in der Bereitstellungseinheit 13 einer Codierungseinheit 90 zugeführt, welche die analogen Audiosignale 3 in erste Audiodaten 5 codiert. Über die zweite Schnittstelle 87 ist die Bereitstellungseinheit 13 mit der Steuereinheit 86 verbunden, so dass die ersten Audiodaten 5 an die Steuereinheit 86 von der Bereitstellungseinheit 13 übertragen werden. Gemäß eines weiteren Ausführungsbeispieles ist es möglich, dass die Bereitstellungseinheit 13 keine Codierungseinheit 90 aufweist, sondern dass zwischen die Bereitstellungseinheit 13 und die Steuereinheit 86 eine separate Codierungseinheit 90 geschaltet ist, welche eine Codierung des analogen Audiosignals 3 in die erste Audiodaten 5 vornimmt. Ferner ist es gemäß eines weiteren Ausführungsbeispieles möglich, dass die Steuereinheit 86 die Codierungseinheit 90 aufweist, so dass von der Bereitstellungseinheit 13 das analoge Audiosignal 3 über die zweite Schnittstelle 87 an die Steuereinheit 86 übertragen wird. Die Codierungseinheit 90 führt dann als Teil der Steuereinheit 86 eine Codierung des analogen Audiosignals 3 in die ersten Audiodaten 5 durch. Die Codierungseinheit 90 kann beispielsweise als Schaltungseinheit, Asic, frei programmierbare Schaltung, FPGA oder als Software auf einer Recheneinheit ausgebildet sein. Weitere Ausführungsformen der Codierungseinheit 90 gemäß des Standes der Technik sind möglich.
Bei der Eingabeeinheit 84 kann es sich um eine Tastatur, einen Touchscreen, ein Sprachinterface oder Bedienelemente handeln, anhand derer der Nutzereingaben in die Steuereinheit 86 vornehmen kann. Die Speichereinheit 88 kann in Form einer Festplatte, eines Ringspeichers, einer Flashcard oder weiterer wiederbeschreibbarer Speichermedien vorliegen. Die
Decodierungseinheit 6 kann ebenso wie die Codierungseinheit 90 in unterschiedlichen Ausführungsformen vorliegen. Bei der akustischen Ausgabeeinheit 85 kann es sich beispielsweise um einen Lautsprecher, eine Audioanlage eines Autoradios oder weitere Mittel zur akustischen Ausgabe eines Audiosignals handeln.
Bei den Schnittstellen handelt es sich vorzugsweise um drahtgebundene oder auch drahtlose Schnittstellen zur Übertragung von Signalen und/oder Daten handeln.
Figur IIb zeigt gemäß eines Ausführungsbeispieles eine Steuereinheit 186 zusammen mit einer Bereitstellungseinheit 132 gemäß eines weiteren Ausführungsbeispiels. Gemäß dieses Ausführungsbeispieles handelt es sich bei der Bereitstellungseinheit 132 um eine Empfangseinheit zum Empfang von Rundfunksignalen 112 eines digitalen Übertragungsverfahrens. Die
Bereitstellungseinheit 132 weist eine Antenne 12 auf, über welche das digitale Rundfunksignal 112 empfangen wird. Ferner weist die Bereitstellungseinheit 132 ein Empfangsmodul 15 auf, welches aus dem digitalen Rundfunksignal 112 die ersten Audiodaten 5 gewinnt. Über die zweite Schnittstelle 87 der Steuereinheit 186 werden die ersten Audiodaten 5 an die Steuereinheit 186 übertragen. In der
Steuereinheit 186 erfolgt ein Speichern der ersten Audiodaten 5 in die Speichereinheit 88, eine Analyse der ersten Audiodaten 5 anhand einer Analyseeinheit 30, welche mit der Speichereinheit 88 verbunden ist, sowie ein Auslesen der zweiten Audiodaten 500 durch eine Ausleseeinheit 89, welche die zweiten Audiodaten 500 der Decodierungseinheit 6 zuführt, welche die zweiten Audiodaten 500 decodiert und somit das auszugebende Audiosignal 31 über die erste Schnittstelle 82 an die akustische Ausgabeeinheit 85 ausgibt.
Figur IIa und Figur IIb zeigen ferner Ausführungsformen der erfindungsgemäßen Vorrichtung 133, 134. Die erfindungsgemäße Vorrichtung
133 gemäß des Ausführungsbeispieles in Figur IIa umfaßt alle dort dargestellten Einheiten, welche gemäß der Beschreibung von Figur IIa entsprechend miteinander verbunden sind und miteinander wirken. Die erfindungsgemäße Vorrichtung 134 gemäß des Ausführungsbeispieles in Figur IIb umfaßt alle dort dargestellten Einheiten, welche gemäß der Beschreibung von Figur IIb entsprechend miteinander verbunden sind und miteinander wirken.

Claims

Ansprüche
1. Verfahren zur Ausgabe eines aus einem Rundfunksignal (1, 11) gewonnenen Audiosignals (3), wobei das Audiosignal (3) in Form von ersten Audiodaten (5) in einen Speicher
(100) an einer ersten, sich zeitlich fortlaufend ändernden Speicheradresse
(2073) geschrieben wird, wobei zeitgleich zum Schreiben der ersten Audiodaten (5) in den Speicher
(100) zweite Audiodaten (500) an einer zweiten, weiteren sich zeitlich fortlaufend ändernden Speicheradresse (2001) aus dem Speicher (100) ausgelesen werden, wobei unter Verwendung der zweiten Audiodaten (500) das Audiosignal (31) ausgegeben wird, dadurch gekennzeichnet, dass die ersten Audiodaten (5) auf Typen von Audiodateninhalten hin derart analysiert werden, dass die ersten Audiodaten (5) an jenen Stellen (2001, 2012, 2068, 2073) mit Indizes (5051,5062,5068,5073,
5151,5162,5168,5173) indiziert werden, an welchen ein Wechsel eines Typs der ersten Audiodaten (5) vorliegt, und dass die zweite Speicheradresse (2001) in Abhängigkeit von den Indizes (5051,5062,5068,5073, 5151,5162,5168,5173) der ersten Audiodaten (5) und einer Eingabe eines Nutzers gewählt wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Eingabe des Nutzers eine Auswahl eines Index (5051,5062,5068,5073, 5151,5162,5168,5173) der ersten Audiodaten (5) ist.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass die Eingabe des Nutzers eine Auswahl jenes Index (5062) ist, welcher unmittelbar auf die zweite Speicheradresse (2001) folgt.
4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass durch eine Eingabe des Nutzers mindestens ein Typ von Audiodateninhalten festgelegt wird, und dass die Verwendung zweiter Audiodaten (500) des festgelegten Typs zur Ausgabe des Audiosignals (31) unterlassen wird.
5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in Abhängigkeit von der Tageszeit mindestens ein weiterer Typ von Audiodateninhalten festgelegt wird, und dass die Verwendung zweiter Audiodaten (500) dieses weiteren Typs zur Ausgabe des
Audiosignals (31) unterlassen wird.
6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Auslesen der zweiten Audiodaten (500) zur Ausgabe eines extern zugeführten Audiosignals unterbrochen wird.
7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zeitgleich jeweilige Audiosignale (3) aus jeweiligen Rundfunksignalen (1, 11) gewonnen werden und in Form von jeweiligen ersten Audiodaten (5) an ersten, sich zeitlich fortlaufend ändernde
Speicheradressen jeweiliger Speicher (100) geschrieben werden, wobei zeitgleich zum Schreiben der jeweiligen ersten Audiodaten (5) zweite Audiodaten (500) an einer zweiten, sich zeitlich fortlaufend ändernden Speicheradresse (2001) aus einem der Speicher (100) ausgelesen werden, wobei unter Verwendung der zweiten Audiodaten (500) das Audiosignal (31) ausgegeben wird wobei die jeweiligen ersten Audiodaten (5) auf Typen von Audiodateninhalten hin derart analysiert werden, dass die jeweiligen ersten Audiodaten (5) an jenen Stellen (2001, 2012, 2068, 2073) mit Indizes (5051,5062,5068,5073, 5151,5162,5168,5173) indiziert werden, an welchen ein Wechsel eines Typs der jeweiligen ersten Audiodaten (5) vorliegt, und wobei die zweite Speicheradresse (2001) in Abhängigkeit von den Indizes (5051,5062,5068,5073, 5151,5162,5168,5173) der jeweiligen ersten Audiodaten (5) und einer Eingabe eines Nutzers gewählt wird.
8. Steuereinheit (86,186) zur Ausgabe eines aus einem Rundfunksignal (1, 11, 112) gewonnenen Audiosignals (3), aufweisend eine erste Schnittstelle (82) zu einer akustischen Ausgabeeinheit (85) zur akustischen Ausgabe des Audiosignals (31), eine zweite Schnittstelle (87) zu einer Bereitstellungseinheit (13, 132) zur Bereitstellung der aus dem Rundfunksignal (1, 11, 112) gewonnenen Audiodaten (5), eine dritte Schnittstelle (83) zu einer Eingabeeinheit (84) zur Erfassung einer Eingabe eines Nutzers, einen Speicher (100) zur Speicherung aus dem Rundfunksignal (1, 11, 112) gewonnener erster Audiodaten (5) an einer ersten, sich zeitlich fortlaufend ändernden Speicheradresse (2073), eine Ausleseeinheit (89) zum Auslesen zweiter Audiodaten (500) an einer zweiten, sich zeitlich fortlaufend ändernden Speicheradresse (2001) aus dem Speicher (100), wobei das Auslesen zeitgleich zu der Speicherung der ersten Audiodaten (5) vorgenommen wird, eine Decodierungseinheit (6) zur Decodierung der zweiten Audiodaten (500) in das auszugebende Audiosignal (31), gekennzeichnet durch eine Analyseeinheit (30), welche die ersten Audiodaten (5) auf Typen von Audiodateninhalten hin derart analysiert, dass die ersten Audiodaten (5) an jenen Stellen (2001, 2012, 2068, 2073) mit Indizes
(5051,5062,5068,5073, 5151,5162,5168,5173) indiziert werden, an welchen ein Wechsel eines Typs der ersten Audiodaten (5) vorliegt, und dadurch, dass die Ausleseeinheit (89) die zweite Speicheradresse (2001) in Abhängigkeit von den Indizes (5051,5062,5068,5073, 5151,5162,5168,5173) der ersten Audiodaten (5) und der Eingabe des Nutzers wählt.
9. Vorrichtung (133, 134) zur Ausgabe eines aus einem Rundfunksignal (1, 11, 112) gewonnenen Audiosignals (3), aufweisend eine akustische Ausgabeeinheit (85) zur akustischen Ausgabe des Audiosignals (31), eine Bereitstellungseinheit (13, 132) zur Bereitstellung der aus dem
Rundfunksignal (1, 11, 112) gewonnener Audiodaten (5), eine Eingabeeinheit (84) zur Erfassung einer Eingabe eines Nutzers, eine Steuereinheit (86, 186) gemäß des Oberbegriffs nach Anspruch 8, wobei die Steuereinheit (86, 186) über die erste Schnittstelle (82) mit der akustischen Ausgabeeinheit (85) verbunden ist, wobei die Steuereinheit (86, 186) über die zweite Schnittstelle (87) mit der Bereitstellungseinheit (13, 132) verbunden ist, wobei die Steuereinheit (86, 186) über die dritte Schnittstelle (83) mit der Eingabeeinheit (84) verbunden ist, dadurch gekennzeichnet, dass die Steuereinheit (86, 186) eine Analyseeinheit
(30) aufweist, welche die ersten Audiodaten (5) auf Typen von Audiodateninhalten hin derart analysiert, dass die ersten Audiodaten (5) an jenen Stellen (2001, 2012, 2068, 2073) mit Indizes (5051,5062,5068,5073, 5151,5162,5168,5173) indiziert werden, an welchen ein Wechsel eines Typs der ersten Audiodaten (5) vorliegt, und dadurch, dass die Ausleseeinheit (89) die weitere Speicheradresse (2001) in Abhängigkeit von den Indizes (5051,5062,5068,5073, 5151,5162,5168,5173) der ersten Audiodaten (5) und der Eingabe des Nutzers wählt.
PCT/EP2008/063754 2007-12-13 2008-10-14 Vorrichtung und verfahren zur ausgabe eines aus einem rundfunksignal gewonnenen audiosignals WO2009074372A2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102007060054.4 2007-12-13
DE200710060054 DE102007060054A1 (de) 2007-12-13 2007-12-13 Vorrichtung und Verfahren zur Ausgabe eines aus einem Rundfunksignal gewonnenen Audiosignals

Publications (2)

Publication Number Publication Date
WO2009074372A2 true WO2009074372A2 (de) 2009-06-18
WO2009074372A3 WO2009074372A3 (de) 2010-01-28

Family

ID=40679900

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2008/063754 WO2009074372A2 (de) 2007-12-13 2008-10-14 Vorrichtung und verfahren zur ausgabe eines aus einem rundfunksignal gewonnenen audiosignals

Country Status (2)

Country Link
DE (1) DE102007060054A1 (de)
WO (1) WO2009074372A2 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1193973A2 (de) * 2000-09-27 2002-04-03 Victor Company Of Japan, Ltd. Videosignalaufzeichnungsgerät und/oder -wiedergabegerät
US20060140098A1 (en) * 2004-12-29 2006-06-29 Champion Mark A Recording audio broadcast program
KR100777310B1 (ko) * 2006-09-25 2007-11-20 엘지전자 주식회사 영상신호 수신장치 및 이를 이용한 프로그래스 바 표시방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI303945B (en) 2006-01-04 2008-12-01 Avermedia Tech Inc Method and system for picking up signals

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1193973A2 (de) * 2000-09-27 2002-04-03 Victor Company Of Japan, Ltd. Videosignalaufzeichnungsgerät und/oder -wiedergabegerät
US20060140098A1 (en) * 2004-12-29 2006-06-29 Champion Mark A Recording audio broadcast program
KR100777310B1 (ko) * 2006-09-25 2007-11-20 엘지전자 주식회사 영상신호 수신장치 및 이를 이용한 프로그래스 바 표시방법

Also Published As

Publication number Publication date
WO2009074372A3 (de) 2010-01-28
DE102007060054A1 (de) 2009-06-18

Similar Documents

Publication Publication Date Title
DE4111131C2 (de) Verfahren zum Übertragen digitalisierter Tonsignale
AT390685B (de) System zur textverarbeitung
EP0609300B1 (de) Verfahren zum übertragen oder speichern eines aus einer folge von informationsblöcken bestehenden digitalisierten, encodierten tonsignals über störbehaftete kanäle
DE4430864C2 (de) Verfahren zum unbemerktem Übertragen und/oder Speichern von Zusatzinformationen innerhalb eines quellencodierten, datenreduzierten Audiosignals
EP1721299A1 (de) Verfahren zur ausgabe von textuellen informationen mittels einer anzeige
DE102012210313A1 (de) Verfahren zum Erkennen, Speichern und/oder Anzeigen eines Sendernamens einesRundfunksenders
WO2009074372A2 (de) Vorrichtung und verfahren zur ausgabe eines aus einem rundfunksignal gewonnenen audiosignals
DE3106037A1 (de) "funkerfassungseinrichtung"
DE19956625C2 (de) Echtzeit-Datensortierung und -reduktion
EP0539708B1 (de) Rundfunkempfänger, insbesondere Fahrzeugempfänger
DE3328344C1 (de) Verfahren zum Übertragen von digitalen Tonsignalen sowie Einrichtung zum Empfangen eines nach diesem Verfahren übertragenen Tonsignals
WO2002061611A2 (de) Verfahren zur darstellung von einem internetobjekt
EP0902564B1 (de) Verfahren zur Auswertung von digitalen Signalen, insbesondere Radio-Daten-Signalen
DE19533008C5 (de) Rundfunkempfänger
DE102013219129B4 (de) Verfahren zum Empfangen und Anzeigen einer Textinformation
EP0898429B1 (de) Messverfahren zur Bewertung digitaler Übertragungssysteme sowie Vorrichtung dazu
DE2834751C2 (de)
EP0834859A2 (de) Verfahren zum Bestimmen eines akustischen Modells für ein Wort
DE102013202447B4 (de) Verfahren zum Empfangen und Anzeigen einer Textinformation mit einer Rundfunkempfangseinrichtung
EP1454150A1 (de) Verfahren und anordnung zum graphischen darstellen der i- und/oder q- komponenten von digital modulierten hochfrequenzsignalen
EP1136934A1 (de) Vorrichtung zum Empfangen digitaler Daten eines kontaktlos übertragenden Senders
DE19804603A1 (de) Verfahren zum Ermitteln von Wörtern in einem Sprachsignal
DE19730716A9 (de) Triggerung eines Meßverfahrens zur Qualitätsbeurteilung von Audio- und/oder Sprachsignalen
EP1069714A2 (de) Verfahren und Vorrichtung für den Empfang von über einen Funknetz übertragenen digitalen Signalen mit Auswertung der Ortskoordinaten worauf die übertragenen Signalen Bezug nehmen
EP1630988A2 (de) Zeitlich gemultiplexter Empfang auf zwei Trägerfrequenzen im digitalen Rundfunk

Legal Events

Date Code Title Description
122 Ep: pct application non-entry in european phase

Ref document number: 08858882

Country of ref document: EP

Kind code of ref document: A2