WO2020049705A1 - Content supplying device, content providing system, content providing server device, content acquiring device, content providing method, and content providing program - Google Patents

Content supplying device, content providing system, content providing server device, content acquiring device, content providing method, and content providing program Download PDF

Info

Publication number
WO2020049705A1
WO2020049705A1 PCT/JP2018/033125 JP2018033125W WO2020049705A1 WO 2020049705 A1 WO2020049705 A1 WO 2020049705A1 JP 2018033125 W JP2018033125 W JP 2018033125W WO 2020049705 A1 WO2020049705 A1 WO 2020049705A1
Authority
WO
WIPO (PCT)
Prior art keywords
content
tactile
unit
haptic
mode
Prior art date
Application number
PCT/JP2018/033125
Other languages
French (fr)
Japanese (ja)
Inventor
理絵子 鈴木
Original Assignee
株式会社ファセテラピー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ファセテラピー filed Critical 株式会社ファセテラピー
Priority to JP2019557643A priority Critical patent/JP6644293B1/en
Priority to PCT/JP2018/033125 priority patent/WO2020049705A1/en
Publication of WO2020049705A1 publication Critical patent/WO2020049705A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units

Definitions

  • the present invention relates to a content providing device, a content providing system, a content providing server device, a content obtaining device, a content providing method, and a content providing program, and in particular, vibration information generated so as to make a user sense a predetermined sense of touch.
  • the present invention relates to an apparatus for providing or using haptic content, and a system including the apparatus.
  • the present inventor has devised a technique for generating haptic information that can transmit truly meaningful tactile information as a tactile sensation, for example, a message meaningful to a recipient by a haptic effect (for example, Patent Documents 1 and 2).
  • JP 2018-29802 A JP 2018-32236 A JP 2018-32236 A
  • Patent Documents 1 and 2 disclose techniques for generating haptic content, but do not disclose in detail how to provide and use haptic content. For example, it does not disclose how to provide a user with a plurality of types of haptic contents generated to make the user image various sensations related to haptics. Therefore, an object of the present invention is to provide an environment in which a user can easily use tactile contents.
  • a tactile mode designating unit that designates one of a plurality of tactile modes having different characteristics of tactile sensation is provided, and a predetermined tactile sensation is provided.
  • Content that is vibration information generated so as to cause the user to image the haptic content according to the tactile mode specified by the tactile mode specifying unit, and the obtained haptic content is used as a content-using device. To supply it.
  • a haptic content that generates a specific tactile sensation by vibration is set to the tactile mode. It can be appropriately provided to the user accordingly. Thereby, an environment in which the user can easily use the tactile content can be provided.
  • FIG. 2 is a diagram schematically illustrating a relationship between a content supply device and a content use device.
  • FIG. 2 is a block diagram illustrating a functional configuration example of the content supply device according to the first embodiment.
  • FIG. 2 is a block diagram illustrating a functional configuration example of the content supply device according to the first embodiment.
  • FIG. 2 is a block diagram illustrating a functional configuration example of the content supply device according to the first embodiment.
  • It is a block diagram showing an example of functional composition of a tactile mode designation part.
  • FIG. 9 is a diagram for describing an example of processing contents by a tactile parameter generation unit. It is a figure showing an example of the specification contents of the tactile mode by the mode specification part.
  • FIG. 9 is a diagram for describing an example of processing contents by a tactile parameter generation unit. It is a figure showing an example of the specification contents of the tactile mode by the mode specification part.
  • FIG. 3 is a block diagram illustrating a functional configuration example of a haptic content acquisition unit according to a first configuration example.
  • 5 is a flowchart illustrating an operation example of the content supply device using the haptic content acquisition unit according to the first configuration example. It is a block diagram showing the example of functional composition of the tactile content acquisition part concerning the 2nd example of composition. It is an image figure which shows the processing content of a vibration waveform processing part typically. It is a block diagram showing an example of functional composition of a vibration waveform processing part.
  • FIG. 5 is a diagram for explaining processing contents of a feature extraction unit and a weight information generation unit. It is a figure which shows the waveform information of the haptic content processed by the vibration waveform processing part with the waveform information of the audio content.
  • FIG. 9 is a flowchart illustrating an operation example of a content supply device using a haptic content acquisition unit according to a second configuration example. It is a block diagram showing the example of functional composition of the tactile content acquisition part concerning the 3rd example of composition. It is a block diagram showing the example of functional composition of the tactile content acquisition part concerning the 3rd example of composition. It is a block diagram showing the example of functional composition of the tactile content acquisition part concerning the 3rd example of composition. It is a block diagram showing the example of functional composition of the tactile content acquisition part concerning the 3rd example of composition.
  • FIG. 4 is a diagram schematically illustrating a storage example of tactile content stored in a tactile content storage unit. It is a flowchart which shows the operation example of the content supply apparatus using the tactile content acquisition part concerning the 3rd structural example.
  • FIG. 9 is a diagram for describing a repetition pattern determination algorithm by a repetition extraction unit. It is a flow chart which shows an example of operation of a contents supply device using a tactile contents acquisition part concerning a 4th example of composition.
  • FIG. 7 is a diagram for describing an example of processing contents by a tactile parameter generation unit when image information is used as target information.
  • FIG. 9 is a diagram for describing an example of processing contents by a tactile parameter generation unit when text information is used as target information. It is a figure for explaining an example of processing contents by a tactile parameter generation part at the time of inputting massage operation information.
  • It is a block diagram showing an example of functional composition of a contents supply device by a 2nd embodiment. It is a block diagram showing an example of functional composition of a contents supply device by a 2nd embodiment.
  • a content supply device for supplying a tactile content, which is vibration information generated to cause a user to image a predetermined tactile sensation, to a content using device.
  • FIG. 1 is a diagram schematically showing a relationship between a content supply device 100 according to the present embodiment and a content use device 500 that uses tactile content supplied from the content supply device 100.
  • the content supply device 100 of the present embodiment can be connected to the content use device 500 by wire.
  • the content supply device 100 supplies the haptic content to the content use device 500 via a wired cable or the like.
  • the content supply device 100 of the present embodiment can be wirelessly connected to the content use device 500.
  • the content supply device 100 supplies the haptic content to the content use device 500 using communication according to a predetermined wireless standard.
  • the content supply device 100 can be built in a content using device or attached to the content using device 500.
  • the content supply device 100 supplies the vibration information of the haptic content to the vibration imparting unit of the content use device 500 via an internal bus or a signal line of the content use device 500.
  • the content utilization device 500 is a device having at least a function of exerting a given function using vibration as a medium.
  • massage devices beauty devices, in-vehicle devices, home appliances, audio devices, virtual experience devices such as VR (virtual reality), AR (augmented reality), and MR (mixed reality), medical devices, welfare devices, toys, games Machine or its controller, switches and buttons, vibration alarm, touch panel with vibration feedback, etc.
  • VR virtual reality
  • AR augmented reality
  • MR mixed reality
  • the devices listed here are only examples of the content use device 500, and the present invention is not limited to these.
  • the content use device 500 may be a device having a function of performing a given operation exclusively using vibration as a medium, or a device that performs a given operation using information other than vibration (eg, audio, video, etc.) as a medium. It may be a device further provided with a function of performing the following.
  • the content supply device 100 has a function of storing at least the haptic content (including a case where the content received from the external device is stored or temporarily stored as described later) and supplying the stored haptic content to the content using device 500. What is necessary is just to have. Alternatively, the content supply device 100 stores information necessary for generating the haptic content (including the case where the content received from the external device is stored or temporarily stored), and the haptic content is obtained from the information. May be generated and provided to the content use device 500.
  • the content supply device 100 having the functions as described above, for example, a personal computer, a smartphone, a tablet terminal, a server device, an in-vehicle device, a game machine, or the like, or a dedicated terminal created for providing the content of the present embodiment may be used. It is possible. In the case where the content use device 500 incorporates or mounts the content supply device 100 as shown in FIG.
  • the content supply device 100 includes the massage device, the beauty device, the in-vehicle device, the home appliance, A configuration in which an audio device, a VR / AR / MR device, a medical device, a welfare device, a toy, a game machine, a personal computer, a smartphone, a tablet terminal, a server device, and the like may be provided.
  • FIGS. 2A to 2C are block diagrams showing a functional configuration example of the content supply device 100 according to the first embodiment.
  • the content supply device 100 supplies audio content to the content use device 500 in addition to the tactile content.
  • audio content is content including audio, and is not limited to content having only audio as main data, such as music, speech, sound effects, and alarm sounds. May be audio contents attached to the content.
  • the content supply device 100 has, as its functional configuration, a haptic content acquisition unit 11, a haptic content supply unit 12, a tactile mode designation unit 13, an audio content acquisition unit. 14 and an audio content supply unit 15.
  • Each of the functional blocks 11 to 15 can be configured by any of hardware, DSP (Digital Signal Processor), and software.
  • DSP Digital Signal Processor
  • each of the functional blocks 11 to 15 is actually configured to include a CPU, a RAM, a ROM, and the like of a computer, and is stored in a storage medium such as a RAM, a ROM, a hard disk, or a semiconductor memory. This is realized by the operation of the providing program.
  • the audio content acquisition unit 14 acquires audio content in response to an instruction from the user for selecting audio content.
  • the selection of the audio content includes selecting a content such as a moving image or a video accompanied by the audio content.
  • the original information of speech synthesis is selected (for example, selection of text information in the case of speech synthesis of a sentence or the like).
  • selection of various function buttons when a function description is read out using synthesized speech, etc.) is also included as an example of selection of speech content.
  • the synthesized speech corresponds to the speech content.
  • the audio content acquisition unit 14 includes an audio content reading unit 141 and an audio content storage unit 142.
  • the audio content storage unit 142 is a non-volatile storage medium such as a hard disk, a semiconductor memory, or the like, and can continue to store audio content unless a user explicitly gives an instruction for deletion.
  • the audio content reading unit 141 acquires audio content by reading audio content selected by a user operation from one or more audio contents stored in the audio content storage unit 142.
  • the selection of the audio content by the user operation is performed by, for example, a user operating an operation unit provided in the content supply device 100 or the content use device 500, or a predetermined graphical user interface provided on the display by the content supply device 100 or the content use device 500. It can be done by doing.
  • FIG. 2A shows a form in which one or more audio contents are stored in the audio content storage unit 142 in advance.
  • FIG. 2B shows that the content supply device 100 is configured to be connectable to an external device (for example, a server) 700 via a communication network 600, and receives desired audio content from the external device 700 via the communication network 600.
  • the figure shows a mode provided with a function to be stored in the audio content storage unit 142. That is, in the example of FIG. 2B, the haptic content acquisition unit 11 further includes the audio content recording unit 16.
  • the audio content recording unit 16 receives audio content from the external device 700 via the communication network 600 and stores the audio content in the audio content storage unit 142. The user can download the favorite audio content from the external device 700 and save it in the audio content storage unit 142.
  • the audio content storage unit 142 ' may be a storage medium for temporarily storing audio content received from the external device 700.
  • the audio content recording unit 16 notifies the external device 700 of the audio content selected by the user operation.
  • the audio content reading unit 141 ′ reads the audio content transmitted from the external device 700 as a response to the notification and temporarily stored in the audio content storage unit 142 ′, and supplies the audio content to the audio content supply unit 15.
  • the audio content reading unit 141 ′ and the audio content supply unit 15 read the audio content temporarily stored in the audio content storage unit 142 ′ and supply the audio content to the content using device 500 by the content supply device 100.
  • the processing is performed in series with the processing of receiving audio content from the external device 700 and storing the audio content in the audio content storage unit 142 ′.
  • the audio content supply unit 15 supplies the audio content acquired by the audio content acquisition unit 14 to the content use device 500.
  • the content use device 500 outputs a sound to a sound output unit such as a speaker based on the sound content supplied from the sound content supply unit 15.
  • a sound output unit such as a speaker based on the sound content supplied from the sound content supply unit 15.
  • the content using device 500 outputs the audio to an audio output unit such as a speaker based on the audio content, and outputs the video to a display.
  • the tactile mode designating unit 13 designates any one of a plurality of tactile modes having different sensational sensations.
  • the tactile mode designating unit 13 analyzes the audio content acquired by the audio content acquiring unit 14, and designates the tactile mode according to the analysis result. That is, the tactile mode designating unit 13 analyzes a feature of the waveform information of the audio content, and designates a tactile mode representing a tactile quality according to the feature. The details of this analysis processing will be described later.
  • the haptic content acquisition unit 11 acquires haptic content according to the tactile mode specified by the tactile mode specification unit 13. The details of the tactile content acquisition processing (there are a plurality of patterns) will be described later.
  • the haptic content supply unit 12 supplies the haptic content acquired by the haptic content acquisition unit 11 to the content use device 500.
  • the content use device 500 executes a given operation using vibration as a medium based on the haptic content supplied from the haptic content supply unit 12.
  • the haptic content acquisition unit 11 automatically acquires the haptic content when, for example, the user performs an operation of selecting the audio content.
  • the acquisition of the audio content by the audio content acquisition unit 14 and the acquisition of the haptic content by the haptic content acquisition unit 11 are performed according to the operation of selecting the audio content.
  • the haptic content acquisition unit 11 may acquire the haptic content when an operation for instructing acquisition of the haptic content is performed by the user separately from the operation of selecting the audio content. In this case, the acquisition of the audio content by the audio content acquisition unit 14 and the acquisition of the haptic content by the haptic content acquisition unit 11 are performed asynchronously.
  • the acquisition of the haptic content is automatically performed in response to the selection operation of the audio content as in the former case, the supply of the haptic content from the content supply device 100 to the content use device 500 and the supply of the haptic content from the content supply device 100 to the content use device 500 are performed. And the supply of audio content to. Accordingly, it is possible to easily perform the application of the vibration based on the tactile content in the content using device 500 and the output of the voice based on the audio content in the content using device 500 at the same time simply by selecting the audio content.
  • the audio content is used only for the analysis for specifying the tactile mode, and is not supplied to the content using device 500.
  • the content use device 500 has only a function of operating using vibration as a medium, a form in which the content supply device 100 is configured as a dedicated device for such a content use device 500 can be considered. In this case, the audio content supply unit 15 may be omitted.
  • the haptic content acquisition unit 11 acquires the haptic content according to the haptic mode, and the haptic mode is specified by analyzing the audio content. Even if the acquisition instruction operation of the tactile content is performed separately from the acquisition instruction operation of the tactile content, the operation of selecting the audio content is basically required. However, for example, when the default tactile mode is set and only the acquisition instruction operation of the tactile content is performed, the tactile content according to the default tactile mode may be acquired.
  • the audio content may be generated by a combination of the haptic content and the audio content.
  • the content supply device 100 generates audio content using the haptic content acquired by the haptic content acquisition unit 11 as first channel information and the audio content acquired by the audio content acquisition unit 14 as second channel information, This audio content may be supplied to the content use device 500.
  • the configuration may be such that the haptic content is supplied to the content using device 500, while the audio content is supplied to a content using device (not shown) different from the content using device 500.
  • a configuration is possible in which tactile content is supplied to a massage device, and audio content is supplied to an audio reproducing device.
  • FIG. 3 is a block diagram illustrating an example of a functional configuration of the tactile-mode specifying unit 13.
  • FIGS. 3A and 3B show two examples of the structure of the tactile-mode specifying unit 13.
  • the touch mode designation unit 13 includes a touch parameter generation unit 131, a touch feature amount calculation unit 132, and a mode designation unit 133 as functional components.
  • the tactile parameter generation unit 131 uses the waveform information of the audio content acquired by the audio content acquisition unit 14 to select two or more combinations of n (n ⁇ 2) tactile parameters each representing one element of the tactile sensation. Generate. For example, the tactile parameter generation unit 131 sets two or more combinations of the first tactile parameter relating to the intensity of the information and the second tactile parameter relating to the length of the information division section from the waveform information of the audio content. Generate.
  • the waveform information of audio content is information in which the amplitude corresponding to the intensity is continuous (in the case of an analog signal) or intermittent (in the case of digital data) along the time axis.
  • the first tactile parameter relating to the intensity of the information is the amplitude
  • the second tactile parameter relating to the length of the divided section of the information is the time of each divided section when the waveform information is divided into a plurality in the time axis direction. Is the length of Both the strength and the length of the divided section constitute one element of the tactile sensation (the strength and length of the tactile sensation).
  • the tactile parameter generation unit 131 first divides the waveform information of the audio content into a plurality of pieces in the time axis direction. Next, from each of the divided sections, the representative amplitude in the divided section is specified as the first tactile parameter, and the time length of the divided section is specified as the second tactile parameter, whereby the first tactile parameter is obtained. Two or more combinations of the tactile parameter and the second tactile parameter are generated.
  • the tactile parameter generation unit 131 generates a tactile parameter for the entire area of the waveform information of the audio content (from the beginning to the end of the audio content).
  • the tactile parameter may be generated by designating a part of the entire area of the audio content waveform information.
  • the section is specified in accordance with a predetermined rule. For example, it is conceivable to specify a predetermined time from the beginning of the audio content.
  • meta information indicating the target section may be stored for each audio content, and the section may be designated based on the meta information.
  • the tactile parameter generation unit 131 extracts the envelope of the input waveform information by performing a low-pass fill process on the waveform information, and subjects the envelope to a first segment from a plurality of divided sections.
  • the tactile parameter and the second tactile parameter may be specified.
  • FIG. 4 is a diagram for describing an example of the processing content by the tactile parameter generation unit 131.
  • FIG. 4 shows waveform information of audio content acquired by the audio content acquisition unit 14 (or envelope waveform information subjected to low-pass filter processing as preprocessing by the tactile parameter generation unit 131).
  • the tactile parameter generation unit 131 first divides the waveform information shown in FIG. 4 into a plurality of pieces in the time axis direction.
  • the waveform is divided for each time when the amplitude of the waveform is minimum. That is, the first divided section T1 from the start point of the waveform to the first minimum value, the second divided section T2 from the first minimum value to the second minimum value, and the second minimum value.
  • the waveform information is divided into a plurality of pieces in the time axis direction as in the third division section T3,.
  • the waveform information may be divided into a plurality of sections at each time when the amplitude of the waveform is maximized.
  • the waveform information may be divided into a plurality of sections at each time when the amplitude value becomes zero.
  • the waveform information may be divided into a plurality of sections at each time when the amplitude value becomes a predetermined value other than zero.
  • the tactile parameter generation unit 131 specifies the representative amplitudes h1, h2, h3,... As a first tactile parameter from each of the divided sections T1, T2, T3,.
  • the time lengths t1, t2, t3,... Of the divided sections are specified as quality parameters.
  • the representative amplitudes h1, h2, h3,... Are determined by dividing the minimum value of the start point or the minimum value of the end point in each of the divided sections T1, T2, T3,. The difference value from the local maximum value in the sections T1, T2, T3,... Is shown.
  • the difference between this minimum value and the maximum value is the representative amplitude h1.
  • the difference between the minimum value at the start point and the maximum value is the representative amplitude h2.
  • the difference between the minimum value of the end point and the maximum value is the representative amplitude h3.
  • the method of specifying the representative amplitude shown here is an example, and the present invention is not limited to this.
  • the smaller one of the minimum value of the start point or the minimum value of the end point in each of the divided sections T1, T2, T3,... And the maximum value in the divided sections T1, T2, T3,. May be specified as the representative amplitude.
  • the positive maximum value or the negative minimum value in each divided section is set to the first value. It may be specified as a representative amplitude of the tactile parameter.
  • the absolute value of the negative minimum value may be specified as the representative amplitude of the first tactile parameter.
  • the tactile feature quantity calculation unit 132 is based on two or more tactile parameters (a combination of two or more sets of a first tactile parameter and a second tactile parameter) generated by the tactile parameter generation unit 131. Then, the tactile feature amount related to the waveform information of the audio content is calculated. In the present embodiment, the four tactile operation values using the first tactile parameter and the second tactile parameter are calculated, and the length of the section where the same four tactile operation values appear is calculated as the first tactile feature value. . Also, the degree of diversity of the four arithmetic operations is calculated as a second tactile feature value.
  • the first tactile feature value P1 may be calculated using the number of sections until the same value of hi / ti appears as the section length.
  • “2”, which is the number of sections from the divided section T1 to the divided section T3 is the first tactile feature amount P1.
  • the first tactile feature quantity P1 is calculated for each section, and the average value is used as the final first tactile feature quantity. Determined as P1.
  • a maximum value, a minimum value, a median value, or the like may be determined as the first tactile feature amount P1.
  • the first tactile feature amount P1 obtained as described above represents the rhythm of the tactile sensation that the wavelength information of the audio content has potentially.
  • the second tactile feature amount P2 represents the degree of tactile sensation that the wavelength information of the audio content has potentially.
  • the wavelength information of the audio content is characterized by the two types of tactile feature amounts indicating the rhythm and the variety of the tactile sensation.
  • a value of ti / hi is calculated here, other four arithmetic values may be calculated. For example, a value of ti / hi, a value of hi ⁇ ti, a value of hi + ti, a value of hi-ti, or the like may be calculated.
  • the ⁇ mode designation unit 133 designates a tactile mode according to the content of the combination based on the combination of the plurality of types of tactile feature amounts calculated by the tactile feature amount calculation unit 132.
  • the mode specifying unit 133 maps the combination of the two types of tactile feature amounts calculated by the tactile feature amount calculating unit 132 on a predetermined coordinate space, and specifies a tactile mode according to the mapped position. I do.
  • the predetermined coordinate space can be, for example, two-dimensional coordinates in which the horizontal axis (x-axis) takes the first tactile feature amount P1 and the vertical axis (y-axis) takes the second tactile feature amount P2. It is.
  • FIG. 5 is a diagram showing an example of the specification content of the touch mode by the mode specifying unit 133.
  • the mode specifying unit 133 sets the two-dimensional coordinate space having the first tactile feature amount P1 on the horizontal axis and the second tactile feature amount P2 on the vertical axis as four axes. Divide into four quadrants. Then, different tactile modes are assigned to each of the four quadrants.
  • the first quadrant is an area where the first tactile feature quantity P1 is larger than the first threshold Th1 and the second tactile feature quantity P2 is larger than the second threshold Th2.
  • the first tactile mode in the first quadrant is a tactile mode having a property that a tactile rhythm relating to a tactile sensation is slow and a variety of tactile sensations is large.
  • the second quadrant is an area where the first tactile feature value P1 is equal to or less than the first threshold value Th1 and the second tactile feature value P2 is larger than the second threshold value Th2.
  • the second tactile mode in the second quadrant is a tactile mode in which the rhythm of the tactile sensation relating to the tactile sensation is fast and the variety of tactile sensations is large.
  • the third quadrant is an area where the first tactile feature quantity P1 is equal to or less than the first threshold Th1 and the second tactile feature quantity P2 is equal to or less than the second threshold Th2.
  • the third tactile mode in the third quadrant is a tactile mode having such characteristics that the tactile sensation relating to the tactile sensation is fast and the variety of tactile sensations is small.
  • the fourth quadrant is an area where the first tactile feature P1 is larger than the first threshold Th1 and the second tactile feature P2 is equal to or smaller than the second threshold Th2.
  • the fourth tactile mode in the fourth quadrant is a tactile mode having a property that the tactile rhythm relating to the tactile sensation is slow and the variety of tactile sensations is small.
  • the mode designating unit 133 is calculated by the tactile feature amount calculating unit 132 in the two-dimensional coordinate space in which the first to fourth tactile modes are assigned to the four quadrants divided as described above. It is determined to which quadrant the xy coordinates specified by the combination of the tactile feature amounts (P1, P2) belong. Then, the tactile mode assigned to the quadrant determined to belong is specified.
  • the value of the first threshold Th1 for the first tactile feature P1 and the value of the second threshold Th2 for the second tactile feature P2 can be arbitrarily determined.
  • the two-dimensional coordinate space represented by the two types of tactile feature amounts P1 and P2 is divided into four quadrants and four tactile modes are assigned. Not limited. For example, as shown in FIG. 5B, an area belonging to the third quadrant is set to the first tactile mode, and other areas (areas combining the first quadrant, the second quadrant, and the fourth quadrant) are set to the first touch mode.
  • the second touch mode may be used.
  • first tactile feature value P1 is calculated by the tactile feature value calculating unit 132, and the first tactile mode and the second tactile mode are set with the first threshold Th1 as a boundary as shown in FIG. A quality mode may be assigned.
  • second tactile feature value P2 is calculated by the tactile feature value calculation unit 132, and the first tactile mode and the second tactile mode are set with the second threshold Th2 as a boundary as shown in FIG. A tactile mode may be assigned.
  • the tactile mode specifying unit 13 includes, as its functional components, a tactile parameter generation unit 131, a tactile difference parameter generation unit 134, a tactile feature amount calculation unit 132 ′, and a mode specification unit. 133 is provided.
  • FIG. 3B components denoted by the same reference numerals as those shown in FIG. 3A have the same functions, and thus redundant description will be omitted.
  • the tactile difference parameter generation unit 134 calculates the difference values of the tactile parameters between the two sets with respect to the two or more sets of tactile parameters generated by the tactile parameter generation unit 131, and thereby sets the n tactile parameters. Two or more combinations of quality difference parameters are generated.
  • two or more sets of tactile parameters generated by the tactile parameter generation unit 131 are three sets of ⁇ h1, t1 ⁇ , ⁇ h2, t2 ⁇ , ⁇ h3, t3 ⁇ .
  • h1, h2, and h3 are first tactile parameters
  • t1, t2, and t3 are second tactile parameters.
  • the tactile difference parameter generation unit 134 calculates a tactile parameter difference value between the two pairs of ⁇ h1, t1 ⁇ and ⁇ h2, t2 ⁇ , and also calculates ⁇ h2, t2 ⁇ , ⁇ h3, t3 ⁇ .
  • the tactile difference parameter generation unit 134 calculates a tactile parameter difference value between the two pairs of ⁇ h1, t1 ⁇ and ⁇ h2, t2 ⁇ , and also calculates ⁇ h2, t2 ⁇ , ⁇ h3, t3 ⁇ .
  • the tactile feature amount calculation unit 132 ′ calculates a tactile feature amount regarding the waveform information of the audio content based on the two or more sets of tactile difference parameters generated by the tactile difference parameter generation unit 134.
  • the tactile feature value to be calculated is the same as that calculated by the tactile feature value calculation unit 132 described with reference to FIG.
  • correspondence information for example, table information
  • the tactile mode designation unit 13 designates the tactile mode by referring to the correspondence information. You may make it.
  • the tactile-mode specifying unit 13 analyzes the audio content stored in the audio content storage unit 142 and the stored audio content (see FIG. 3).
  • the correspondence information indicating the correspondence with the tactile mode specified based on the tactile feature amount obtained by the described analysis) is created and stored in advance. Then, when the audio content is acquired by the audio content acquisition unit 14, the tactile mode designation unit 13 acquires and designates the tactile mode corresponding to the acquired audio content from the correspondence information.
  • the generation of the correspondence information based on the analysis of the tactile mode corresponding to the audio content stored in the audio content storage unit 142 may be executed, for example, at a timing instructed by the user. Further, in the case of the configuration shown in FIG. 2B, the audio content may be periodically performed at predetermined intervals, or may be newly added each time the audio content received from the external device 700 is stored in the audio content storage unit 142. It may be executed for the stored audio content.
  • the tactile content corresponding to the tactile mode is stored in advance, and when the tactile mode is designated by the tactile mode designating unit 13, the tactile content corresponding to the designated tactile mode is stored. Is read.
  • the tactile mode is designated by the tactile mode designation unit 13
  • the tactile content corresponding to the designated tactile mode is generated. It is.
  • FIG. 6 is a block diagram illustrating a functional configuration example of the haptic content acquisition unit 11 according to the first configuration example.
  • the haptic content acquisition unit 11 according to the first configuration example includes a haptic content reading unit 1111 (or 1111 ′) and a haptic content storage unit 1112 (or 1112 ′).
  • FIGS. 6 (a) to 6 (c) show modes in which haptic contents are stored in advance in the haptic content storage unit 1112, similarly to FIGS. 2A to 2C, which show three modes for storing audio contents.
  • 6 (a)) a mode in which haptic content can be downloaded from the external device 700 and stored in the haptic content storage unit 1112 (FIG. 6 (b)), and haptic content is received from the external device 700 in a streaming manner.
  • the haptic content storage unit 1112 stores a plurality of haptic contents respectively corresponding to a plurality of tactile modes.
  • the haptic content storage unit 1112 is a non-volatile storage medium such as a hard disk and a semiconductor memory, and can keep storing audio contents unless the user explicitly gives an instruction to delete.
  • the tactile content corresponding to the tactile mode is, for example, vibration information having the property of the tactile feature corresponding to each tactile mode assigned as shown in FIG.
  • the haptic content corresponding to the first tactile mode in the first quadrant in FIG. 5A is vibration information having a property that the rhythm of vibration is slow and the variety of vibration is large.
  • the haptic content corresponding to the second tactile mode in the second quadrant is vibration information having a property that the rhythm of vibration is fast and the variety of vibration is large.
  • the haptic content corresponding to the third tactile mode in the third quadrant is vibration information having a property that the rhythm of vibration is fast and the variety of vibration is small.
  • the haptic content corresponding to the fourth tactile mode in the fourth quadrant is vibration information having a property that the rhythm of the vibration is slow and the diversity of the vibration is small.
  • Each of the tactile contents corresponding to the first to fourth tactile modes has a unique tactile sense specified by n (n ⁇ 2) tactile parameters or tactile difference parameters each representing one element of the tactile sensation.
  • Tactile content with an effect That is, when the tactile feature amount is calculated as shown in FIG. 3A, the tactile content includes a tactile content having a unique tactile effect specified by the first tactile parameter and the second tactile parameter. I do. On the other hand, when the tactile feature amount is calculated as shown in FIG. 3B, the tactile content has a tactile effect having a unique tactile effect specified by the first tactile difference parameter and the second tactile difference parameter. Content.
  • Such haptic contents are generated in advance for each tactile mode, and a plurality of haptic contents generated in advance for each tactile mode are stored in the haptic content storage unit 1112 in advance.
  • the method of generating the tactile content according to the tactile mode will be described in detail with reference to FIG.
  • the haptic content acquisition unit 11 acquires the haptic content according to the haptic mode specified by the haptic mode specification unit 13 by reading the haptic content reading unit 1111 from the haptic content storage unit 1112.
  • FIG. 6B has a function in which the content supply device 100 receives a plurality of haptic contents generated in advance for each haptic mode from the external device 700 via the communication network 600 and stores the haptic contents in the haptic content storage unit 1112.
  • the form is shown. That is, in the example of FIG. 6B, the content supply device 100 further includes the tactile content recording unit 17.
  • the haptic content recording unit 17 receives haptic content from the external device 700 via the communication network 600 and stores the haptic content in the haptic content storage unit 1112.
  • the user selects a desired haptic content, downloads the haptic content to the content supply device 100, and stores the haptic content in the haptic content storage unit 1112. It is possible to do.
  • Selection of a desired tactile content by the user is performed by, for example, the user using an operation unit provided in the content supply device 100 or the content use device 500, or a predetermined graphical user interface provided on the display by the content supply device 100 or the content use device 500. It can be done by manipulating.
  • the haptic content acquisition unit 11 When the haptic content acquisition unit 11 is configured as shown in FIG. 6B and a plurality of haptic contents are downloaded from the external device 700 and stored in the haptic content storage unit 1112, a plurality of types of haptic contents are set for one tactile mode. May be stored in the haptic content storage unit 1112. In this case, it is possible to apply an arbitrarily set rule on which haptic content is to be read according to the tactile mode specified by the tactile mode specifying unit 13.
  • the haptic content reading unit 1111 can read any haptic content in response to a user's instruction on selection of haptic content.
  • the tactile feature amount is stored as additional information in the tactile content stored in the tactile content storage unit 1112, and the tactile content readout unit 1111 is closest to the tactile feature amount calculated by the tactile mode designation unit 13.
  • the tactile content having the tactile feature amount may be selectively read.
  • FIG. 6C includes a haptic content reading unit 1111 ′ and a haptic content storing unit 1112 ′ instead of the haptic content reading unit 1111 and the haptic content storage unit 1112, and the haptic content received from the external device 700 is used by the content use device 500. Is shown in the form of a stream.
  • the haptic content storage unit 1112 ′ may be a storage medium that temporarily stores the haptic content received from the external device 700 by the haptic content recording unit 17.
  • the haptic content reading unit 1111 notifies the haptic content recording unit 17 of the haptic mode specified by the haptic mode specifying unit 13, and the haptic content recording unit 17 notifies the external device 700 of the haptic content mode.
  • the haptic content reading unit 1111 ' reads the haptic content transmitted from the external device 700 as a response to the notification and temporarily stored in the haptic content storage unit 1112', and supplies the haptic content supplying unit 12.
  • the haptic content reading unit 1111 'and the haptic content supplying unit 12 supply the haptic content received by the haptic content recording unit 17 and temporarily stored in the haptic content storage unit 1112' to the content use device 500. Is performed in series with the recording process of the haptic content in the haptic content storage unit 1112 ′.
  • the tactile content according to the tactile mode designated by the tactile mode designating unit 13 when a plurality of types of tactile contents according to the tactile mode are stored in the external device 700, the tactile content according to the tactile mode designated by the tactile mode designating unit 13.
  • Arbitrarily set rules can be applied to which haptic content is read.
  • the haptic content reading unit 1111 notifies the external device 700 of the tactile mode specified by the tactile mode specifying unit 13, and in response to this, the external device 700 transmits a plurality of tactile modes corresponding to the specified tactile mode.
  • a selection screen for presenting and selecting the haptic content is generated and displayed on the display of the content supply device 100.
  • the haptic content recording unit 17 receives the selected haptic content from the external device 700 and temporarily stores the haptic content in the haptic content storage unit 1112 'in response to the user's operation of selecting the haptic content on the selection screen. May be read by the haptic content reading unit 1111 ′ and supplied to the haptic content supplying unit 12.
  • the tactile feature amount is stored as accompanying information in the tactile content stored in the external device 700, and the tactile content readout unit 1111 'stores the tactile feature amount calculated by the tactile mode designating unit 13 in the external device 700.
  • the external device 700 selectively reads out the haptic content having the tactile feature amount closest to the notified tactile feature amount and transmits the haptic content to the content supply device 100, and the haptic content recording unit 17 receives the haptic content. Then, it may be stored in the tactile content storage unit 1112 '.
  • the haptic content reading unit 1111 selects the haptic content having the haptic feature amount closest to the haptic feature amount calculated by the haptic mode designating unit 13 from the haptic content storage unit 1112.
  • the tactile mode is not present in each area obtained by dividing the two-dimensional coordinate space of the tactile feature amount as shown in FIG. It can be said that a tactile mode exists for each tactile feature amount calculated by the tactile mode designating unit 13.
  • the tactile mode designation unit 13 corresponds to designating the tactile mode based on the calculated tactile feature amount itself.
  • the storage of the haptic content in the haptic content storage units 1112 and 1122 ′ can be in the three forms shown in FIGS. 6A to 6C. The same applies to the configuration example and the second to fourth embodiments.
  • the audio content is stored in advance in the audio content storage unit 142
  • the audio content downloaded from the external device 700 is stored in the audio content storage unit 142
  • the three modes have been described in which the audio content is received in a streaming manner from the external device 700 and temporarily stored in the audio content storage unit 142 ′.
  • the haptic content is stored in advance in the haptic content storage unit 1112
  • the haptic content downloaded from the external device 700 is stored in the haptic content storage unit 1112. 3 and a form in which the haptic content is received in a streaming manner from the external device 700 and temporarily stored in the haptic content storage unit 1112 ′.
  • Any one of the three modes relating to the audio content and any one of the three modes relating to the haptic content can be arbitrarily combined and applied.
  • the audio content stored in the audio content storage unit 142 is read and supplied to the content use device 500, and the audio content is analyzed and designated as shown in FIG. It is also possible to receive the haptic content corresponding to the tactile mode set from the external device 700 and supply the haptic content to the content using device 500 in a streaming manner.
  • the audio content selected by the user is received from the external device 700 and supplied to the content use device 500 in a streaming manner, and as shown in FIG. It is also possible to analyze the audio content received from the external device 700 from among the tactile contents stored in the 1112 and read out the tactile content corresponding to the designated tactile mode, and supply the read tactile content to the content use device 500. It is possible.
  • the audio content selected by the user is received from the external device 700 and supplied to the content use device 500 in a streaming manner, and the audio content is analyzed and designated as shown in FIG. It is also possible to receive the haptic content corresponding to the tactile mode from the external device 700 and supply the haptic content to the content use device 500 in a streaming manner. In this case, even if neither the audio content nor the tactile content is stored in the content supply device 100, the audio content desired by the user and the tactile content corresponding to the tactile mode analyzed from the audio content are stored. The content can be obtained from the external device 700 and supplied to the content use device 500.
  • FIG. 7 shows, as an example of the simplest combination, the content supply device 100 in the case where the acquisition of audio content is configured as shown in FIG. 2A and the acquisition of tactile content is configured as shown in FIG. 9 is a flowchart illustrating an operation example. Note that the flowchart illustrated in FIG. 7 starts when the content supply device 100 is activated.
  • the audio content reading unit 141 of the audio content acquisition unit 14 determines whether or not a user operation for selecting any one or more of the one or more audio contents stored in the audio content storage unit 142 has been performed (Ste S1). If the user operation has not been performed, the determination in step S1 is repeated.
  • the audio content reading unit 141 obtains the audio content by reading the audio content selected by the user operation from the audio content storage unit 142 (Step S2). .
  • the tactile mode designation unit 13 analyzes the audio content read from the audio content storage unit 142 by the audio content reading unit 141, and designates a tactile mode according to the analysis result (step S3).
  • the haptic content acquisition unit 11 acquires the haptic content according to the haptic mode specified by the haptic mode specifying unit 13 by reading the haptic content reading unit 1111 from the haptic content storage unit 1112 (step S4).
  • the audio content supply unit 15 supplies the audio content acquired by the audio content acquisition unit 14 to the content using device 500 (step S5), and the haptic content supply unit 12 is acquired by the haptic content acquisition unit 11.
  • the tactile content is supplied to the content use device 500 (step S6).
  • the audio content reading unit 141 determines whether or not the supply of the audio content to the content using device 500 has been completed (Step S7).
  • the supply of the audio content is terminated when the audio content read in step S2 is supplied to the content use device 500 to the end, or the user stops the supply of the audio content at a stage before the audio content is supplied to the end. Either of the cases where an instruction has been given.
  • step S5 If the supply of the audio content has not been completed, the process returns to step S5, and the supply of the audio content and the tactile content to the content using device 500 is continued. On the other hand, when the supply of the audio content ends, the processing of the flowchart illustrated in FIG. 7 ends.
  • FIG. 8 is a block diagram illustrating a functional configuration example of the haptic content acquisition unit 11 according to the second configuration example.
  • the haptic content acquisition unit 11 according to the second configuration example includes a haptic content reading unit 1121 (or 1121 ′), a haptic content storage unit 1122 (or 1122 ′), and a vibration waveform processing unit 1123. I have.
  • the haptic content acquisition unit 11 reads out the haptic content stored in the haptic content storage units 1112 and 1112 ′, and thereby reads the haptic content according to the tactile mode. The acquisition was done.
  • the haptic content acquisition unit 11 uses the vibration information based on the reference haptic content read from the haptic content storage units 1122 and 1122 ′. To generate a haptic content according to the tactile mode.
  • FIG. 8A shows a form in which the haptic content is stored in advance in the haptic content storage unit 1122
  • FIG. 8B shows the haptic content downloaded from the external device 700 in the haptic content storage unit
  • FIG. 8C shows three forms in which the haptic content is received in a streaming manner from the external device 700 and temporarily stored in the haptic content storage unit 1122 ′.
  • the haptic content storage units 1122 and 1122 ’ are non-volatile storage media such as a hard disk and a semiconductor memory, and store reference haptic content.
  • the haptic content stored in the haptic content storage units 1122 and 1122 ′ is not generated in accordance with the tactile mode, but is generated based on predetermined vibration information serving as a reference for generating the haptic content corresponding to the tactile mode. Haptic content.
  • the haptic content reading units 1121 and 1121 ′ are used when the user performs an operation for selecting audio content or when an operation for instructing acquisition of haptic content is performed by the user. 'Read haptic content from That is, the haptic content reading unit 1121 reads the haptic content stored in the haptic content storage unit 1122 in advance. In addition, the haptic content reading unit 1121 'reads the haptic content received from the external device 700 and temporarily stored in the haptic content storage unit 1122'.
  • the vibration waveform processing unit 1123 is weight information for the vibration information of the haptic content read by the haptic content reading units 1121 and 1121 ′, and is weight information according to the tactile mode specified by the tactile mode specification unit 13. Is generated, and the vibration information of the haptic content is processed based on the generated weight information, thereby generating the haptic content corresponding to the designated tactile mode. Then, the generated haptic content is supplied to the haptic content supply unit 12.
  • FIG. 9 is an image diagram schematically showing the processing contents of the vibration waveform processing unit 1123.
  • FIG. 9 shows an example in which one of the first to fourth tactile modes is designated based on a combination of the two tactile feature amounts P1 and P2, as in the example of FIG. ing.
  • the combination of tactile feature amounts corresponding to the reference tactile content stored in the tactile content storage units 1122 and 1122 ′ is indicated by diamond marks.
  • what is indicated by four arrows is the direction of weighting according to the tactile mode. Note that the direction of the arrow does not indicate the exact direction of the weighting, but schematically illustrates the direction to each quadrant as an image.
  • the value of the first tactile feature value P1 is the same as the first threshold value Th1
  • the value of the second tactile feature value P2 is the same as the second threshold value Th2.
  • the vibration information of the reference tactile content that does not correspond to any of the first to fourth tactile modes is processed by generating weight information having different directions according to the tactile mode and performing processing. 4 schematically illustrates generation of a haptic content having vibration information according to a haptic mode.
  • the haptic content is generated based on the haptic content corresponding to any of the haptic modes in accordance with the tactile mode.
  • the vibration information may be processed by the weight information. For example, when the tactile content corresponding to the first tactile mode is stored in the tactile content storage units 1122 and 1122 ′ based on the tactile content, and the tactile mode specified by the tactile mode designating unit 13 is the first tactile mode Does not perform weighting, and weights such that when the specified tactile mode is the second to fourth tactile modes, the first tactile mode is changed to any of the second to fourth tactile modes. May be performed.
  • FIG. 10 is a block diagram illustrating an example of a functional configuration of the vibration waveform processing unit 1123.
  • the vibration waveform processing unit 1123 includes a feature extraction unit 1123A, a weight information generation unit 1123B, and a weight processing unit 1123C as its functional configuration.
  • the feature extracting unit 1123 ⁇ / b> A extracts a plurality of feature locations that can be distinguished from other locations in the audio content waveform information acquired by the audio content acquiring unit 14. For example, the feature extracting unit 1123A extracts, in the waveform information of the audio content, a portion where the amplitude value increases by a predetermined value or more during a predetermined time as a characteristic portion.
  • the weight information generation unit 1123B generates, based on the plurality of feature locations extracted by the feature extraction unit 1123A, weight information whose value changes with time in a time section between the feature locations. For example, based on a plurality of feature points extracted by the feature extraction unit 1123A, the weight information generation unit 1123B may change values over time from the time at which one feature point is extracted to the time at which the next feature point is extracted. Generate weight information that gradually decreases.
  • FIG. 11 is a diagram for explaining the processing contents of the feature extraction unit 1123A and the weight information generation unit 1123B.
  • FIG. 11A illustrates a part of the waveform information of the audio content acquired by the audio content acquisition unit 14.
  • FIG. 11B schematically illustrates the weight information generated by the weight information generation unit 1123B for the haptic content waveform information read from the haptic content storage units 1122 and 1122 ′ by the haptic content reading units 1121 and 1121 ′.
  • the feature extracting unit 1123A identifies a portion where the amplitude value increases by a predetermined value or more during a predetermined time (for example, 0.1 second) into a plurality of characteristic portions F 1 , Extract as F 2 , F 3 ,. That is, the feature extracting unit 1123A extracts places where the amplitude value of the waveform information of the audio content sharply increases as feature places F 1 , F 2 , F 3 ,.
  • the weight information is information in which the weight value (all positive values) ranges from the minimum value to the maximum value, and is schematically shown as a sawtooth wave in FIG.
  • the weight value becomes maximum at the time when one feature point F i is extracted, and the value gradually decreases linearly or stepwise with time from the time when one feature point F i is extracted.
  • Weight information is generated such that the weight value becomes maximum again at the time when i + 1 is extracted.
  • the weight information generation unit 1123B determines that the weight value becomes maximum at the time when one feature point F i is extracted, and the weight value becomes exactly the minimum value at the time when the next feature point F i + 1 is extracted. Such weight information is generated.
  • FIG. 11B shows an example in which the weight value gradually decreases linearly at a constant rate, but the next feature point F i + 1 is extracted from the time when one feature point F i is extracted.
  • the weight information may be generated such that the value gradually decreases in a curve according to a predetermined quadratic function or logarithmic function until the time.
  • the rate at which the weight value gradually decreases may be set to be the same in all the sections.
  • the weight value reaches a minimum value before reaching the next feature point F i + 1.
  • the weight information generation unit 1123B generates the weight information such that the weight value is fixed to the minimum value until the next feature point F i + 1 .
  • the maximum value and the minimum value of the weight value may not be fixed, and may be a fluctuation value that fluctuates according to a predetermined condition.
  • the maximum value of the weight value may be made variable according to the magnitude of the amplitude value at the characteristic portion.
  • the weight information generation unit 1123B sets the weight value to be larger as the amplitude value at one feature point F i is larger, and outputs weight information such that the value is gradually reduced from there to the next feature point F i + 1. Generate. In this way, among a plurality of feature points F i the amplitude value becomes larger than a predetermined value for a predetermined time, a large weight value the larger the amplitude value of that feature point F i is to be set.
  • the weight processing unit 1123C processes the vibration information of the haptic content read from the haptic content storage units 1122 and 1122 'by the haptic content reading units 1121 and 1121' using the weight information generated by the weight information generation unit 1123B. For example, the weight processing unit 1123C processes the vibration information of the haptic content by multiplying the amplitude value of the waveform information of the haptic content by the weight value of the weight information.
  • the weight processing unit 1123C compares the amplitude value of the waveform information of the haptic content at each time shown in FIG. 11B with the amplitude value at each time also schematically shown as a sawtooth wave in FIG. 11B. Multiply weight values.
  • the waveform information of the haptic content and the weight information are superimposed to indicate the correspondence between the amplitude value of the waveform information at each time and the weight value to be multiplied with the amplitude information. That's why.
  • FIG. 12 is a diagram showing the waveform information of the haptic content processed by the vibration waveform processing unit 1123 together with the waveform information of the audio content.
  • FIG. 12A shows waveform information of audio content acquired by the audio content acquisition unit 14, and
  • FIG. 12B shows waveform information of haptic content processed by the vibration waveform processing unit 1123.
  • the waveform information of the audio content shown in FIG. 12A is the same as the waveform information of the audio content shown in FIG.
  • the waveform information of the audio content to be extracted is the same as the waveform information of the audio content shown in FIG. 12A (the waveform information of the audio content supplied to the content use device 500).
  • the audio content waveform information shown in FIG. 11A and the audio content waveform information shown in FIG. May be the same, but need not necessarily be the same.
  • the audio content from which the characteristic portion is to be extracted may be a left channel audio signal
  • the audio content supplied to the content use device 500 may be a right channel audio signal.
  • the reverse is also possible.
  • the audio signal of any one of the left and right channels may be analyzed to extract a characteristic portion, and the audio signals of both channels may be supplied to the content use device 500.
  • the feature extracting unit 1123A may extract, as the feature location, a location where the amplitude value is equal to or greater than a predetermined value in the audio content waveform information.
  • the waveform information of the audio content may be frequency-analyzed for each time, and a portion where the included frequency component changes abruptly may be extracted as a characteristic portion.
  • the same analysis as in FIG. 4 is performed on the waveform information of the audio content, and a portion where the four arithmetic operations of the first tactile parameter and the second tactile parameter rapidly change is extracted as a characteristic portion. Is also good.
  • the weight information generation unit 1123B generates the weight information such that the value gradually decreases from the time at which one feature location F i is extracted to the time at which the next feature location F i + 1 is extracted.
  • the present invention is not limited to this.
  • the feature extraction unit 1123A is, so as to extract a feature point suddenly decreases places the amplitude value during a predetermined time in the waveform information of the audio content
  • weight information generation unit 1123B is, in the one feature point F i Weight information may be generated such that the value gradually increases from the extracted time to the time when the next feature location F i + 1 is extracted.
  • the haptic content generated as described above has a waveform amplitude based on weight information whose weight value fluctuates in a manner synchronized with a characteristic portion in waveform information of audio content used in combination with the haptic content in the content using device 500.
  • the value has been processed. Therefore, by supplying the haptic content to the content use device 500 together with the audio content, the audio reproduced based on the audio content is provided to the user, and at the same time, the vibration of the haptic content synchronized with the characteristics of the audio is provided to the user. Can be provided.
  • the vibration waveform processing unit 1123 further generates weight information by performing processing according to the tactile mode specified by the tactile mode specifying unit 13. Specifically, according to the tactile mode specified by the tactile mode specifying unit 13, the vibration waveform processing unit 1123 extracts the content of the characteristic portion by the characteristic extracting unit 1123 A and the weight information by the weight information generating unit 1123 B. Change at least one of the generated contents of.
  • the extraction method may be changed so as to extract a portion where the amplitude value is equal to or larger than a predetermined value in the waveform information of the audio content as a characteristic portion, or the value of the predetermined value in this extraction method may be changed.
  • the position By changing the position, the position and number of the extracted characteristic portions may be changed.
  • the waveform information of audio content is subjected to frequency analysis for each time, and a portion where the included frequency component changes abruptly is extracted as a characteristic portion.
  • An analysis similar to that of FIG. 4 may be performed on the waveform information of the content, and the method may be changed to a method of extracting a portion where the four arithmetic operation values of the first tactile parameter and the second tactile parameter suddenly change as a characteristic portion. .
  • the weight information generated by the weight information generating unit 1123B changes based on the changed characteristic location by changing the position or the number of the characteristic location extracted by the feature extracting unit 1123A.
  • the waveform information of the haptic content processed by the weight processing unit 1123C using the weight information changes.
  • the tactile sensation of the vibration applied based on the tactile content can be changed according to the tactile mode.
  • the maximum value or the minimum value of the weight value may be changed according to the tactile mode.
  • the manner of changing the weight value from the time when one characteristic portion is extracted to the time when the next characteristic portion is extracted may be changed according to the tactile mode. That is, as a method of gradually changing the weight value from the maximum value to the minimum value of the weight value, any one of a linear shape, a staircase shape, a quadratic function, a logarithmic function, and the like is adopted according to the tactile mode. In this case, the rate at which the weight value gradually decreases may be changed according to the tactile mode.
  • the generated weight information changes.
  • the waveform information of the haptic content processed by the weight processing unit 1123C using the weight information changes.
  • the tactile sensation of the vibration applied based on the tactile content can be changed according to the tactile mode.
  • the haptic content according to the tactile mode can be generated by changing only one of the content extracted by the feature extracting unit 1123A and the content generated by the weight information generating unit 1123B. is there. However, by appropriately changing both the extracted content of the characteristic portion and the generated content of the weight information, it becomes possible to generate a haptic content that more appropriately expresses the haptic sensation to be embodied, and further increases the haptic content. Haptic content corresponding to the quality mode can be generated.
  • FIG. 13 is a flowchart illustrating an operation example of the content supply device 100 according to the second configuration example. Note that the flowchart illustrated in FIG. 13 illustrates an example of the operation of the content supply device 100 when the acquisition of audio content is configured as illustrated in FIG. 2A and the acquisition of tactile content is configured as illustrated in FIG. It is a flowchart shown. The flowchart shown in FIG. 13 starts when the content supply device 100 is activated.
  • the audio content reading unit 141 of the audio content acquisition unit 14 determines whether or not a user operation for selecting any one or more of the one or more audio contents stored in the audio content storage unit 142 has been performed ( Step S11). If the user operation has not been performed, the determination in step S11 is repeated.
  • the audio content reading unit 141 obtains the audio content by reading the audio content selected by the user operation from the audio content storage unit 142 (Step S12). .
  • the tactile mode designation unit 13 analyzes the audio content read from the audio content storage unit 142 by the audio content reading unit 141, and designates a tactile mode according to the analysis result (step S13).
  • the haptic content reading unit 1121 of the haptic content acquiring unit 11 reads the reference haptic content from the haptic content storage unit 1122 (Step S14).
  • the vibration waveform processing unit 1123 outputs weight information corresponding to the tactile mode specified by the tactile mode specifying unit 13 as weight information for the vibration information of the haptic content read by the haptic content reading unit 1121.
  • the tactile content according to the designated tactile mode is generated by processing the vibration information of the tactile content according to the generated weight information (step S15) (step S16).
  • the audio content supply unit 15 supplies the audio content acquired by the audio content acquisition unit 14 to the content use device 500 (step S17), and the haptic content supply unit 12 is processed by the vibration waveform processing unit 1123.
  • the tactile content is supplied to the content using device 500 (step S18).
  • the audio content reading unit 141 determines whether or not the supply of the audio content to the content using device 500 has been completed (step S19). If the supply of the audio content has not been completed, the process returns to step S16, and the supply of the audio content and the haptic content processed based on the weight information to the content using device 500 is continued. On the other hand, when the supply of the audio content ends, the processing of the flowchart illustrated in FIG. 13 ends.
  • the haptic content storage units 1122 and 1122 ′ are not a haptic content generated in accordance with the tactile mode, but a predetermined vibration serving as a reference for generating the haptic content in accordance with the tactile mode.
  • the example in which the reference haptic content including information is stored has been described.
  • the haptic content storage units 1122 and 1122 ′ store a plurality of haptic contents respectively corresponding to a plurality of tactile modes, and the haptic content reading units 1121 and 1121 ′
  • the tactile content according to the tactile mode specified by the tactile mode specifying unit 13 may be read from the tactile content storage units 1122 and 1122 ′.
  • FIG. 14A to 14C are block diagrams illustrating a functional configuration example of the haptic content acquisition unit 11 according to the third configuration example.
  • the haptic content acquisition unit 11 according to the third configuration example stores haptic content generated in advance in the haptic content storage units 1112 and 1112 ′ of FIG. 6 and the haptic content storage units 1122 and 1122 ′ of FIG. Instead, the haptic content is generated in real time according to the specification of the haptic mode.
  • the haptic content acquisition unit 11 includes a tactile content readout unit 1131, a tactile content storage unit 1132, a target information acquisition unit 1133, and a tactile parameter generation unit 1134.
  • a form (a form corresponding to FIG. 6B) in which tactile content (described later) downloaded from the external device 700 can be stored in the tactile content storage unit 1132 is shown.
  • the tactile content is stored in advance in the content storage unit 1132 (corresponding to FIG. 6A), or the tactile content is received from the external device 700 in a streaming manner (corresponding to FIG. 6C). ) Is also applicable.
  • the haptic content acquisition unit 11 includes a target information acquisition unit 1133, a tactile parameter generation unit 1134, a tactile content reading unit 1141, a tactile content storage unit 1142, and a vibration waveform processing unit 1123.
  • a target information acquisition unit 1133 includes a target information acquisition unit 1133, a tactile parameter generation unit 1134, a tactile content reading unit 1141, a tactile content storage unit 1142, and a vibration waveform processing unit 1123.
  • FIG. 14B components having the same functions as those shown in FIGS. 14A and 8B are denoted by the same reference numerals.
  • the tactile content storage unit 1142 In the embodiment, the tactile content is stored in advance (the form corresponding to FIG. 8A), or the tactile content is received in a streaming manner from the external device 700 (the form corresponding to FIG. 8C). Is also applicable.
  • FIG. 14C shows a modification of the configuration shown in FIGS. 14A and 14B.
  • FIG. 14C also shows only a configuration (a configuration corresponding to FIG. 8B) in which the tactile content downloaded from the external device 700 can be stored in the tactile content storage unit 1142.
  • the tactile content is stored in the storage unit 1142 in advance (corresponding to FIG. 8A), or the tactile content is streamed from the external device 700 (corresponding to FIG. 8C). Form) is also applicable.
  • FIG. 14A will be described, and points different from FIG. 14A will be described with reference to FIGS. 14B and 14C.
  • the tactile content storage unit 1132 is a tactile content having a unique tactile effect specified by n (n ⁇ 2) tactile parameters, each of which represents one element of the tactile sensation.
  • a plurality of tactile contents respectively corresponding to the modes are stored in association with combinations of n tactile parameters and tactile modes.
  • the first tactile parameter relating to the intensity of the information described in FIG. 4 and the second tactile parameter relating to the length of the divided section of the information are used as the two tactile parameters.
  • the tactile content storage unit 1132 has a unique tactile effect specified by the first tactile parameter relating to the intensity of the information and the second tactile parameter relating to the length of the divided section of the information.
  • the stored tactile content is stored in association with a combination of the first tactile parameter and the second tactile parameter.
  • the tactile parameter used here can be said to be a parameter indicating the degree of opposing tactile properties (hereinafter referred to as a tactile pair) such as ⁇ hard-soft> or ⁇ coarse-smooth>.
  • the intensity of information is a tactile parameter relating to a ⁇ hard-soft> tactile pair.
  • a larger value indicating strength indicates a harder value
  • a smaller value indicating strength indicates a softer value
  • the length of the information division section can be used as the tactile parameter relating to the tactile pair ⁇ rough-smooth>.
  • a larger value representing the length indicates smoother
  • a smaller value representing the length indicates coarser.
  • FIG. 15 is a diagram schematically illustrating a storage example of the tactile content stored in the tactile content storage unit 1132.
  • FIG. 15 shows a matrix-like tactile pair in which “vertical axis” represents “strength” as a first tactile parameter, and “horizontal axis” represents “length of a divided section” as a second tactile parameter. Shows space.
  • ⁇ hard-soft> is used as a tactile pair represented by a first tactile parameter (strength)
  • a tactile represented by a second tactile parameter length of a divided section
  • the pair using ⁇ rough-smooth> is shown.
  • 25 matrix spaces are formed by dividing the maximum to minimum values of the intensity into five levels and dividing the maximum to minimum values of the length of the divided section into five levels. I have. Index numbers 1 to 25 are assigned to the 25 matrix spaces, respectively.
  • the tactile content storage unit 1132 stores the tactile content according to the combination of the intensity and the length of the divided section in each of the 25 matrix spaces.
  • vibration information having the maximum strength and the minimum length of the divided section that is, vibration information of the tactile content capable of transmitting the image of the hardest and coarsest is stored.
  • vibration information having the smallest intensity and the largest length of the divided section that is, vibration information of the tactile content that can transmit the image of being the softest but the smoothest is stored. Is done.
  • ⁇ hard-soft> and ⁇ rough-smooth> are used as the two tactile pairs, but the present invention is not limited to this.
  • ⁇ large-small>, ⁇ sharp-dull>, ⁇ heavy-light>, ⁇ rough-slippery>, ⁇ fluctuation-stable>, ⁇ disappearing-remaining> A pair such as> may be used.
  • the tactile content storage unit 1132 stores the matrix correspondence information as shown in FIG. 15 according to a plurality of tactile modes. For example, when there are four tactile modes as shown in FIG. 5A, four pieces of correspondence information corresponding to the four tactile modes are stored. Thereby, even if the value of the first tactile parameter related to the intensity of the information and the value of the second tactile parameter related to the length of the divided section of the information are all the same, the tactile mode designation unit 13 specifies the value. The vibration information of the tactile content changes according to the tactile mode.
  • a plurality of pieces of correspondence information having different contents according to the tactile mode include a tactile pair ⁇ hard-soft> represented by a first tactile parameter and a tactile pair represented by a second tactile parameter.
  • the combination of ⁇ coarse-smooth> may be the same, and the content of the vibration information stored in association with each index number may be different.
  • the plurality of pieces of correspondence information having different contents depending on the tactile mode are a combination of a tactile pair represented by a first tactile parameter and a tactile pair represented by a second tactile parameter. It is also possible to change according to the quality mode.
  • FIG. 14A shows a mode in which the tactile content downloaded from the external device 700 can be stored in the tactile content storage unit 1132. That is, the tactile content recording unit 17 ′ acquires the tactile content from the external device 700 via the communication network 600 and stores the tactile content in the tactile content storage unit 1132.
  • the tactile content reading unit 1131 ′ (not shown) is used.
  • the haptic content supply unit 12 transmits the haptic content generated based on the haptic content received by the haptic content recording unit 17 ′ and temporarily stored in the haptic content storage unit 1132 ′ to the content use device 500. Are performed in series with the recording process of the tactile content in the tactile content storage unit 1132 ′.
  • the target information acquisition unit 1133 acquires target information from which a haptic content is generated.
  • the target information acquisition unit 1133 acquires target information in which a value corresponding to the intensity is continuously or intermittently connected.
  • time-series waveform information is acquired.
  • the waveform information acquired here may be an analog signal or digital data.
  • the waveform information to be obtained may be any information whose amplitude changes over time, and its type is arbitrary.
  • audio signals, video signals, measurement signals of various measuring devices such as seismometers, anemometers, and light meters, waveform measurement data with an oscilloscope, stock price fluctuation data, and the like are given, but these are merely examples.
  • the target information acquired by the target information acquisition unit 1133 is information different from the audio content acquired by the audio content acquisition unit 14.
  • the target information obtained by the target information obtaining unit 1133 can be arbitrarily specified by the user. That is, the user inputs target information prepared in advance to the content supply device 100, and the target information obtaining unit 1133 of the tactile content obtaining unit 11 obtains this.
  • the processing content of the tactile parameter generation unit 1134 is the same as the processing content of the tactile parameter generation unit 131 shown in FIG.
  • the tactile content readout unit 1131 specifies one or more combinations of the n tactile parameters (the first tactile parameter and the second tactile parameter) generated by the tactile parameter generation unit 1134, and One or more tactile contents corresponding to the specified one or more combinations and tactile modes are read from the tactile content storage unit 1132.
  • the tactile content readout unit 1131 uses the tactile parameter generation unit 1134 to execute a first tactile parameter (amplitude) and a second tactile parameter (the time length of the divided section) from each divided section.
  • a first tactile parameter amplitude
  • a second tactile parameter the time length of the divided section
  • the tactile content reading unit 1131 performs the combination ⁇ h1, t1 ⁇ , ⁇ h2, t2 of the representative amplitude and the length of the divided section specified from each of the divided sections T1, T2, T3,. ⁇ , ⁇ H3, t3 ⁇ , ... are specified. Then, on the matrix space of the tactile content shown in FIG. 15, the tactile content corresponding to each of the specified combinations is sequentially read.
  • any one or a plurality of combinations are designated, and One or more tactile contents corresponding to the specified combination may be read from the tactile content storage unit 1132.
  • the specification of the combination of the tactile parameters may be manually performed by a user who wants to generate a desired tactile content, or the tactile content reading unit 1131 may automatically specify the combination of tactile contents based on a predetermined rule. It may be performed.
  • the tactile content read by the tactile content reading unit 1131 is set as the tactile content, and the tactile content is supplied to the tactile content supply unit 12.
  • a configuration similar to the tactile difference parameter generation unit 134 illustrated in FIG. 3B may be provided at a subsequent stage of the tactile parameter generation unit 1134.
  • the tactile parameter generation unit 1134 uses the target information acquired by the target information acquisition unit 1131 to select two or more combinations of n (n ⁇ 2) tactile parameters each representing one element of the tactile sensation. Generate. Then, the tactile difference parameter generation unit provided at the subsequent stage of the tactile parameter generation unit 1134 outputs the tactile parameter between the two sets for the two or more sets of tactile parameters generated by the tactile parameter generation unit 1134. By calculating the difference values, one or more combinations of n tactile difference parameters are generated.
  • the tactile content storage unit 1132 stores a plurality of tactile contents each having a unique tactile effect specified by the n tactile difference parameters and corresponding to a plurality of tactile modes. , And a combination of n tactile difference parameters and a tactile mode are stored. Then, the tactile content reading unit 1131 specifies one or more combinations of the n tactile difference parameters generated by the tactile difference parameter generation unit, and sets the combination to the specified one or more combinations and tactile mode. The corresponding one or more tactile contents are read from the tactile content storage unit 1132. Also in this configuration, the tactile content read by the tactile content reading unit 1131 is set as the tactile content.
  • the tactile content downloaded from the external device 700 can be stored in the tactile content storage unit 1132, but also a form in which the tactile content is stored in the tactile content storage unit 1132 in advance.
  • the tactile difference is used instead of the tactile parameter. It goes without saying that parameters can be used.
  • the target information acquisition unit 1133 and the tactile parameter generation unit 1134 are the same as those described with reference to FIG. 14A.
  • the tactile content storage unit 1142 is a non-volatile storage medium such as a hard disk or a semiconductor memory, and stores tactile contents having a unique haptic effect specified by n tactile parameters into n tactile parameters. Is stored in association with the combination.
  • the tactile content stored in the tactile content storage unit 1142 is the same as that described with reference to FIG. 14A, but is not generated in accordance with the tactile mode, and is not generated in accordance with the tactile mode.
  • the tactile content is composed of predetermined vibration information serving as a reference for generating the content.
  • the tactile content reading unit 1141 specifies one or more combinations of the n tactile parameters generated by the tactile parameter generation unit 1134, and specifies one or more tactiles corresponding to the specified one or more combinations.
  • the content is read from the tactile content storage unit 1142.
  • the vibration waveform processing unit 1123 is a weight information for the vibration information of the tactile content read by the tactile content reading unit 1141, and assigns the weight information according to the tactile mode specified by the tactile mode designating unit 13.
  • the vibration information of the tactile content is processed by the generated weight information.
  • the tactile content processed by the vibration waveform processing unit 1123 is set as the tactile content.
  • a configuration similar to the tactile difference parameter generation unit 134 illustrated in FIG. 3B may be provided at a subsequent stage of the tactile parameter generation unit 1134.
  • the tactile parameter generation unit 1134 uses the target information acquired by the target information acquisition unit 1131 to select two or more combinations of n (n ⁇ 2) tactile parameters each representing one element of the tactile sensation. Generate. Then, the tactile difference parameter generation unit provided at the subsequent stage of the tactile parameter generation unit 1134 outputs the tactile parameter between the two sets for the two or more sets of tactile parameters generated by the tactile parameter generation unit 1134. By calculating the difference values, one or more combinations of n tactile difference parameters are generated.
  • the vibration waveform processing unit 1123 is weight information for the vibration information of the tactile content read by the tactile content reading unit 1141, and is weight information corresponding to the tactile mode specified by the tactile mode specifying unit 13. Is generated, and the vibration information of the tactile content is processed based on the generated weight information. Also in the case of this configuration, the tactile content processed by the vibration waveform processing unit 1123 is set as the tactile content.
  • the tactile content storage unit 1142 stores tactile content having a unique haptic effect specified by n tactile difference parameters in association with a combination of n tactile difference parameters. Then, the tactile content reading unit 1141 specifies one or more combinations of the n tactile difference parameters generated by the tactile difference parameter generation unit, and selects one or more combinations corresponding to the specified one or more combinations. Is read from the tactile content storage unit 1142.
  • the tactile content storage unit 1142 stores the predetermined vibration information serving as a reference for generating the tactile content corresponding to the tactile mode, instead of the tactile content generated corresponding to the tactile mode.
  • the example in which the tactile content composed of is stored has been described.
  • the tactile content storage unit 1142 stores a plurality of tactile contents respectively corresponding to the plurality of tactile modes, and the tactile content readout unit 1141 stores the tactile mode.
  • the tactile content according to the tactile mode specified by the specifying unit 13 may be read from the tactile content storage unit 1142.
  • the target information obtaining unit 1133 obtains, as target information, information different from the audio content obtained by the audio content obtaining unit 14, that is, waveform information specified separately from the audio content by the user.
  • the target information acquisition unit 1133 ′ acquires the audio content acquired by the audio content acquisition unit 14 as the target information. Others are the same as FIG. 14A or FIG. 14B.
  • the tactile content is in accordance with the tactile mode specified by the tactile mode specifying unit 13 based on the tactile feature amount of the audio content selected by the user, and
  • the haptic content corresponding to the tactile parameter relating to the audio content selected by the user is obtained. This makes it possible to generate tactile content having high affinity with audio content.
  • FIG. 16 is a flowchart illustrating an operation example of the content supply device 100 when the acquisition of audio content is configured as illustrated in FIG. 2A and the acquisition of haptic content is configured as the haptic content acquisition unit 11 as illustrated in FIG. 14A. It is. Note that the flowchart illustrated in FIG. 16 starts when the content supply device 100 is activated.
  • the target information acquisition unit 1133 acquires target information specified by the user (Step S21).
  • the tactile parameter generation unit 1134 generates a combination of n tactile parameters each representing one element of the tactile sensation from the target information acquired by the target information acquisition unit 1133 (Step S22).
  • the tactile difference parameter is generated based on the tactile parameter generated in step S22.
  • the audio content reading unit 141 of the audio content obtaining unit 14 determines whether or not a user operation for selecting any one or more of the one or more audio contents stored in the audio content storage unit 142 has been performed (Ste S23). If the user operation has not been performed, the determination in step S23 is repeated.
  • the audio content reading unit 141 acquires the audio content by reading the audio content selected by the user operation from the audio content storage unit 142 (step S24). .
  • the tactile mode designation unit 13 analyzes the audio content read from the audio content storage unit 142 by the audio content reading unit 141, and designates a tactile mode according to the analysis result (step S25).
  • the tactile content reading unit 1131 of the tactile content acquisition unit 11 specifies one or more combinations of the n tactile parameters generated by the tactile parameter generation unit 1134 in step S22, and One or more tactile contents corresponding to the combination and the tactile mode are read from the tactile content storage unit 1132 (step S26).
  • the audio content supply unit 15 supplies the audio content acquired by the audio content acquisition unit 14 in step S24 to the content use device 500 (step S27), and the haptic content supply unit 12 transmits the tactile content in step S26.
  • the tactile content read from the tactile content storage unit 1132 by the reading unit 1131 is supplied to the content using device 500 as tactile content (step S28).
  • the audio content reading unit 141 determines whether or not the supply of the audio content to the content using device 500 has been completed (step S29). If the supply of the audio content has not been completed, the process returns to step S27, and the supply of the audio content and the tactile content to the content using device 500 is continued. On the other hand, when the supply of the audio content ends, the processing of the flowchart illustrated in FIG. 16 ends.
  • FIG. 17 is a flowchart showing an operation example of the content supply device 100 when the acquisition of audio content is configured as shown in FIG. 2A and the acquisition of haptic content is configured as the haptic content acquisition unit 11 as shown in FIG. 14B. It is. Note that the flowchart illustrated in FIG. 17 starts when the content supply device 100 is activated.
  • the target information obtaining unit 1133 obtains target information specified by the user (step S31).
  • the tactile parameter generation unit 1134 generates a combination of n tactile parameters each representing one element of the tactile sensation from the target information acquired by the target information acquisition unit 1133 (Step S32).
  • the tactile difference parameter is generated based on the tactile parameter generated in step S32.
  • the audio content reading unit 141 of the audio content obtaining unit 14 determines whether or not a user operation for selecting any one or more of the one or more audio contents stored in the audio content storage unit 142 has been performed (Ste S33). If the user operation has not been performed, the determination in step S33 is repeated.
  • the audio content reading unit 141 acquires the audio content by reading the audio content selected by the user operation from the audio content storage unit 142 (Step S34). .
  • the tactile mode designation unit 13 analyzes the audio content read from the audio content storage unit 142 by the audio content reading unit 141, and designates a tactile mode according to the analysis result (step S35).
  • the tactile content reading unit 1141 of the tactile content acquisition unit 11 specifies one or more combinations of the n tactile parameters generated by the tactile parameter generation unit 1134 in step S32, and One or more tactile contents corresponding to the combination are read from the tactile content storage unit 1142 (step S36).
  • the vibration waveform processing unit 1123 is weight information for the vibration information of the tactile content read by the tactile content reading unit 1141, and is a weight corresponding to the tactile mode specified by the tactile mode designating unit 13. Information is generated (step S37), and tactile content according to the designated tactile mode is generated by processing vibration information of the tactile content using the generated weight information (step S38).
  • the audio content supply unit 15 supplies the audio content acquired by the audio content acquisition unit 14 in step S34 to the content use device 500 (step S39), and the haptic content supply unit 12 causes the vibration waveform processing unit 1123 to The processed tactile content is supplied as tactile content to the content use device 500 (step S40).
  • the audio content reading unit 141 determines whether or not the supply of the audio content to the content using device 500 has been completed (Step S41). If the supply of the audio content has not been completed, the process returns to step S38, and the supply of the haptic content processed based on the audio content and the weight information to the content using device 500 is continued. On the other hand, when the supply of the audio content ends, the processing of the flowchart illustrated in FIG. 17 ends.
  • FIGS. 14A to 14C are block diagrams illustrating a functional configuration example of the haptic content acquisition unit 11 according to the fourth configuration example.
  • the haptic content acquisition unit 11 according to the fourth configuration example is a modification of the haptic content acquisition unit 11 according to the third configuration example, and has the same functions as those of the components illustrated in FIGS. 14A to 14C.
  • the same reference numerals are given to components having.
  • the haptic content acquisition unit 11 according to the fourth configuration example further includes a repetition extraction unit 1145 in addition to the functional configuration of the haptic content acquisition unit 11 according to the third configuration example. I have.
  • the repetitive extraction unit 1145 includes a plurality of touch qualities sequentially read by the touch content reading unit 1131 in accordance with the touch mode specified by the touch mode specifying unit 13. It is determined whether the content has a repeating pattern consisting of a combination of two or more different haptic contents. Then, at least one cycle of the tactile content group constituting the repetition is extracted and generated as tactile content.
  • the repetitive extraction unit 1145 converts the plurality of tactile contents sequentially read by the tactile content reading unit 1141 from a combination of two or more different tactile contents. It is determined whether or not the pattern has a repetition of the following pattern. Then, at least one cycle of the tactile content group constituting the repetition is extracted and generated as tactile content.
  • the vibration waveform processing unit 1123 generates weight information corresponding to the tactile mode specified by the tactile mode specifying unit 13, which is weight information for the vibration information of the tactile content generated by the repetitive extraction unit 1145. Then, the vibration information of the tactile content is processed by the generated weight information.
  • the tactile content group that constitutes the repetition is information that can convey a meaningful message to the user who receives the vibration. The reason will be described below.
  • the tactile content of No. 20 and the tactile content of No. 25 are not only extracted one by one in order, but are also repeated twice or more in the order of No. 20 ⁇ No. 25 ⁇ No. 20 ⁇ No. It is possible to convey the message more strongly.
  • a tactile content having strong message characteristics is also obtained when three or more tactile contents are repeated.
  • FIG. 19 is a diagram for explaining a repetition pattern determination algorithm performed by the repetition extraction unit 1145.
  • FIG. 19A shows a permutation of index numbers of ten tactile contents sequentially read by, for example, the tactile content reading unit 1131 (the same applies to the tactile content reading unit 1141).
  • the repetition extraction unit 1145 sets the first index number among a plurality of index numbers corresponding to the tactile content read by the tactile content reading unit 1131 as a key and immediately before the same index number as the key appears. Is extracted as a pattern.
  • the pattern refers to a combination of two or more different index numbers (tactile content indicated by the index numbers).
  • the pattern up to immediately before the same index number as the key appears without providing a restriction of “two or more different”.
  • the first index number “1” is extracted as a pattern.
  • a pattern consisting of only one index number is not extracted as a pattern.
  • the repetition extraction unit 1145 sets a next index number of the extracted pattern as a key, and newly extracts a pattern until immediately before the same index number as the key appears.
  • the repetitive extraction unit 1145 performs the above processing up to the end of a plurality of index numbers corresponding to the tactile content sequentially read by the tactile content reading unit 1131.
  • FIG. 19B shows the result of performing such a pattern extraction process.
  • a leading index number “1” is used as a key, and a pattern is extracted until immediately before the same index number as the key appears.
  • “123” is extracted as the first pattern.
  • the next index number (fourth index number) “1” of the extracted first pattern is set as a key, and the pattern is extracted just before the same index number as the key appears.
  • “123” is extracted as the second pattern.
  • next index number (seventh index number) “1” of the extracted second pattern is set as a key, and the pattern is extracted until immediately before the same index number as the key appears. As a result, “14” is extracted as the third pattern. Further, the next index number (the ninth index number) “1” of the extracted third pattern is set as a key, and it is attempted to extract a pattern until immediately before the same index number as the key appears. No number is found, and the remaining $ "13" is extracted as the fourth pattern.
  • the repetition extraction unit 1145 extracts the tactile content group “123123” constituting the repetition, and generates this as the tactile content.
  • the repetition extraction unit 1145 extracts only one cycle (one pattern) of “123” from the tactile content group “123123” constituting the repetition, and generates this as tactile content. It may be.
  • a repeat haptic content like “123123” can be obtained by the repeat reproduction function of the content using device 500. is there.
  • the repetition extraction unit 1145 extracts a plurality of tactile content groups “123123” and “231231” constituting the repetition by performing pattern extraction processing while sequentially changing the set position of the key from the top. May be generated as tactile content.
  • all index numbers may be sequentially set to the key, and the repetitive pattern determination process may be performed.
  • the repetitive extraction unit 1145 groups the plurality of tactile contents sequentially read out by the tactile content reading unit 1131 by dividing the tactile contents by a predetermined number from the top, and performs a repetitive pattern determination process for each group. Is also good.
  • FIG. 20 is a flowchart showing an operation example of the content supply device 100 when the acquisition of audio content is configured as shown in FIG. 2A and the acquisition of haptic content is configured as the haptic content acquisition unit 11 as shown in FIG. 18A. It is.
  • the flowchart illustrated in FIG. 20 starts when the content supply device 100 is activated.
  • the processes with the same step numbers as those shown in FIG. 16 are the same, and thus the duplicate description will be omitted here.
  • the repetitive extraction unit 1145 determines that the plurality of tactile contents are It is determined whether or not it has a repetitive pattern (step S51). Then, the repetition extraction unit 1145 extracts at least one cycle of the tactile content group constituting the repetition, and generates this as tactile content (step S52). Thereafter, the process proceeds to step S27.
  • a tactile content group composed of one type of repetition pattern is extracted from a plurality of tactile contents read from the tactile content storage units 1132 and 1142, and the extracted tactile content group is extracted.
  • a tactile content may be generated by extracting at least one cycle of a tactile content group including a plurality of types of repetitive patterns and combining them.
  • index number is set to Key and a pattern is extracted just before the same index number as the Key appears as a pattern
  • present invention is not limited to this.
  • a combination of a plurality of index numbers may be set as Key, and a pattern up to immediately before a combination of the same index number as the Key appears may be extracted as a pattern.
  • a sequence in which the sequence of “123” is replaced by a cyclic sequence (“231” or “312”) may be generated, and one or a combination of these sequences may be generated as tactile content.
  • the haptic content may be generated by combining the same pattern like “231231” or “312312”, or may be arbitrarily combined with different patterns like “123231313”. It may be.
  • the tactile content storage unit 1142 stores the predetermined tactile content according to the tactile mode, not the tactile content generated in accordance with the tactile mode.
  • the example in which the tactile content including the vibration information of the tactile information is stored has been described.
  • the tactile content storage unit 1142 stores a plurality of tactile contents respectively corresponding to the plurality of tactile modes
  • the tactile content readout unit 1141 stores the tactile mode specified by the tactile mode designating unit 13. May be read from the tactile content storage unit 1142.
  • the present invention is not limited to this.
  • Information that can be used as a processing target in the present embodiment is information having a unique haptic effect specified by n (n ⁇ 2) tactile parameters. In particular, if the value corresponding to the intensity is continuous or intermittent, or can be converted into a continuous state, it can be used as the target information.
  • the above-described waveform information is information in which the amplitude corresponding to the intensity is continuous (in the case of an analog signal) or intermittent (in the case of digital data) along the time axis, and can be acquired by the target information acquisition unit 1133. It is a typical example of the information.
  • text information composed of a character string is not information in which values corresponding to strengths are continuous, but is information that can be converted into such information as described in detail later. Therefore, the text information is also one of the information that can be obtained by the target information obtaining unit 1133. In this case, the first tactile parameter and the second tactile parameter will be described later.
  • information other than a single information amount can be said to be information that can be handled in the present embodiment.
  • information consisting of only one character such as "a” cannot be said to be information in which a value corresponding to intensity is continuous, and cannot be converted into this. Will be excluded.
  • the text information is composed of a plurality of characters, it can be converted into information in which values corresponding to the strengths are linked, as described later, and thus the information can be handled in the present embodiment.
  • the tactile parameter generation unit 1134 divides the histogram information into a plurality of pieces in the frequency axis direction. Then, from each of the divided sections, the representative intensity in the divided section is specified as the first tactile parameter, and the frequency width of the divided section is specified as the second tactile parameter. And a second tactile parameter combination.
  • FIG. 21 is a diagram for explaining an example of the processing content by the tactile parameter generation unit 1134 when the histogram information is input.
  • FIG. 21A shows the histogram information acquired by the target information acquisition unit 1133.
  • the outer shape of the histogram information is the same as the waveform information. Therefore, it is possible to apply the same processing as the waveform information.
  • the envelope of the histogram information may be extracted as shown in FIG. 21B, and the first tactile parameter and the second tactile parameter may be specified for the envelope. .
  • the tactile parameter generation unit 1134 first divides the histogram information shown in FIG. 21A (or the envelope information shown in FIG. 21B) into a plurality of pieces in the frequency axis direction.
  • the envelope is divided for each time at which the amplitude of the envelope becomes minimum. That is, the first divided section F1 is from the start point of the envelope to the first minimal value, the second divided section F2 is from the first minimal value to the second minimal value, and the second minimal value is ,
  • the histogram information is divided into a plurality of parts in the frequency axis direction, as in a third division section F3,.
  • the division method is not limited to this.
  • the tactile parameter generation unit 1134 specifies the representative intensities h1, h2, h3,... As the first tactile parameter from each of the divided sections F1, F2, F3,.
  • the frequency widths f1, f2, f3,... Of the divided sections are specified as quality parameters.
  • the representative intensities h1, h2, h3,... Indicate the maximum values in the respective divided sections F1, F2, F3,.
  • the method of obtaining the representative strength is not limited to this.
  • Image information is an example of spatial distribution information.
  • the image information is information in which color information and luminance information having an intensity element change according to the position of a pixel or an area including a plurality of pixel groups.
  • the tactile parameter generation unit 1134 divides such image information into a plurality of pieces according to the position of a pixel or a region of a pixel group, and calculates a first tactile parameter and a second tactile parameter from each divided section. Generate a combination.
  • FIG. 22 is a diagram for explaining an example of the processing content by the tactile parameter generation unit 1134 when image information is input.
  • the image information shown in FIG. 22A shows an example of a pattern image divided into meshes of various sizes in vertical and horizontal directions.
  • the second example is suitable for generating a combination of the first tactile parameter and the second tactile parameter from such a pattern image.
  • the tactile parameter generation unit 1134 first divides the pattern image shown in FIG. 22A into a plurality of pieces according to the mesh area.
  • the upper left mesh is a first divided section A1
  • the right mesh is a second divided section A2
  • the right mesh is a third divided section A3,.
  • it reaches the right end it descends to one lower stage and divides in order from the left end to the right end.
  • the entire pattern image is divided into a plurality of patterns in accordance with the area of each mesh.
  • the tactile parameter generation unit 1134 specifies the representative strengths h1, h2, h3,... As the first tactile parameter from each of the divided sections A1, A2, A3,.
  • the areas a1, a2, a3,... Of the divided sections are specified as quality parameters.
  • the representative intensities h1, h2, h3,... It is possible to use an average value of any one of the saturation, lightness, and luminance in each of the divided sections A1, A2, A3,. .
  • the tactile parameter generation unit 1134 determines, as a second tactile parameter, the length (corresponding to the number of pixels) from the start point to the end point of each divided section A1, A2, A3,. May be specified.
  • the tactile parameter generation unit 1134 converts the image information into frequency spectrum information as preprocessing, and converts the first tactile parameter and the second tactile parameter from the frequency spectrum information. Generate a combination of parameters.
  • the tactile parameter generation unit 1134 analyzes the image information acquired by the target information acquisition unit 1133 to generate frequency spectrum information of the intensity-frequency distribution, and then divides the frequency spectrum information into a plurality of pieces in the frequency axis direction. By specifying the representative intensity in the divided section as a first tactile parameter and specifying the frequency width of the divided section as a second tactile parameter from each divided section, And a second tactile parameter combination.
  • a specific processing example in this case is the same as that of the first example described with reference to FIG.
  • this third example can be applied to audio signals in addition to image information.
  • the example of FIG. 15 cannot be applied.
  • the tactile parameter generation unit 1134 morphologically analyzes the text information and divides the sentence into sentences, and divides each sentence into segments. Specify the number of phonemes in the phrase. Then, from each sentence, the reciprocal of the representative phoneme number in the sentence is regarded as the strength and specified as the first tactile parameter, and the number of phrases in the sentence is specified as the second tactile parameter. A combination of the first tactile parameter and the second tactile parameter is generated.
  • FIG. 23 is a diagram for explaining an example of the processing content by the tactile parameter generation unit 1134 when text information is input.
  • FIG. 23 shows the text information obtained by the target information obtaining unit 1133 with kana added.
  • the text information input in the example illustrated in FIG. 23 is information including a character string of a sentence “Today is Sunday. I went to school today.”
  • the tactile parameter generation unit 1134 divides the text information of the sentence “Today is Sunday. I went to school today” for each sentence. That is, it is divided into two parts, “Today is Sunday” and “I went to school today”.
  • the first sentence is a first divided section B1
  • the second sentence is a second divided section B2.
  • the tactile parameter generation unit 1134 performs a morphological analysis of each sentence, divides each sentence into segments, and specifies the number of phonemes in each segment. That is, with regard to the first divided section B1, the sentence is divided into two clauses, “today” and “Sunday”. Then, the phoneme number of the first phrase “Kyoha” is specified as “3”, and the phoneme number of the second phrase “Nichijobi” is specified as “5”. Similarly, for the second divided section B2, the sentence is divided into four clauses, "I”, “Today”, “To school”, and "I went”. Then, the number of phonemes of each phrase is specified as “4”, “2”, “5”, and “5”.
  • the tactile parameter generation unit 1134 regards the reciprocal of the number of representative phonemes in the divided section as the intensity from each of the first divided section B1 and the second divided section B2, and uses this as the first tactile parameter.
  • the representative phoneme number can be, for example, the minimum phoneme number, the maximum phoneme number, or the average phoneme number in the divided section. For example, when the average phoneme number is used, the average phoneme number of the first divided section B1 is “4”, and the reciprocal thereof is specified as the first tactile parameter. The average number of phonemes in the second divided section B2 is also “4”, and the reciprocal thereof is specified as the first tactile parameter.
  • the tactile parameter generation unit 1134 specifies the number of phrases as the second tactile parameter from each of the first divided section B1 and the second divided section B2. That is, the number of phrases “2” is specified as the second tactile parameter for the first divided section B1, and the number of phrases “4” is specified as the second tactile parameter for the second divided section B2.
  • the tactile parameter generation unit 1134 divides the series of motion information for each motion. Then, from each operation, the representative value relating to the pressing force, speed, acceleration, or the reaching height of the human body by the operation is regarded as the intensity, and specified as the first tactile parameter, and the length of time required for one operation is defined as the first time.
  • the second tactile parameter is a second tactile parameter, a combination of the first tactile parameter and the second tactile parameter is generated.
  • FIG. 24 is a diagram for explaining an example of the processing content by the tactile parameter generation unit 1134 when the operation information of the massage is input.
  • Massage is performed by a combination of a plurality of procedures. Then, one procedure is performed by applying pressure for a predetermined time.
  • the motion information representing the movement of the massage treatment can be represented by bar-like information in which the horizontal axis is the time axis and the vertical axis is the pressure.
  • a portion where the space between the adjacent bar graphs is open means that two procedures are performed at a certain time interval. Further, a portion where the adjacent bar graphs are connected means that two procedures are performed continuously without time delay. For example, when massage is actually performed on a humanoid doll or the like having a pressure sensor on the surface, sensor information as shown in FIG. 24 is obtained, and this is input to the target information acquisition unit 1133. Is possible.
  • the tactile parameter generation unit 1134 divides a series of motion information, which is obtained by the target information obtaining unit 1133 and includes a combination of a plurality of procedures, for each procedure (one motion). If this is described using the image of FIG. 24, it corresponds to dividing into individual bar graphs. In this case, one procedure (bar graph) corresponds to one divided section. That is, the first procedure is performed in a series of a first division M1, the second procedure is performed in a second division M2, the third procedure is performed in a third division M3, and so on. The motion information is divided for each procedure.
  • the tactile parameter generation unit 1134 calculates the applied pressures p1, p2, p3,... From the respective divided sections M1, M2, M3,. Is specified as the first tactile parameter, and the length of time t1, t2, t3,... Required for performing each procedure is specified as the second tactile parameter, whereby the first tactile parameter is obtained. A combination of a quality parameter and a second tactile parameter is generated.
  • Another example of a series of motion information representing a person's motion is motion information captured by motion capture.
  • the motion information obtained by the motion capture is provided as moving image information in which the motion of a person is digitally recorded.
  • the tactile parameter generation unit 1134 analyzes the image of the moving image information, specifies the starting point of the movement of the specific part (for example, the hand) of the person, and performs one operation until the hand returns to the starting point. Catch as. Then, a series of operation information is divided for each operation. In this case, one operation until the hand returns to the start point corresponds to one divided section.
  • the tactile parameter generation unit 1134 regards, as the first tactile parameter relating to the strength, a representative value relating to the speed, acceleration, or reaching height of the human body due to the operation of the divided section from each divided section. Identify. For example, when the representative value of the operation speed is used as the first tactile parameter, the maximum speed, the minimum speed, or the average speed in one operation can be used as the representative value. Further, when the representative value of the reaching height of the human body is used as the first tactile parameter, for example, the highest point from the floor when the user operates by moving his hand can be used as the representative value. In addition, the tactile parameter generation unit 1134 specifies the length of time required for one operation as a second tactile parameter.
  • the tactile parameter generation unit 1134 analyzes the moving image information by optical flow to calculate a displacement amount between frame images, thereby elapse of time. At the same time as the waveform information in which the displacement amount changes. Then, the waveform information is divided into a plurality of pieces in the time axis direction, a representative intensity in the divided section is specified as a first tactile parameter from each divided section, and a time length of the divided section is defined as a second tactile parameter. A combination of the first tactile parameter and the second tactile parameter is generated by specifying the tactile parameter as the tactile parameter.
  • the moving image information is any moving image information including the motion information by the motion capture described above.
  • a known method can be applied to the optical flow analysis.
  • the optical flow values in the x and y directions obtained for each pixel are Fx and Fy, for example, a value of (Fx 2 + Fy 2 ) / 2 is obtained for each pixel, and further, an average value is obtained for all the pixels.
  • this average value is set as the displacement amount at time t2.
  • the tactile mode designation unit 13 analyzes the audio content acquired by the audio content acquisition unit 14, and designates the tactile mode based on the analysis result. went.
  • the tactile mode can be designated according to a user operation instead of or in addition to the designation of the tactile mode based on the analysis result of the audio content.
  • FIGS. 25 and 26 are block diagrams showing a functional configuration example of the content supply device 100 according to the second embodiment.
  • FIGS. 25 and 26 show a modification of the content supply device 100 shown in FIG. 2B, it is also applicable as a modification of the content supply device 100 shown in FIG. 2A or 2C.
  • the configuration example of the tactile content acquisition unit 11 any of the configurations in FIGS. 6, 8, 14A to 14C, and 18A to 18C can be applied.
  • FIG. 25 shows a configuration in which the tactile mode can be designated according to a user operation in addition to the designation of the tactile mode based on the analysis result of the audio content. That is, the tactile mode designating unit 13A has a function of designating the tactile mode in accordance with an instruction from the user regarding the selection of the tactile mode, in addition to the function of designating the tactile mode based on the analysis result of the audio content. Is further provided.
  • the tactile mode designating unit 13A sets the state of designating the tactile mode according to the analysis result of the audio content acquired by the audio content acquiring unit 14 as a default, and instructs the user to select the tactile mode. Is performed, the state may be changed to a state in which the tactile mode is designated according to an instruction from the user.
  • the tactile mode specified based on the analysis result of the audio content selected by the user is set as the recommended mode, and unless otherwise specified by the user, the haptic content acquisition unit 11 acquires the haptic content according to the recommended mode. I do.
  • the haptic content acquisition unit 11 acquires haptic content according to the specified tactile mode.
  • the tactile sense of the tactile content in the recommended mode is It is also possible to acquire tactile contents having different tactile sensations according to the user's desire.
  • the user selects the desired audio content and the desired tactile mode.
  • the haptic content reading unit 1111 of the haptic content obtaining unit 11 receives the instruction related to the selection of the tactile mode from the user, and switches to the tactile mode designated by the tactile mode designating unit 13A in response to the instruction.
  • the corresponding haptic content is read from the haptic content storage unit 1112.
  • the user selects a desired audio content and selects a desired tactile mode. It is possible to In this case, the haptic content readout unit 1121 of the haptic content acquisition unit 11 switches to the tactile mode specified by the tactile mode specifying unit 13A in response to the instruction from the user regarding the selection of the tactile mode. The corresponding tactile content is read from the tactile content storage unit 1122. Then, the vibration waveform processing unit 1123 processes the vibration information of the tactile content read by the haptic content reading unit 1121.
  • the tactile content reading unit 1131 of the tactile content acquisition unit 11 is a tactile content corresponding to the tactile parameter generated from the audio content selected by the user, and is independent of the tactile parameter related to the audio content.
  • the tactile content corresponding to the tactile mode can be read from the tactile content storage unit 1132.
  • FIG. 26 shows a configuration in which only the tactile mode based on the user operation can be specified instead of the tactile mode based on the analysis result of the audio content. That is, the tactile mode designating unit 13B has a function of designating the tactile mode in response to an instruction related to the selection of the tactile mode from the user instead of the function of designating the tactile mode based on the analysis result of the audio content. It has.
  • FIG. 27 shows a modification of the configuration in which only the tactile mode can be designated based on a user operation.
  • the content supply device 100 having the configuration shown in FIG. 27 does not include any configuration related to acquisition of audio content. That is, only the configuration relating to the acquisition of the tactile content is provided, and the specification of the tactile mode is performed by the tactile mode designating unit 13B in response to an instruction from the user regarding the selection of the tactile mode.
  • any of the configurations in FIGS. 6, 14A, 14C (a), 18A, and 18C (a) can be applied.
  • the haptic content reading units 1111 and 1111 ′ of the haptic content acquiring unit 11 convert the haptic content according to the haptic mode specified by the haptic mode specifying unit 13B into a plurality of haptic contents.
  • a plurality of haptic contents respectively corresponding to the quality modes are read from the haptic content storage units 1112 and 1112 '.
  • the haptic content reading unit 1131 of the haptic content acquisition unit 11 The tactile content corresponding to the tactile mode specified by the tactile mode specifying unit 13B is read from the tactile content storage unit 1132 that stores a plurality of tactile contents respectively corresponding to the plurality of tactile modes.
  • the third embodiment relates to a content providing system in which a content acquisition device 200 and a content providing server device 300 are connected via a communication network 600.
  • the haptic content acquired by the content acquisition device 200 from the content providing server device 300 can be used arbitrarily.
  • the haptic content acquired by the content acquisition device 200 is stored in the haptic content storage unit 1112 of the content supply device 100 described in the first embodiment, and the haptic content is supplied from the content supply device 100 to the content use device 500. Is possible.
  • FIG. 28 is a block diagram illustrating a functional configuration example of the content providing system according to the first configuration example. 28, components having the same functions as the components shown in FIG. 2 are denoted by the same reference numerals.
  • the content acquisition device 200 includes a haptic content reception unit 201, a haptic content storage unit 202, an audio content reception unit 203, an audio content storage unit 204, and an instruction transmission unit 205 as its functional configuration.
  • the content providing server device 300 includes, as its functional components, a haptic content acquisition unit 11, a tactile mode designation unit 13, an audio content acquisition unit 14, a haptic content transmission unit 301, an audio content transmission unit 302, and an instruction reception unit 303. Have.
  • Each functional block provided in the content acquisition device 200 can be configured by any of hardware, DSP, and software.
  • each of the functional blocks is actually configured to include a CPU, a RAM, a ROM, and the like of a computer, and a content providing program stored in a storage medium such as a RAM, a ROM, a hard disk, or a semiconductor memory. Is realized by operating. This is the same in the second to fifth configuration examples shown in FIGS. 29 to 32.
  • Each functional block included in the content providing server device 300 can be configured by any of hardware, DSP, and software.
  • each of the functional blocks is actually configured to include a CPU, a RAM, a ROM, and the like of a computer, and a content providing program stored in a storage medium such as a RAM, a ROM, a hard disk, or a semiconductor memory. Is realized by operating. This is the same in the second to fifth configuration examples shown in FIGS. 29 to 32.
  • the instruction transmission unit 205 of the content acquisition device 200 transmits to the content providing server device 300 an instruction related to selection of audio content from the user via the operation unit of the content acquisition device 200 or a predetermined graphical user interface.
  • the instruction receiving unit 303 of the content providing server device 300 receives this instruction. Note that the instruction related to the selection of the audio content is equivalent to the instruction related to the acquisition of the haptic content because the haptic content is acquired from the content providing server device 300 in response thereto.
  • the predetermined graphical user interface is, for example, a selection screen on which a list of audio contents stored in the audio content storage unit 142 of the content providing server device 300 is displayed and the user can select one of the audio contents. is there.
  • the selection screen is created by the content providing server device 300 and displayed on a display of the content acquisition device 200 or the like.
  • the audio content acquisition unit 14 of the content providing server device 300 acquires the audio content in response to the instruction received by the instruction receiving unit 303 from the user and related to the selection of the audio content. Specifically, the audio content reading unit 141 of the audio content acquisition unit 14 reads out the audio content selected by the user operation from the plurality of audio contents stored in the audio content storage unit 142, and To get.
  • the tactile mode designating unit 13 of the content providing server device 300 designates a tactile mode according to the analysis result of the audio content acquired by the audio content acquiring unit 14. “Specifying the tactile mode according to the analysis result” means that, as in the first embodiment, when the content providing server device 300 receives an instruction related to the selection of audio content, the tactile mode specifying unit 13 analyzes the audio content acquired by the audio content acquisition unit 14 and designates a tactile mode in accordance with the analysis result. And specifying the tactile mode based on the
  • audio content to be provided to the content acquisition device 200 is stored in the audio content storage unit 142 in advance. Therefore, the same analysis as in the first embodiment is performed in advance for all or a part of the audio content stored in the audio content storage unit 142 even if there is no instruction from the user regarding the selection of the audio content. It is possible to specify the tactile mode for each content. Then, based on the analysis result, it is possible to create and store correspondence information (table information) indicating the correspondence between the audio content and the tactile mode. When such table information is created, the tactile-mode specifying unit 13 refers to the table information when the instruction receiving unit 303 receives an instruction related to audio content selection, and selects the audio content selected by the instruction. Specify the tactile mode corresponding to.
  • the haptic content acquisition unit 11 acquires haptic content according to the tactile mode specified by the tactile mode specification unit 13.
  • the tactile mode specification unit 13 As a configuration example of the haptic content acquisition unit 11, any of the configurations of FIGS. 6A and 8B, FIGS. 8A and 8B, FIGS. 14A to 14C, and FIGS. 18A to 18C can be applied. It is possible.
  • the haptic content transmitting unit 301 transmits the haptic content acquired by the haptic content acquiring unit 11 to the content acquiring device 200.
  • the audio content transmission unit 302 transmits the audio content acquired by the audio content acquisition unit 14 to the content acquisition device 200.
  • the haptic content receiving unit 201 of the content acquisition device 200 receives the haptic content transmitted by the haptic content transmitting unit 301 of the content providing server device 300 as a response to the instruction from the instruction transmitting unit 205.
  • the haptic content storage unit 202 stores the haptic content received by the haptic content receiving unit 201.
  • the audio content receiving unit 203 of the content acquisition device 200 receives the audio content transmitted by the audio content transmitting unit 302 of the content providing server device 300 as a response to the instruction from the instruction transmitting unit 205.
  • the audio content storage unit 204 stores the audio content received by the audio content reception unit 203.
  • the haptic content stored in the haptic content storage unit 202 and the audio content stored in the audio content storage unit 204 can be supplied to the content use device 500. Further, the haptic content and the audio content stored in the content acquisition device 200 can be transmitted to another terminal via a removable storage medium or a communication network, and can be supplied from the other terminal to the content use device 500. .
  • both the audio content and the tactile content can be downloaded from the content providing server device 300 to the content obtaining device 200 and stored.
  • the selected audio content is downloaded, and the haptic content corresponding to the tactile mode specified based on the tactile feature amount of the selected audio content. That is, it is possible to download a tactile content that matches the characteristics of the audio content.
  • the haptic content may be transmitted from the content providing server device 300 to the content obtaining device 200 only when the instruction relating to the acquisition of the haptic content is transmitted from the content obtaining device 200 to the content providing server device 300.
  • the audio content may be used only for the analysis for specifying the tactile mode, and may not be supplied to the content use device 500.
  • the audio content receiving unit 203 and the audio content storage unit 204 of the content acquisition device 200 and the audio content transmitting unit 302 of the content providing server device 300 may be omitted.
  • the tactile mode may be specified according to a user operation.
  • the instruction transmitting unit 205 transmits an instruction relating to the specification of the touch mode to the content providing server device 300.
  • the instruction receiving unit 303 receives the instruction and notifies the tactile-mode specifying unit 13.
  • FIG. 29 is a block diagram illustrating a functional configuration example of a content providing system according to the second configuration example.
  • components having the same functions as those shown in FIGS. 27 and 28 are denoted by the same reference numerals.
  • the content providing system shown in FIG. 29 does not include a configuration related to acquisition of audio content. That is, only the configuration relating to the acquisition of the tactile content is provided, and the specification of the tactile mode by the tactile mode designating unit 13B is performed in response to an instruction relating to the selection of the tactile mode from the user of the content acquisition device 200.
  • the instruction transmission unit 205 of the content acquisition device 200 transmits an instruction relating to the specification of the tactile mode from the user via the operation unit of the content acquisition device 200 or the graphical user interface to the content providing server device 300.
  • the instruction receiving unit 303 of the content providing server device 300 receives the instruction related to the specification of the tactile mode transmitted from the instruction transmitting unit 205.
  • the tactile mode designating unit 13B designates the tactile mode in accordance with the instruction received by the instruction receiving unit 303 and related to the selection of the tactile mode.
  • the haptic content acquisition unit 11 acquires haptic content according to the haptic mode specified by the haptic mode specification unit 13B.
  • the haptic content acquisition unit 11 any one of the configurations of FIGS. 6A, 6B, 14A, and 18A can be applied.
  • FIG. 30 is a block diagram illustrating a functional configuration example of the content providing system according to the third configuration example.
  • components having the same functions as the components shown in FIG. 28 are denoted by the same reference numerals.
  • the content acquisition device 200 includes a haptic content reception unit 201, a haptic content storage unit 202, an audio content transmission unit 206, and an audio content storage unit 207 as its functional configuration.
  • the content providing server device 300 includes a haptic content acquisition unit 11, a haptic mode designation unit 13, a haptic content transmission unit 301, and an audio content reception unit 304 as its functional configuration.
  • the audio content storage unit 207 of the content acquisition device 200 stores one or more audio contents. Although not shown, the audio content storage unit 207 can additionally store audio content downloaded from an external device via a communication network as needed.
  • the audio content transmitting unit 206 transmits the audio content selected by the user from the audio contents stored in the audio content storage unit 207 to the content providing server device 300.
  • the selection of the audio content is performed through the operation unit of the content acquisition device 200 or a predetermined user interface. That is, the user selects, from a list of audio contents provided through the graphical user interface, audio contents for which it is desired to obtain haptic contents matching the characteristics of the audio, and instructs transmission.
  • the audio content transmission unit 206 reads the audio content selected by the user from the audio content storage unit 207 and transmits the audio content to the content providing server device 300.
  • the audio content receiving unit 304 of the content providing server device 300 receives the audio content transmitted from the content acquisition device 200.
  • the tactile mode designating unit 13 analyzes the audio content received by the audio content receiving unit 304, and designates a tactile mode according to the analysis result.
  • the haptic content acquisition unit 11 acquires haptic content according to the tactile mode specified by the tactile mode specification unit 13.
  • the tactile mode specification unit 13 As a configuration example of the haptic content acquisition unit 11, any of the configurations of FIGS. 6A and 8B, FIGS. 8A and 8B, FIGS. 14A to 14C, and FIGS. 18A to 18C can be applied. It is possible.
  • the haptic content transmitting unit 301 transmits the haptic content acquired by the haptic content acquiring unit 11 to the content acquiring device 200.
  • the haptic content receiving unit 201 of the content acquisition device 200 receives the haptic content transmitted by the haptic content transmitting unit 301 of the content providing server device 300 as a response to the transmission of the audio content by the audio content transmitting unit 305.
  • the content providing system according to the third configuration example shown in FIG. 30 is configured to acquire only the tactile content corresponding to the audio content from the content providing server device 300 when the audio content is present in the content acquisition device 200 in advance. This is a preferred example.
  • the tactile mode designating section 13 A shown in FIG. 25 or the tactile mode designating section 13 B shown in FIG. 26 is provided.
  • the tactile mode may be specified according to a user operation.
  • the haptic content according to the haptic parameter of the audio content selected by the user and the haptic mode selected by the user are set. The corresponding tactile content can be obtained.
  • FIG. 31 is a block diagram illustrating a functional configuration example of a content providing system according to a fourth configuration example.
  • components having the same functions as the components shown in FIG. 30 are denoted by the same reference numerals.
  • the fourth configuration example is a modification of the third configuration example, in which the content providing server device 300 returns the audio content received from the content acquisition device 200 to the content acquisition device 200 together with the tactile content.
  • the content acquisition device 200 includes an audio content reception unit 208 and an audio content storage unit 209 instead of the haptic content reception unit 201 and the haptic content storage unit 202 shown in FIG. Have.
  • the content providing server device 300 includes an audio content generation unit 305 and an audio content transmission unit 306 instead of the haptic content transmission unit 301 shown in FIG.
  • the audio content generation unit 305 of the content providing server device 300 includes the audio content received by the audio content reception unit 304 (the audio content transmitted from the content acquisition device 200) and the haptic content acquired by the haptic content acquisition unit 11. To generate audio content.
  • the audio content generation unit 305 generates audio content using the audio content received by the audio content reception unit 304 as the first channel information and using the haptic content acquired by the haptic content acquisition unit 11 as the second channel information. .
  • the audio content transmission unit 306 transmits the audio content generated by the audio content generation unit 305 to the content acquisition device 200.
  • the audio content receiving unit 208 of the content acquisition device 200 transmits the audio content transmitted by the audio content transmitting unit 306 of the content providing server device 300 in response to the transmission of the audio content to the content providing server device 300 by the audio content transmitting unit 206.
  • the audio content storage unit 209 stores the audio content received by the audio content reception unit 208.
  • the content acquisition device 200 can acquire the audio content and the tactile content in a synchronized state, and has an advantage that the content can be easily used.
  • the audio content and the haptic content are supplied from the content acquisition device 200 to the content use device 500
  • the audio content originally stored in the content acquisition device 200 and the haptic content acquired from the content providing server device 300 are used.
  • the audio content and the tactile content obtained as the audio content from the content providing server device 300 can be supplied to the content use device 500 in a synchronized state.
  • FIG. 32 is a block diagram illustrating a functional configuration example of a content providing system according to a fifth configuration example.
  • components having the same functions as those shown in FIGS. 28 and 31 are denoted by the same reference numerals.
  • the content acquisition device 200 includes an instruction transmission unit 205, an audio content reception unit 208, and an audio content storage unit 209.
  • the content providing server device 300 includes a haptic content acquisition unit 11, a tactile mode designation unit 13, an instruction reception unit 303, and an audio content transmission unit 306.
  • the haptic content acquisition unit 11 is different from any of the various configurations described in the first and second embodiments, and includes an audio content reading unit 181 and an audio content storage unit 182.
  • the acoustic content storage unit 182 of the haptic content acquisition unit 11 stores acoustic content according to the tactile mode, which is audio content including haptic content and audio content.
  • the audio content storage unit 182 is a non-volatile storage medium such as a hard disk or a semiconductor memory, and can continue to store audio content unless the user explicitly gives an instruction to delete.
  • the audio content referred to here is a combination of audio content and tactile content corresponding to a tactile mode corresponding to the tactile feature amount of the audio content. This is the content whose content is the second channel information.
  • the audio content reading unit 181 reads the audio content corresponding to the tactile mode specified by the tactile mode specification unit 13 from one or more audio contents stored in the audio content storage unit 182.
  • the specification of the touch mode by the touch mode specifying unit 13 is performed by receiving the instruction of the content providing server device 300 from the instruction transmitting unit 205 of the content acquisition device 200, similarly to the first configuration example illustrated in FIG. 28. This is performed according to an instruction related to selection of audio content transmitted to unit 303.
  • the tactile mode may be designated in accordance with the user's instruction related to the selection of the tactile mode transmitted from the instruction transmitting unit 205 of the content acquisition device 200 to the instruction receiving unit 303 of the content providing server device 300. All of these instructions correspond to “instructions regarding acquisition of tactile content”.
  • the audio content transmission unit 306 transmits the audio content acquired by the haptic content acquisition unit 11 (that is, read from the audio content recording unit 182 by the audio content reading unit 181) to the content acquisition device 200.
  • the audio content receiving unit 208 of the content acquisition device 200 receives the audio content transmitted by the audio content transmitting unit 306 of the content providing server device 300.
  • the audio content storage unit 209 stores the audio content received by the audio content reception unit 208.
  • the configuration of the haptic content acquisition unit 11 shown in FIG. 32 can be applied to the content supply device 100 shown in the first embodiment and the second embodiment.
  • the configuration of FIG. 32 is employed as the configuration of the haptic content acquisition unit 11 shown in FIGS. 2A to 2C, the audio content acquisition unit 14 and the audio content supply unit 15 are omitted, and the haptic content supply unit 12 is used instead. It is possible to provide an audio content supply unit.
  • the configuration of FIG. 32 is adopted as the configuration of the haptic content acquisition unit 11 shown in FIGS. 25 and 26, and the audio content acquisition unit 14, the audio content supply unit 15, and the audio content recording unit 16 are omitted, and the haptic content acquisition unit 11 is omitted. It is possible to provide an audio content supply unit instead of the supply unit 12.
  • the configuration of FIG. 32 may be adopted as the configuration of the haptic content acquisition unit 11 shown in FIG. 27, and an audio content supply unit may be provided instead of the haptic content supply unit 12.
  • the configuration in which the content obtaining apparatus 200 is connected to the content providing server apparatus 300 has been described.
  • the content obtaining apparatus 200 obtains and stores the content from the content providing server apparatus 300.
  • a function of supplying the acquired content to the content using device 500 may be further provided.
  • FIG. 33 is a block diagram illustrating a functional configuration example of a content supply device 100 according to the fourth embodiment. 33, components having the same functions as the components shown in FIG. 25 are denoted by the same reference numerals.
  • the fourth embodiment will be described as a modification to FIG. 25, but it is also possible to apply a mode (FIGS. 2A and 2C) different from that of FIG. Further, the fourth embodiment can be applied as a modification example of FIG.
  • the content supply device 100 includes, as its functional components, a haptic content acquisition unit 11, a tactile mode designation unit 13A, an audio content acquisition unit 14, an audio content generation unit 18, an audio content generation unit 18, The content providing unit 19 and the information providing unit 20 are provided.
  • the haptic content acquisition unit 11 is a haptic content corresponding to the haptic mode specified by the haptic mode specifying unit 13A, and a haptic content corresponding to the haptic parameter relating to the audio content selected by the user. You will get
  • the tactile content according to the tactile mode specified by the tactile mode specifying unit 13A is the tactile specified based on the analysis result (tactile feature amount) of the audio content selected by the user.
  • the tactile mode selected by the user operation may be a tactile mode having a tactile property unrelated to the tactile feature value of the audio content.
  • the “tactile content according to the tactile parameter related to the audio content selected by the user” means that the tactile content is obtained when the audio content selected by the user is acquired from the target information acquisition unit 1133 ′ in FIG. 14C or 18C.
  • the audio content generation unit 18 has the same function as the audio content generation unit 305 shown in FIG. That is, the audio content generation unit 18 generates an audio content by combining the audio content acquired by the audio content acquisition unit 14 and the haptic content acquired by the haptic content acquisition unit 11. For example, the audio content generation unit 18 generates audio content using the audio content acquired by the audio content acquisition unit 14 as first channel information and using the haptic content acquired by the haptic content acquisition unit 11 as second channel information. .
  • the audio content supply unit 19 supplies the audio content acquired by the audio content acquisition unit 18 to the content use device 500.
  • a configuration for supplying audio content to the content using device 500 is shown, but the haptic content supply unit 12 and the audio content supply unit 15 are provided similarly to FIG. You may make it supply to the use apparatus 500.
  • the information providing unit 20 provides the user with information on a predetermined physical effect or psychological effect expected when the vibration of the haptic content acquired by the haptic content acquiring unit 11 is presented to the user.
  • the physical effect or the psychological effect is an effect that can be caused by the “tactile content according to the tactile parameter related to the audio content selected by the user”.
  • the tactile parameter generated from the audio content represents one element of the tactile sensation as described above.
  • the tactile content generated from the tactile content read from the tactile content storage units 1132 and 1142 based on the tactile parameter also represents a predetermined tactile sensation.
  • the tactile sensation represented by the tactile parameter is based on a tactile pair such as ⁇ hard-soft> or ⁇ rough-smooth>. For this reason, for example, a physical effect or a psychological effect expected when a vibration is presented to a user based on tactile content composed of “vibration information having a hard touch” and “vibration information having a soft touch” When the vibration is presented to the user based on the tactile content, the physical effect or the psychological effect expected is different.
  • the information providing unit 20 obtains the selected audio content as target information of the tactile content obtaining unit 11.
  • the unit 1133 'generates haptic content by inputting the target information the unit 1133' provides the user with information on a predetermined physical effect or psychological effect expected from the haptic content.
  • the method of presenting information is arbitrary, but a form in which information is displayed on the display of the content supply device 100 is considered as an example.
  • table information created based on the results of a test or the like performed in advance is stored, and the information providing unit 20 stores the table information. Confirm by reference.
  • FIG. 34 is a diagram illustrating an example of an information providing screen provided by the information providing unit 20 to the display of the content supply device 100.
  • the name of the audio content selected by the user, the tactile mode specified by the tactile mode specifying unit 13, and the audio content selected by the user are stored in the tactile content acquisition unit 11. Displays the physical effect or psychological effect (vibration effect) expected when the haptic content is generated using the object information as attribute information. That is, the name of the audio content selected by the user is “ABC”, the tactile mode specified by the tactile mode specifying unit 13 is “fluffy mode”, and the tactile sensation generated by the audio content selected by the user as the target information. “Sleep” is displayed as the content vibration effect.
  • the tactile mode designated by analyzing the tactile parameter of the audio content selected by the user is displayed, and has a “fluffy” tactile sensation and a “sleep” vibration. This indicates that the haptic content having an effect is acquired by the haptic content acquiring unit 11.
  • a desired tactile mode for example, “smooth mode”
  • the tactile content having the “smooth” tactile sensation and the “sleeping” vibration effect is output to the tactile content acquisition unit. 11.
  • the display of the tactile mode on the information provision screen of FIG. 34 is the “smooth mode”.
  • the fourth embodiment it is possible to present to the user what physical effect or psychological effect is expected from the haptic content acquired by the haptic content acquiring unit 11.
  • the information on the tactile mode is also presented as shown in FIG. 34, the user has what tactile sensation acquired by the haptic content acquisition unit 11 and what physical effect or It is possible to grasp whether a psychological effect is expected. This makes it easier for the user to obtain the desired tactile content, thereby improving user convenience.
  • the information providing unit 20 has been described as being included in the content supply device 100. However, the information providing unit 20 may be included in the content acquisition device 200.
  • n 2 and the two tactile parameters are the first tactile parameter relating to the intensity of the information and the second tactile parameter relating to the length of the divided section of the information.
  • n may be 3 or more.
  • the tactile content corresponding to the combination of n tactile parameters is stored as an n-dimensional hierarchical space of three or more layers instead of the two-dimensional matrix space as shown in FIG. Will do.
  • the tactile parameter generation unit 1134 divides the target information acquired by the target information acquiring unit 1133 into a plurality of pieces, and from each of the divided sections, relates to the first tactile parameter relating to the intensity of the information and the length of the divided section. Using at least one of the second tactile parameters, it is possible to generate n (n ⁇ 2) tactile parameter combinations.
  • n 3
  • three different tactile parameters may be generated, or three different tactile parameters may be generated.
  • the target information acquisition unit 1133 inputs n types of target information. Then, the tactile parameter generation unit 1134 divides the input n types of target information into a plurality of pieces, and specifies the first tactile parameters one by one from each of the divided sections of the n types of target information. Generates a combination of n first tactile parameters.
  • the target information acquisition unit 1133 has input the following digital values for the three types of information of heart rate, acceleration (body movement), and blood flow as target information.
  • Heart rate 79, 60, 79, 75, 74, 79, 75 Acceleration: 40, 10, 30, 40, 35, 40, 20
  • Blood flow 80, 60, 40, 60, 80, 60, 80
  • the tactile parameter generation unit 1134 divides each of the three types of input target information for each input value, and specifies the first tactile parameter from each divided section of the three types of target information.
  • a combination of three first tactile parameters is generated as follows. ⁇ 79,40,80 ⁇ , ⁇ 60,10,60 ⁇ , ⁇ 79,30,40 ⁇ , ...
  • the tactile content reading units 1131 and 1141 specify the combination of the first tactile parameters generated in this manner, and specify the tactile content corresponding to the combination of ⁇ 79, 40, 80 ⁇ , and ⁇ 60 ⁇ , 10, 60 ⁇ , the tactile content corresponding to the combination of ⁇ 79, 30, 40 ⁇ ,... Are read from the tactile content storage units 1132, 1142.
  • the target information acquisition unit 1133 acquires n types of target information. Then, the tactile parameter generation unit 1134 divides each of the obtained n types of target information into a plurality of pieces, and specifies the second tactile parameter one by one from each divided section of the n types of target information. Generates a combination of n second tactile parameters.
  • the target information acquisition unit 1133 has input the same digital value as the above with respect to three types of information of heart rate, acceleration, and blood flow.
  • the tactile parameter generation unit 1134 divides each of the three types of target information into units until the same value is input, and divides each of the three types of target information into the second tactile information. By specifying the parameters, a combination of three second tactile parameters is generated.
  • the length of the divided section is 2, It becomes 3.
  • the value of the first “40” appears next three times, and the same value appears next two times later, so that the length of the divided section is 3,2.
  • the same value as the first “80” appears next four times, and the next same value appears two more times later, so the length of the divided section is 4,2.
  • the tactile parameter generation unit 1134 generates a combination of the second tactile parameters as ⁇ 2, 3, 4 ⁇ , ⁇ 3, 2, 2 ⁇ . Also, the tactile content reading units 1131 and 1141 specify the combination of the second tactile parameters generated in this way, and specify the tactile content corresponding to the combination of ⁇ 2, 3, 4 ⁇ , ⁇ 3, The tactile content corresponding to the combination of 2,2 ⁇ is read from the tactile content storage units 1132 and 1142.
  • one type of target information may be divided into a plurality of sections, and a plurality of tactile parameters relating to strength may be generated from each of the divided sections (for example, the maximum value of strength and the tactile parameter). The minimum value is used as the tactile parameter.)
  • the target information may be divided into a plurality of sections according to different methods, and the length of the divided section divided by each method may be used as the tactile parameter.
  • both the tactile parameter relating to the intensity and the tactile parameter relating to the length of the divided section may be combined and generated.
  • the tactile difference parameter difference value may be calculated. That is, the tactile difference parameter may be first-order difference information of the tactile parameter or m-th (m ⁇ 2) difference information.
  • n arithmetic operation values (values of hi / ti) are calculated for each of the plurality of divided sections, and the length of the section where the same arithmetic operation value appears is determined by the first tactile feature amount P1.
  • n arithmetic operation values values of hi / ti
  • the present invention is not limited to this.
  • four arithmetic operations using n tactile parameters are calculated for each of the divided sections, and an average value of m-order difference values (m ⁇ 1) of the four arithmetic operations calculated for each of the divided sections or
  • a representative value (such as a maximum value, a minimum value, or a median value) may be used as the first tactile feature amount P1.
  • n four arithmetic operation values (hi / ti values) are calculated for each of the divided sections, and the first-order difference value ⁇ (h2 / t2- (h1 / t1), (h3 / t3-h2 / t2),... ⁇ may be used as the first tactile feature amount P1.
  • the variance of a plurality of four arithmetic operation values (hi / ti values) calculated for each of a plurality of divided sections is calculated as an example of the diversity (second tactile feature amount P2).
  • the present invention is not limited to this.
  • a range from a minimum value to a maximum value of a plurality of four arithmetic operation values calculated for each divided section, or a set of the range and a median value may be calculated as the second tactile feature amount P2.
  • the information amount of a plurality of four arithmetic operation values calculated for each divided section may be calculated as the second tactile feature amount P2.
  • an example of the information amount can be entropy H (the average information amount of Shannon) calculated by the following equation.
  • p (e i ) indicates the occurrence probability of each of the four arithmetic operations.
  • a plurality of four arithmetic operation values (hi / ti values) calculated for a plurality of divided sections are as follows. 20,18,1,9,11,1,1,1,38,38,1,16
  • the variance is 191.8
  • the range is 37
  • the median is 16
  • the entropy is 0.48.
  • the tactile feature value calculation unit 132 can use the variance, the set of the range and the median, or the entropy calculated in this way as the second tactile feature value P2 representing the diversity of the four arithmetic operations. It is.
  • the second tactile feature value P2 When a pair of a range and a median is used as the second tactile feature value P2, there are two values as the second tactile feature value P2. When the first tactile feature amount P1 is combined, there are three values. In this case, the tactile mode may be specified based on the three tactile feature amounts. Alternatively, the second tactile feature value P2 may be replaced with one value by performing four arithmetic operations using the range and the median value.
  • the tactile feature value calculation unit 13 further calculates an m-th difference value (m ⁇ 1) of a plurality of four arithmetic operations calculated for each divided section, and substitutes the m-th difference value for the above-described four arithmetic operations. It may be used. That is, the length of the section where the same m-th difference value appears is calculated as the first tactile feature value P1, and the diversity of the m-th difference value is calculated as the second tactile feature value P2. Is also good.
  • a plurality of four arithmetic operation values (hi / ti values) calculated for a plurality of divided sections are as follows. 20,18,1,9,11,1,1,1,38,38,1,16
  • the tactile feature value calculation unit 132 may use the diversity of the plurality of m-th order difference values calculated in this way as the second tactile feature value P2.
  • the diversity of the m-th order difference value is calculated as the second tactile feature value P2
  • the variance, the range, the set of the range and the median, or the entropy of the plurality of m-th order differences are used as the diversity. Is possible.
  • the reason why the m-th order difference value is used is that the manner of changing the four arithmetic operations of the tactile parameter affects the tactile characteristic. For example, when a large value is included in the mth-order difference value, it means that there is a large change in the texture and the texture becomes hard. On the other hand, when a small value is included in the m-th order difference value, it means that there is a small change in the texture, and the texture becomes soft.
  • a combination of two types of tactile feature amounts is calculated.
  • a combination of three or more types of tactile feature amounts may be calculated.
  • the third type of tactile feature quantity for example, it is possible to use an average value (which may be a minimum value or a maximum value) of the lengths of the divided sections. It can be said that the average value or the like of the lengths of the divided sections indicates the tempo of the tactile sensation that the target information has potentially.
  • the tactile feature value calculation unit 132 further calculates the m-th difference value (m ⁇ 1) of the plurality of four arithmetic operations calculated for each divided section, and calculates the diversity of the m-th difference value.
  • the third tactile feature quantity may be further calculated. That is, the length of the section where the same four arithmetic operation values appear is defined as the first tactile feature amount, the diversity of the four arithmetic operation values is defined as the second tactile feature amount, and the diversity of the m-th order difference value is defined as the third tactile feature amount. It may be used as a tactile feature value.
  • the variance, range, set of range and median, or entropy of the plurality of m-th order difference values may be used as the diversity. It is possible.
  • a plurality of four arithmetic operation values (values of hi / ti) calculated for each of a plurality of target sections 1 and 2 for each of a plurality of divided sections are as follows.
  • Target information 1) 1, 2, 100, 1, 2, 100
  • Target information 2) 1, 2, 3, 1, 2, 3
  • P1 the number of sections until the same four arithmetic operation values appear
  • the third tactile feature in the target information 1 and 2 is obtained.
  • the quantities P3 are respectively as follows.
  • Target information 1): P3 98 (Absolute value of first floor difference value: 1,98,99,1,98)
  • Target information 2: P3 1 (Absolute value of first-order difference value: 1, 1, 2, 1, 1)
  • the tactile feature is added. It is possible to make a difference in the feature amount.
  • the tactile feature amount calculation unit 132 calculates four arithmetic operations using n tactile parameters for each divided section, and calculates the tactile feature using the four arithmetic operations. Although an example of calculation has been described, the present invention is not limited to this. For example, the tactile feature amount calculation unit 132 calculates, as the first tactile feature amount, the length of a section where the same one appears in the combination of the first tactile parameter and the second tactile parameter. The diversity of the combination of the first tactile parameter and the second tactile parameter may be calculated as the second tactile feature amount.
  • the tactile feature amount calculation unit 132 determines whether the tactile feature amount calculation unit 132 generates two or more sets of tactile characteristics generated by the tactile parameter generation unit 131. This is applied when the tactile feature amount is calculated based on the quality parameter.
  • the tactile feature amount calculation unit 132 ′ calculates a tactile feature amount based on two or more sets of tactile difference parameters generated by the tactile difference parameter generation unit 134. The above-described various modified examples can be similarly applied to the calculation.
  • each of the first to fourth embodiments described above is merely an example of a specific embodiment for carrying out the present invention, and the technical scope of the present invention should not be interpreted in a limited manner. It must not be. That is, the present invention can be implemented in various forms without departing from the gist or the main features thereof.

Abstract

The present invention comprises: a tactile-nature mode designating unit 13 that designates any one of a plurality of tactile-nature modes different in nature of feelings about a tactile sense; a tactile-sense content acquiring unit 11 that acquires tactile-sense content, which is vibration information generated so as to make a user imagine a prescribed feeling about the tactile sense, according to the tactile-nature mode designated by the tactile-nature designating unit 13; and a tactile-sense content supplying unit 12 that supplies the acquired tactile-sense content to a content-using device. The present invention provides environment where the user can easily use the tactile-sense content by appropriately providing, among a plurality of kinds of tactile-sense content that can be generated so as to make the user imagine various feelings about the tactile sense, the tactile-sense content that generates a particular tactile feeling by vibration to the user in accordance with the tactile-nature mode.

Description

コンテンツ供給装置、コンテンツ提供システム、コンテンツ提供サーバ装置、コンテンツ取得装置、コンテンツ提供方法およびコンテンツ提供用プログラムContent supply device, content providing system, content providing server device, content acquisition device, content providing method, and content providing program
 本発明は、コンテンツ供給装置、コンテンツ提供システム、コンテンツ提供サーバ装置、コンテンツ取得装置、コンテンツ提供方法およびコンテンツ提供用プログラムに関し、特に、触覚に関する所定の感覚をユーザにイメージさせるように生成された振動情報である触覚コンテンツを提供または利用する装置、当該装置を含むシステム等に関するものである。 The present invention relates to a content providing device, a content providing system, a content providing server device, a content obtaining device, a content providing method, and a content providing program, and in particular, vibration information generated so as to make a user sense a predetermined sense of touch. The present invention relates to an apparatus for providing or using haptic content, and a system including the apparatus.
 人間が有する五感のうち、視覚および聴覚を利用したものが情報伝達の手段として広く提供されてきた。視覚および聴覚を利用した情報伝達メディアは多種多様であり、その発達には目覚しいものがある。これに対し、触覚を利用した情報伝達メディアとしては、視覚および聴覚を利用した情報伝達メディアに比べて発達の程度はかなり低い。 五 Of the five senses possessed by humans, those utilizing visual and auditory senses have been widely provided as means of information transmission. There is a wide variety of communication media using visual and auditory senses, and their development is remarkable. On the other hand, the degree of development of the tactile communication media is considerably lower than that of the visual and auditory communication media.
 このような実情の中、視覚または聴覚で感じる情報を触覚から伝えようとする感覚代行技術の研究が行われてきた。すなわち、視覚情報は眼から、聴覚情報は耳から伝わるのが一般的であるが、これらの情報を触覚から伝えようとする試みがなされている。しかしながら、視覚情報や聴覚情報に関して、入力信号(マイクより入力される音声信号、センサにより検出されるセンサ信号など)の値を単に所定の規則に従って触覚情報に変換するだけでは、触覚によって何らかの情報を伝達することが十分にできない。 (4) Under such circumstances, research has been conducted on sensory substitution techniques for transmitting information that is sensed visually or by hearing from the sense of touch. That is, it is common that visual information is transmitted from the eyes, and auditory information is transmitted from the ears. Attempts have been made to transmit such information from the sense of touch. However, with regard to visual information and auditory information, simply converting the value of an input signal (a sound signal input from a microphone, a sensor signal detected by a sensor, etc.) into tactile information in accordance with a predetermined rule does not provide any information by tactile sense. Not enough to communicate.
 このような実情に鑑みて、本発明者は、触感として真に有意な触覚情報、例えば受け手にとって意味のあるメッセージを触覚効果によって伝えることが可能な触覚コンテンツを生成する技術を考案した(例えば、特許文献1,2参照)。
特開2018-29802号公報 特開2018-32236号公報
In view of such circumstances, the present inventor has devised a technique for generating haptic information that can transmit truly meaningful tactile information as a tactile sensation, for example, a message meaningful to a recipient by a haptic effect (for example, Patent Documents 1 and 2).
JP 2018-29802 A JP 2018-32236 A
 上記特許文献1,2では、触覚コンテンツを生成する技術については開示しているが、触覚コンテンツの提供方法や利用方法については詳しく開示していない。例えば、触覚に関する様々な感覚をユーザにイメージさせるように生成された複数種類の触覚コンテンツをユーザに対してどのように提供するかについては開示していない。そこで、本発明は、ユーザが触覚コンテンツを利用しやすい環境を提供することを目的とする。 The above Patent Documents 1 and 2 disclose techniques for generating haptic content, but do not disclose in detail how to provide and use haptic content. For example, it does not disclose how to provide a user with a plurality of types of haptic contents generated to make the user image various sensations related to haptics. Therefore, an object of the present invention is to provide an environment in which a user can easily use tactile contents.
 上記した課題を解決するために、例えば本発明のコンテンツ供給装置では、触覚に関する感覚の性質が異なる複数の触質モードのうち何れかを指定する触質モード指定部を設け、触覚に関する所定の感覚をユーザにイメージさせるように生成された振動情報である触覚コンテンツであって、触質モード指定部により指定された触質モードに応じた触覚コンテンツを取得し、当該取得した触覚コンテンツをコンテンツ利用機器に供給するようにしている。 In order to solve the above-described problem, for example, in the content supply device of the present invention, a tactile mode designating unit that designates one of a plurality of tactile modes having different characteristics of tactile sensation is provided, and a predetermined tactile sensation is provided. Content that is vibration information generated so as to cause the user to image the haptic content according to the tactile mode specified by the tactile mode specifying unit, and the obtained haptic content is used as a content-using device. To supply it.
 上記のように構成した本発明によれば、触覚に関する様々な感覚をユーザにイメージさせるように生成され得る複数種類の触覚コンテンツのうち、振動によって特定の触感を生じさせる触覚コンテンツを触質モードに応じてユーザに適切に提供することが可能となる。これにより、ユーザが触覚コンテンツを利用しやすい環境を提供することができる。 According to the present invention configured as described above, among a plurality of types of haptic contents that can be generated to cause the user to image various sensations related to haptics, a haptic content that generates a specific tactile sensation by vibration is set to the tactile mode. It can be appropriately provided to the user accordingly. Thereby, an environment in which the user can easily use the tactile content can be provided.
コンテンツ供給装置とコンテンツ利用機器との関係を模式的に示す図である。FIG. 2 is a diagram schematically illustrating a relationship between a content supply device and a content use device. 第1の実施形態によるコンテンツ供給装置の機能構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a functional configuration example of the content supply device according to the first embodiment. 第1の実施形態によるコンテンツ供給装置の機能構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a functional configuration example of the content supply device according to the first embodiment. 第1の実施形態によるコンテンツ供給装置の機能構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a functional configuration example of the content supply device according to the first embodiment. 触質モード指定部の機能構成例を示すブロック図である。It is a block diagram showing an example of functional composition of a tactile mode designation part. 触質パラメータ生成部による処理内容の一例を説明するための図である。FIG. 9 is a diagram for describing an example of processing contents by a tactile parameter generation unit. モード指定部による触質モードの指定内容の一例を示す図である。It is a figure showing an example of the specification contents of the tactile mode by the mode specification part. 第1構成例に係る触覚コンテンツ取得部の機能構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a functional configuration example of a haptic content acquisition unit according to a first configuration example. 第1構成例に係る触覚コンテンツ取得部を用いたコンテンツ供給装置の動作例を示すフローチャートである。5 is a flowchart illustrating an operation example of the content supply device using the haptic content acquisition unit according to the first configuration example. 第2構成例に係る触覚コンテンツ取得部の機能構成例を示すブロック図である。It is a block diagram showing the example of functional composition of the tactile content acquisition part concerning the 2nd example of composition. 振動波形加工部の処理内容を模式的に示すイメージ図である。It is an image figure which shows the processing content of a vibration waveform processing part typically. 振動波形加工部の機能構成例を示すブロック図である。It is a block diagram showing an example of functional composition of a vibration waveform processing part. 特徴抽出部および重み情報生成部の処理内容を説明するための図である。FIG. 5 is a diagram for explaining processing contents of a feature extraction unit and a weight information generation unit. 振動波形加工部により加工された触覚コンテンツの波形情報を音声コンテンツの波形情報と共に示す図である。It is a figure which shows the waveform information of the haptic content processed by the vibration waveform processing part with the waveform information of the audio content. 第2構成例に係る触覚コンテンツ取得部を用いたコンテンツ供給装置の動作例を示すフローチャートである。9 is a flowchart illustrating an operation example of a content supply device using a haptic content acquisition unit according to a second configuration example. 第3構成例に係る触覚コンテンツ取得部の機能構成例を示すブロック図である。It is a block diagram showing the example of functional composition of the tactile content acquisition part concerning the 3rd example of composition. 第3構成例に係る触覚コンテンツ取得部の機能構成例を示すブロック図である。It is a block diagram showing the example of functional composition of the tactile content acquisition part concerning the 3rd example of composition. 第3構成例に係る触覚コンテンツ取得部の機能構成例を示すブロック図である。It is a block diagram showing the example of functional composition of the tactile content acquisition part concerning the 3rd example of composition. 触質コンテンツ記憶部が記憶する触質コンテンツの記憶例を模式的に示す図である。FIG. 4 is a diagram schematically illustrating a storage example of tactile content stored in a tactile content storage unit. 第3構成例に係る触覚コンテンツ取得部を用いたコンテンツ供給装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the content supply apparatus using the tactile content acquisition part concerning the 3rd structural example. 第3構成例に係る触覚コンテンツ取得部を用いたコンテンツ供給装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the content supply apparatus using the tactile content acquisition part concerning the 3rd structural example. 第4構成例に係る触覚コンテンツ取得部の機能構成例を示すブロック図である。It is a block diagram showing the example of functional composition of the tactile content acquisition part concerning the 4th example of composition. 第4構成例に係る触覚コンテンツ取得部の機能構成例を示すブロック図である。It is a block diagram showing the example of functional composition of the tactile content acquisition part concerning the 4th example of composition. 第4構成例に係る触覚コンテンツ取得部の機能構成例を示すブロック図である。It is a block diagram showing the example of functional composition of the tactile content acquisition part concerning the 4th example of composition. 繰り返し抽出部による繰り返しパターンの判定アルゴリズムを説明するための図である。FIG. 9 is a diagram for describing a repetition pattern determination algorithm by a repetition extraction unit. 第4構成例に係る触覚コンテンツ取得部を用いたコンテンツ供給装置の動作例を示すフローチャートである。It is a flow chart which shows an example of operation of a contents supply device using a tactile contents acquisition part concerning a 4th example of composition. ヒストグラム情報を対象情報とした場合における触質パラメータ生成部による処理内容の一例を説明するための図である。It is a figure for explaining an example of the contents of processing by a tactile parameter generation part at the time of using histogram information as object information. 画像情報を対象情報とした場合における触質パラメータ生成部による処理内容の一例を説明するための図である。FIG. 7 is a diagram for describing an example of processing contents by a tactile parameter generation unit when image information is used as target information. テキスト情報を対象情報とした場合における触質パラメータ生成部による処理内容の一例を説明するための図である。FIG. 9 is a diagram for describing an example of processing contents by a tactile parameter generation unit when text information is used as target information. マッサージの動作情報を入力した場合における触質パラメータ生成部による処理内容の一例を説明するための図である。It is a figure for explaining an example of processing contents by a tactile parameter generation part at the time of inputting massage operation information. 第2の実施形態によるコンテンツ供給装置の機能構成例を示すブロック図である。It is a block diagram showing an example of functional composition of a contents supply device by a 2nd embodiment. 第2の実施形態によるコンテンツ供給装置の機能構成例を示すブロック図である。It is a block diagram showing an example of functional composition of a contents supply device by a 2nd embodiment. 第2の実施形態によるコンテンツ供給装置の機能構成例を示すブロック図である。It is a block diagram showing an example of functional composition of a contents supply device by a 2nd embodiment. 第3の実施形態によるコンテンツ提供システムの機能構成例を示すブロック図である。It is a block diagram showing the example of functional composition of the contents providing system by a 3rd embodiment. 第3の実施形態によるコンテンツ提供システムの機能構成例を示すブロック図である。It is a block diagram showing the example of functional composition of the contents providing system by a 3rd embodiment. 第3の実施形態によるコンテンツ提供システムの機能構成例を示すブロック図である。It is a block diagram showing the example of functional composition of the contents providing system by a 3rd embodiment. 第3の実施形態によるコンテンツ提供システムの機能構成例を示すブロック図である。It is a block diagram showing the example of functional composition of the contents providing system by a 3rd embodiment. 第3の実施形態によるコンテンツ提供システムの機能構成例を示すブロック図である。It is a block diagram showing the example of functional composition of the contents providing system by a 3rd embodiment. 第4の実施形態によるコンテンツ提供システムの機能構成例を示すブロック図である。It is a block diagram showing the example of functional composition of the contents providing system by a 4th embodiment. 第4の実施形態による情報提供部により提供される情報提供画面の一例を示す図である。It is a figure showing an example of the information offer screen provided by the information offer part by a 4th embodiment.
(第1の実施形態)
 以下、本発明の第1の実施形態を図面に基づいて説明する。第1の実施形態では、触覚に関する所定の感覚をユーザにイメージさせるように生成された振動情報である触覚コンテンツをコンテンツ利用機器に供給するためのコンテンツ供給装置について説明する。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. In the first embodiment, a description will be given of a content supply device for supplying a tactile content, which is vibration information generated to cause a user to image a predetermined tactile sensation, to a content using device.
 図1は、本実施形態によるコンテンツ供給装置100と、当該コンテンツ供給装置100から供給される触覚コンテンツを利用するコンテンツ利用機器500との関係を模式的に示す図である。 FIG. 1 is a diagram schematically showing a relationship between a content supply device 100 according to the present embodiment and a content use device 500 that uses tactile content supplied from the content supply device 100.
 図1(a)に示すように、本実施形態のコンテンツ供給装置100は、コンテンツ利用機器500に対して有線で接続され得る。この場合、コンテンツ供給装置100は、触覚コンテンツを有線のケーブル等を介してコンテンツ利用機器500に供給する。 As shown in FIG. 1A, the content supply device 100 of the present embodiment can be connected to the content use device 500 by wire. In this case, the content supply device 100 supplies the haptic content to the content use device 500 via a wired cable or the like.
 また、図1(b)に示すように、本実施形態のコンテンツ供給装置100は、コンテンツ利用機器500に対して無線で接続され得る。この場合、コンテンツ供給装置100は、所定の無線規格による通信を利用して触覚コンテンツをコンテンツ利用機器500に供給する。 As shown in FIG. 1B, the content supply device 100 of the present embodiment can be wirelessly connected to the content use device 500. In this case, the content supply device 100 supplies the haptic content to the content use device 500 using communication according to a predetermined wireless standard.
 また、図1(c)に示すように、本実施形態のコンテンツ供給装置100は、コンテンツ利用機器の中に内蔵あるいはコンテンツ利用機器500に装着し得る。この場合、コンテンツ供給装置100は、コンテンツ利用機器500が有する内部バスや信号線などを介して、コンテンツ利用機器500の振動付与部に触覚コンテンツの振動情報を供給する。 {Circle around (1)} As shown in FIG. 1C, the content supply device 100 according to the present embodiment can be built in a content using device or attached to the content using device 500. In this case, the content supply device 100 supplies the vibration information of the haptic content to the vibration imparting unit of the content use device 500 via an internal bus or a signal line of the content use device 500.
 コンテンツ利用機器500は、振動を媒体として所与の機能を発揮する機能を少なくとも有する機器である。例えば、マッサージ器、美容器、車載機器、家電、音響機器、VR(仮想現実)やAR(拡張現実)、MR(複合現実)などの仮想体験型機器、医療機器、福祉用機器、玩具、ゲーム機またはそのコントローラ、スイッチやボタン、振動アラーム、振動フィードバック付きタッチパネルなどが該当する。 The content utilization device 500 is a device having at least a function of exerting a given function using vibration as a medium. For example, massage devices, beauty devices, in-vehicle devices, home appliances, audio devices, virtual experience devices such as VR (virtual reality), AR (augmented reality), and MR (mixed reality), medical devices, welfare devices, toys, games Machine or its controller, switches and buttons, vibration alarm, touch panel with vibration feedback, etc.
 なお、ここに挙げた機器はコンテンツ利用機器500のほんの一例であり、これらに限定されるものではない。また、コンテンツ利用機器500は、専ら振動を媒体として所与の動作をする機能を備えた機器であってもよいし、振動以外の情報(例えば、音声、映像など)を媒体として所与の動作をする機能を更に備えた機器であってもよい。 The devices listed here are only examples of the content use device 500, and the present invention is not limited to these. In addition, the content use device 500 may be a device having a function of performing a given operation exclusively using vibration as a medium, or a device that performs a given operation using information other than vibration (eg, audio, video, etc.) as a medium. It may be a device further provided with a function of performing the following.
 コンテンツ供給装置100は、少なくとも触覚コンテンツを記憶し(後述するように、外部装置から受信したものを保存あるいは一時的に記憶する場合を含む)、記憶した触覚コンテンツをコンテンツ利用機器500に供給する機能を有するものであればよい。あるいは、コンテンツ供給装置100は、触覚コンテンツを生成するために必要な情報を記憶し(これについても、外部装置から受信したものを保存あるいは一時的に記憶する場合を含む)、当該情報から触覚コンテンツを生成してコンテンツ利用機器500に供給する機能を有するものであってもよい。 The content supply device 100 has a function of storing at least the haptic content (including a case where the content received from the external device is stored or temporarily stored as described later) and supplying the stored haptic content to the content using device 500. What is necessary is just to have. Alternatively, the content supply device 100 stores information necessary for generating the haptic content (including the case where the content received from the external device is stored or temporarily stored), and the haptic content is obtained from the information. May be generated and provided to the content use device 500.
 以上のような機能を有するコンテンツ供給装置100として、例えば、パーソナルコンピュータ、スマートフォン、タブレット端末、サーバ装置、車載機、ゲーム機など、または本実施形態のコンテンツ提供用に作製した専用端末を用いることが可能である。図1(c)のようにコンテンツ利用機器500がコンテンツ供給装置100を内蔵または装着する形態の場合は、コンテンツ供給装置100は、上述のように例示したマッサージ器、美容器、車載機器、家電、音響機器、VR/AR/MR用機器、医療機器、福祉用機器、玩具、ゲーム機、さらにはパーソナルコンピュータやスマートフォン、タブレット端末、サーバ装置などが備える構成であってもよい。 As the content supply device 100 having the functions as described above, for example, a personal computer, a smartphone, a tablet terminal, a server device, an in-vehicle device, a game machine, or the like, or a dedicated terminal created for providing the content of the present embodiment may be used. It is possible. In the case where the content use device 500 incorporates or mounts the content supply device 100 as shown in FIG. 1C, the content supply device 100 includes the massage device, the beauty device, the in-vehicle device, the home appliance, A configuration in which an audio device, a VR / AR / MR device, a medical device, a welfare device, a toy, a game machine, a personal computer, a smartphone, a tablet terminal, a server device, and the like may be provided.
 図2A~図2Cは、第1の実施形態によるコンテンツ供給装置100の機能構成例を示すブロック図である。ここでは一例として、コンテンツ供給装置100は、触覚コンテンツの他に音声コンテンツをコンテンツ利用機器500に供給するものであるとして説明する。なお、本明細書において、音声コンテンツとは、音声を含むコンテンツのことであり、例えば音楽、発話、効果音、アラーム音などの音声のみを主データとするコンテンツに限らず、動画や映像など他のコンテンツに付随する音声コンテンツであってもよい。 FIGS. 2A to 2C are block diagrams showing a functional configuration example of the content supply device 100 according to the first embodiment. Here, as an example, description will be given assuming that the content supply device 100 supplies audio content to the content use device 500 in addition to the tactile content. In this specification, audio content is content including audio, and is not limited to content having only audio as main data, such as music, speech, sound effects, and alarm sounds. May be audio contents attached to the content.
 図2A~図2Cに示すように、第1の実施形態によるコンテンツ供給装置100は、その機能構成として、触覚コンテンツ取得部11、触覚コンテンツ供給部12、触質モード指定部13、音声コンテンツ取得部14および音声コンテンツ供給部15を備えている。 As shown in FIGS. 2A to 2C, the content supply device 100 according to the first embodiment has, as its functional configuration, a haptic content acquisition unit 11, a haptic content supply unit 12, a tactile mode designation unit 13, an audio content acquisition unit. 14 and an audio content supply unit 15.
 上記各機能ブロック11~15は、ハードウェア、DSP(Digital Signal Processor)、ソフトウェアの何れによっても構成することが可能である。例えばソフトウェアによって構成する場合、上記各機能ブロック11~15は、実際にはコンピュータのCPU、RAM、ROMなどを備えて構成され、RAMやROM、ハードディスクまたは半導体メモリ等の記録媒体に記憶されたコンテンツ提供用プログラムが動作することによって実現される。 Each of the functional blocks 11 to 15 can be configured by any of hardware, DSP (Digital Signal Processor), and software. For example, when configured by software, each of the functional blocks 11 to 15 is actually configured to include a CPU, a RAM, a ROM, and the like of a computer, and is stored in a storage medium such as a RAM, a ROM, a hard disk, or a semiconductor memory. This is realized by the operation of the providing program.
 音声コンテンツ取得部14は、ユーザからの音声コンテンツの選択に係る指示に応じて、音声コンテンツを取得する。ここでいう音声コンテンツの選択は、音声コンテンツが付随している動画や映像などのコンテンツを選択することを含む。また、図1(c)に示すタイプのコンテンツ利用機器500として音声合成装置などを用いる場合は、音声合成の元の情報を選択すること(例えば、文章などを音声合成する場合におけるテキスト情報の選択や、機能説明の読み上げ等を合成音声にて行う場合における各種機能ボタンの選択など)も音声コンテンツの選択の一例として含まれる。この場合、合成された音声が音声コンテンツに相当する。 (4) The audio content acquisition unit 14 acquires audio content in response to an instruction from the user for selecting audio content. Here, the selection of the audio content includes selecting a content such as a moving image or a video accompanied by the audio content. When a speech synthesizing device or the like is used as the content utilization device 500 of the type shown in FIG. 1C, the original information of speech synthesis is selected (for example, selection of text information in the case of speech synthesis of a sentence or the like). And selection of various function buttons when a function description is read out using synthesized speech, etc.) is also included as an example of selection of speech content. In this case, the synthesized speech corresponds to the speech content.
 図2Aおよび図2Bの例において、音声コンテンツ取得部14は、音声コンテンツ読出部141および音声コンテンツ記憶部142を備えている。音声コンテンツ記憶部142は、ハードディスク、半導体メモリ等の不揮発性の記憶媒体であり、ユーザが明示的に消去の指示をしなければ音声コンテンツを保存し続けることが可能である。 2A and 2B, the audio content acquisition unit 14 includes an audio content reading unit 141 and an audio content storage unit 142. The audio content storage unit 142 is a non-volatile storage medium such as a hard disk, a semiconductor memory, or the like, and can continue to store audio content unless a user explicitly gives an instruction for deletion.
 音声コンテンツ読出部141は、音声コンテンツ記憶部142に記憶されている1以上の音声コンテンツの中から、ユーザ操作により選択された音声コンテンツを読み出すことによって音声コンテンツを取得する。ユーザ操作による音声コンテンツの選択は、例えば、コンテンツ供給装置100またはコンテンツ利用機器500が備える操作部、あるいはコンテンツ供給装置100またはコンテンツ利用機器500がディスプレイ上に提供する所定のグラフィカルユーザインタフェースをユーザが操作することによって行うことが可能である。 (4) The audio content reading unit 141 acquires audio content by reading audio content selected by a user operation from one or more audio contents stored in the audio content storage unit 142. The selection of the audio content by the user operation is performed by, for example, a user operating an operation unit provided in the content supply device 100 or the content use device 500, or a predetermined graphical user interface provided on the display by the content supply device 100 or the content use device 500. It can be done by doing.
 なお、図2Aは、1以上の音声コンテンツが音声コンテンツ記憶部142にあらかじめ記憶されている形態を示している。また、図2Bは、コンテンツ供給装置100が外部装置(例えば、サーバ)700と通信ネットワーク600を介して接続可能に構成され、外部装置700から通信ネットワーク600を介して所望の音声コンテンツを受信して音声コンテンツ記憶部142に記憶させる機能を備えた形態を示している。すなわち、図2Bの例において、触覚コンテンツ取得部11は、音声コンテンツ記録部16を更に備えている。音声コンテンツ記録部16は、外部装置700から通信ネットワーク600を介して音声コンテンツを受信して音声コンテンツ記憶部142に記憶させる。ユーザは、好みの音声コンテンツを外部装置700からダウンロードして音声コンテンツ記憶部142に保存しておくことが可能である。 FIG. 2A shows a form in which one or more audio contents are stored in the audio content storage unit 142 in advance. FIG. 2B shows that the content supply device 100 is configured to be connectable to an external device (for example, a server) 700 via a communication network 600, and receives desired audio content from the external device 700 via the communication network 600. The figure shows a mode provided with a function to be stored in the audio content storage unit 142. That is, in the example of FIG. 2B, the haptic content acquisition unit 11 further includes the audio content recording unit 16. The audio content recording unit 16 receives audio content from the external device 700 via the communication network 600 and stores the audio content in the audio content storage unit 142. The user can download the favorite audio content from the external device 700 and save it in the audio content storage unit 142.
 また、図2Cは、音声コンテンツ読出部141および音声コンテンツ記憶部142に代えて音声コンテンツ読出部141’および音声コンテンツ記憶部142’を備え、外部装置700から受信する音声コンテンツをコンテンツ利用機器500にストリーミング的に供給する形態を示している。この図2Cにおいて、音声コンテンツ記憶部142’は、外部装置700から受信した音声コンテンツを一時的に記憶する記憶媒体であってよい。 2C includes an audio content reading unit 141 ′ and an audio content storage unit 142 ′ instead of the audio content reading unit 141 and the audio content storage unit 142, and transmits the audio content received from the external device 700 to the content using device 500. This shows a form in which streaming is provided. In FIG. 2C, the audio content storage unit 142 'may be a storage medium for temporarily storing audio content received from the external device 700.
 例えば、音声コンテンツ記録部16は、ユーザ操作により選択された音声コンテンツを外部装置700に通知する。音声コンテンツ読出部141’は、上記通知に対する応答として外部装置700から送信されて音声コンテンツ記憶部142’に一時的に記憶された音声コンテンツを読み出して音声コンテンツ供給部15に供給する。この場合、音声コンテンツ読出部141’および音声コンテンツ供給部15は、音声コンテンツ記憶部142’に一時的に記憶された音声コンテンツを読み出してコンテンツ利用機器500に供給する処理を、コンテンツ供給装置100が外部装置700から音声コンテンツを受信して音声コンテンツ記憶部142’に記憶させる処理と一連に行う。 For example, the audio content recording unit 16 notifies the external device 700 of the audio content selected by the user operation. The audio content reading unit 141 ′ reads the audio content transmitted from the external device 700 as a response to the notification and temporarily stored in the audio content storage unit 142 ′, and supplies the audio content to the audio content supply unit 15. In this case, the audio content reading unit 141 ′ and the audio content supply unit 15 read the audio content temporarily stored in the audio content storage unit 142 ′ and supply the audio content to the content using device 500 by the content supply device 100. The processing is performed in series with the processing of receiving audio content from the external device 700 and storing the audio content in the audio content storage unit 142 ′.
 なお、音声コンテンツ記憶部142,142’における音声コンテンツの記憶に関して図2A~図2Cの3つの形態があり得ることは、後述する第2の実施形態~第4の実施形態においても同様である。 2A to 2C regarding the storage of the audio content in the audio content storage units 142 and 142 'can be the same as in the second to fourth embodiments described later.
 音声コンテンツ供給部15は、音声コンテンツ取得部14により取得された音声コンテンツをコンテンツ利用機器500に供給する。コンテンツ利用機器500では、音声コンテンツ供給部15から供給された音声コンテンツに基づいて、音声をスピーカ等の音声出力部に出力する。音声コンテンツが映像を伴うものである場合、コンテンツ利用機器500は、音声コンテンツに基づいて音声をスピーカ等の音声出力部に出力するとともに、映像をディスプレイに出力する。 The audio content supply unit 15 supplies the audio content acquired by the audio content acquisition unit 14 to the content use device 500. The content use device 500 outputs a sound to a sound output unit such as a speaker based on the sound content supplied from the sound content supply unit 15. When the audio content is accompanied by a video, the content using device 500 outputs the audio to an audio output unit such as a speaker based on the audio content, and outputs the video to a display.
 触質モード指定部13は、触覚に関する感覚の性質が異なる複数の触質モードのうち何れかを指定する。本実施形態において、触質モード指定部13は、音声コンテンツ取得部14により取得された音声コンテンツを解析し、その解析結果に応じて触質モードを指定する。すなわち、触質モード指定部13は、音声コンテンツの波形情報が有している特徴を解析して、その特徴に応じた触質を表す触質モードを指定する。なお、この解析処理の詳細については後述する。 (4) The tactile mode designating unit 13 designates any one of a plurality of tactile modes having different sensational sensations. In the present embodiment, the tactile mode designating unit 13 analyzes the audio content acquired by the audio content acquiring unit 14, and designates the tactile mode according to the analysis result. That is, the tactile mode designating unit 13 analyzes a feature of the waveform information of the audio content, and designates a tactile mode representing a tactile quality according to the feature. The details of this analysis processing will be described later.
 触覚コンテンツ取得部11は、触質モード指定部13により指定された触質モードに応じた触覚コンテンツを取得する。なお、この触覚コンテンツの取得処理の詳細(複数のパターンがある)についても後述する。触覚コンテンツ供給部12は、触覚コンテンツ取得部11により取得された触覚コンテンツをコンテンツ利用機器500に供給する。コンテンツ利用機器500では、触覚コンテンツ供給部12から供給された触覚コンテンツに基づいて、振動を媒体とする所与の動作を実行する。 The haptic content acquisition unit 11 acquires haptic content according to the tactile mode specified by the tactile mode specification unit 13. The details of the tactile content acquisition processing (there are a plurality of patterns) will be described later. The haptic content supply unit 12 supplies the haptic content acquired by the haptic content acquisition unit 11 to the content use device 500. The content use device 500 executes a given operation using vibration as a medium based on the haptic content supplied from the haptic content supply unit 12.
 ここで、触覚コンテンツ取得部11は、例えば、ユーザにより音声コンテンツの選択操作が行われたときに、触覚コンテンツの取得を自動的に行う。この場合、音声コンテンツの選択操作に応じて、音声コンテンツ取得部14による音声コンテンツの取得と、触覚コンテンツ取得部11による触覚コンテンツの取得とが実行される。 Here, the haptic content acquisition unit 11 automatically acquires the haptic content when, for example, the user performs an operation of selecting the audio content. In this case, the acquisition of the audio content by the audio content acquisition unit 14 and the acquisition of the haptic content by the haptic content acquisition unit 11 are performed according to the operation of selecting the audio content.
 あるいは、触覚コンテンツ取得部11は、音声コンテンツの選択操作とは別に、触覚コンテンツの取得を指示する操作がユーザにより行われたときに、触覚コンテンツの取得を行うようにしてもよい。この場合、音声コンテンツ取得部14による音声コンテンツの取得と触覚コンテンツ取得部11による触覚コンテンツの取得とが非同期で実行される。 Alternatively, the haptic content acquisition unit 11 may acquire the haptic content when an operation for instructing acquisition of the haptic content is performed by the user separately from the operation of selecting the audio content. In this case, the acquisition of the audio content by the audio content acquisition unit 14 and the acquisition of the haptic content by the haptic content acquisition unit 11 are performed asynchronously.
 前者のように、音声コンテンツの選択操作に応じて触覚コンテンツの取得を自動的に行う場合は、コンテンツ供給装置100からコンテンツ利用機器500に対する触覚コンテンツの供給と、コンテンツ供給装置100からコンテンツ利用機器500に対する音声コンテンツの供給とを同時に行うことができる。これにより、コンテンツ利用機器500における触覚コンテンツに基づく振動の付与と、コンテンツ利用機器500における音声コンテンツに基づく音声の出力とを同時に行うことが、音声コンテンツの選択操作だけで簡単に実行可能である。 When the acquisition of the haptic content is automatically performed in response to the selection operation of the audio content as in the former case, the supply of the haptic content from the content supply device 100 to the content use device 500 and the supply of the haptic content from the content supply device 100 to the content use device 500 are performed. And the supply of audio content to. Accordingly, it is possible to easily perform the application of the vibration based on the tactile content in the content using device 500 and the output of the voice based on the audio content in the content using device 500 at the same time simply by selecting the audio content.
 これに対し、後者のように、音声コンテンツの選択操作と触覚コンテンツの取得指示操作とを別に行う場合でも、この2つの操作を並行することにより、コンテンツ供給装置100からコンテンツ利用機器500に対する触覚コンテンツの供給と音声コンテンツの供給とを同時に行うことが可能である。これに加え、音声コンテンツの選択操作だけを行うことにより、コンテンツ供給装置100からコンテンツ利用機器500に対して音声コンテンツの供給だけを行うことも可能である。 On the other hand, even when the operation of selecting audio content and the operation of instructing acquisition of tactile content are performed separately as in the latter case, the two operations are performed in parallel, so that the haptic content from the content supply device 100 to the content using device 500 is changed. And audio content can be simultaneously supplied. In addition to this, it is also possible to perform only the supply of the audio content from the content supply device 100 to the content using device 500 by performing only the selection operation of the audio content.
 以上のように音声コンテンツの選択操作と触覚コンテンツの取得指示操作とを別に行う場合において、音声コンテンツは触質モードを指定するための解析にのみ使用し、コンテンツ利用機器500には供給しないようにしてもよい。例えば、コンテンツ利用機器500が振動を媒体として動作する機能のみを有するものである場合、そのようなコンテンツ利用機器500に対する専用装置としてコンテンツ供給装置100を構成するような形態が考えられる。この場合、音声コンテンツ供給部15は省略してよい。 As described above, when the operation of selecting the audio content and the operation of instructing the acquisition of the tactile content are performed separately, the audio content is used only for the analysis for specifying the tactile mode, and is not supplied to the content using device 500. You may. For example, when the content use device 500 has only a function of operating using vibration as a medium, a form in which the content supply device 100 is configured as a dedicated device for such a content use device 500 can be considered. In this case, the audio content supply unit 15 may be omitted.
 なお、上述したように、触覚コンテンツ取得部11は触質モードに応じた触覚コンテンツを取得し、その触質モードは音声コンテンツを解析することによって指定されるので、音声コンテンツの選択操作と触覚コンテンツの取得指示操作とを別に行う構成としても、触覚コンテンツの取得指示操作を行うときは、基本的には音声コンテンツの選択操作も必要である。ただし、例えばデフォルトの触質モードを設定しておいて、触覚コンテンツの取得指示操作だけが行われた場合には、このデフォルトの触質モードに応じた触覚コンテンツを取得するようにしてもよい。 As described above, the haptic content acquisition unit 11 acquires the haptic content according to the haptic mode, and the haptic mode is specified by analyzing the audio content. Even if the acquisition instruction operation of the tactile content is performed separately from the acquisition instruction operation of the tactile content, the operation of selecting the audio content is basically required. However, for example, when the default tactile mode is set and only the acquisition instruction operation of the tactile content is performed, the tactile content according to the default tactile mode may be acquired.
 また、コンテンツ供給装置100が触覚コンテンツと音声コンテンツとをコンテンツ利用機器500に供給する際に、触覚コンテンツと音声コンテンツとの組み合わせにより音響コンテンツを生成するようにしてもよい。例えば、コンテンツ供給装置100は、触覚コンテンツ取得部11により取得された触覚コンテンツを第1チャネル情報とし、音声コンテンツ取得部14により取得された音声コンテンツを第2チャネル情報とする音響コンテンツを生成し、この音響コンテンツをコンテンツ利用機器500に供給するようにしてもよい。 When the content supply device 100 supplies the haptic content and the audio content to the content use device 500, the audio content may be generated by a combination of the haptic content and the audio content. For example, the content supply device 100 generates audio content using the haptic content acquired by the haptic content acquisition unit 11 as first channel information and the audio content acquired by the audio content acquisition unit 14 as second channel information, This audio content may be supplied to the content use device 500.
 なお、ここでは、触覚コンテンツと音声コンテンツとを同じコンテンツ利用機器500に供給する例を説明したが、これに限定されない。例えば、触覚コンテンツをコンテンツ利用機器500に供給する一方、音声コンテンツをコンテンツ利用機器500とは異なるコンテンツ利用機器(図示せず)に供給する構成としてもよい。例えば、触覚コンテンツをマッサージ器に供給し、音声コンテンツを音声再生装置に供給するといった構成が可能である。 Here, an example in which the tactile content and the audio content are supplied to the same content using device 500 has been described, but the present invention is not limited to this. For example, the configuration may be such that the haptic content is supplied to the content using device 500, while the audio content is supplied to a content using device (not shown) different from the content using device 500. For example, a configuration is possible in which tactile content is supplied to a massage device, and audio content is supplied to an audio reproducing device.
<触質モード指定部13の構成例>
 次に、触質モード指定部13の構成例について説明する。図3は、触質モード指定部13の機能構成例を示すブロック図である。ここでは、図3(a)および(b)において、触質モード指定部13に関して2つの構成例を示している。
<Example of configuration of touch mode designation unit 13>
Next, a configuration example of the touch mode designation unit 13 will be described. FIG. 3 is a block diagram illustrating an example of a functional configuration of the tactile-mode specifying unit 13. Here, FIGS. 3A and 3B show two examples of the structure of the tactile-mode specifying unit 13.
 図3(a)に示す例において、触質モード指定部13は、その機能構成として、触質パラメータ生成部131、触質特徴量算出部132およびモード指定部133を備えている。 In the example illustrated in FIG. 3A, the touch mode designation unit 13 includes a touch parameter generation unit 131, a touch feature amount calculation unit 132, and a mode designation unit 133 as functional components.
 触質パラメータ生成部131は、音声コンテンツ取得部14により取得された音声コンテンツの波形情報から、それぞれが触感の一要素を表したn個(n≧2)の触質パラメータの組み合わせを2組以上生成する。例えば、触質パラメータ生成部131は、音声コンテンツの波形情報から、情報の強度に関する第1の触質パラメータと、情報の分割区間の長さに関する第2の触質パラメータとの組み合わせを2組以上生成する。 The tactile parameter generation unit 131 uses the waveform information of the audio content acquired by the audio content acquisition unit 14 to select two or more combinations of n (n ≧ 2) tactile parameters each representing one element of the tactile sensation. Generate. For example, the tactile parameter generation unit 131 sets two or more combinations of the first tactile parameter relating to the intensity of the information and the second tactile parameter relating to the length of the information division section from the waveform information of the audio content. Generate.
 音声コンテンツの波形情報は、強度に相当する振幅が時間軸に沿って連続的(アナログ信号の場合)または断続的(デジタルデータの場合)に連なっている情報である。この場合、情報の強度に関する第1の触質パラメータは振幅、情報の分割区間の長さに関する第2の触質パラメータは、波形情報を時間軸方向に複数に分割した場合の各分割区間の時間の長さである。強度および分割区間の長さは、何れも触感の一要素(触感の強さ、長さ)を成すものである。 波形 The waveform information of audio content is information in which the amplitude corresponding to the intensity is continuous (in the case of an analog signal) or intermittent (in the case of digital data) along the time axis. In this case, the first tactile parameter relating to the intensity of the information is the amplitude, and the second tactile parameter relating to the length of the divided section of the information is the time of each divided section when the waveform information is divided into a plurality in the time axis direction. Is the length of Both the strength and the length of the divided section constitute one element of the tactile sensation (the strength and length of the tactile sensation).
 触質パラメータ生成部131は、まず、音声コンテンツの波形情報を時間軸方向に複数に分割する。次に、それぞれの分割区間から、分割区間内の代表振幅を第1の触質パラメータとして特定するとともに、分割区間の時間の長さを第2の触質パラメータとして特定することにより、第1の触質パラメータおよび第2の触質パラメータの組み合わせを2組以上生成する。 (1) The tactile parameter generation unit 131 first divides the waveform information of the audio content into a plurality of pieces in the time axis direction. Next, from each of the divided sections, the representative amplitude in the divided section is specified as the first tactile parameter, and the time length of the divided section is specified as the second tactile parameter, whereby the first tactile parameter is obtained. Two or more combinations of the tactile parameter and the second tactile parameter are generated.
 ここで、触質パラメータ生成部131は、音声コンテンツの波形情報の全域(音声コンテンツの最初から最後まで)を対象として触質パラメータの生成を行う。なお、音声コンテンツの波形情報の全域のうち、一部の区間を指定して触質パラメータの生成を行うようにしてもよい。区間の指定は、あらかじめ定めた所定のルールに従って行う。例えば、音声コンテンツの最初から所定時間分を指定するといったことが考えられる。あるいは、対象区間を示すメタ情報を音声コンテンツごとに記憶しておき、そのメタ情報に基づいて区間を指定するようにしてもよい。 Here, the tactile parameter generation unit 131 generates a tactile parameter for the entire area of the waveform information of the audio content (from the beginning to the end of the audio content). Note that the tactile parameter may be generated by designating a part of the entire area of the audio content waveform information. The section is specified in accordance with a predetermined rule. For example, it is conceivable to specify a predetermined time from the beginning of the audio content. Alternatively, meta information indicating the target section may be stored for each audio content, and the section may be designated based on the meta information.
 なお、触質パラメータ生成部131は、前処理として、波形情報にローパスフィル処理を施すことにより、入力された波形情報のエンベロープを抽出し、当該エンベロープを対象として、複数の分割区間から第1の触質パラメータおよび第2の触質パラメータを特定するようにしてもよい。 As a pre-process, the tactile parameter generation unit 131 extracts the envelope of the input waveform information by performing a low-pass fill process on the waveform information, and subjects the envelope to a first segment from a plurality of divided sections. The tactile parameter and the second tactile parameter may be specified.
 図4は、触質パラメータ生成部131による処理内容の一例を説明するための図である。図4は、音声コンテンツ取得部14により取得された音声コンテンツの波形情報(または、触質パラメータ生成部131により前処理としてローパスフィルタ処理が施されたエンベロープ波形情報)を示している。 FIG. 4 is a diagram for describing an example of the processing content by the tactile parameter generation unit 131. FIG. 4 shows waveform information of audio content acquired by the audio content acquisition unit 14 (or envelope waveform information subjected to low-pass filter processing as preprocessing by the tactile parameter generation unit 131).
 触質パラメータ生成部131は、まず、図4に示す波形情報を時間軸方向に複数に分割する。図4では一例として、波形の振幅が極小となる時間毎に分割している。すなわち、波形の開始点から1つ目の極小値までを第1の分割区間T1、1つ目の極小値から2つ目の極小値までを第2の分割区間T2、2つ目の極小値から3つ目の極小値までを第3の分割区間T3、・・・のように、波形情報を時間軸方向に複数に分割する。 (4) The tactile parameter generation unit 131 first divides the waveform information shown in FIG. 4 into a plurality of pieces in the time axis direction. In FIG. 4, as an example, the waveform is divided for each time when the amplitude of the waveform is minimum. That is, the first divided section T1 from the start point of the waveform to the first minimum value, the second divided section T2 from the first minimum value to the second minimum value, and the second minimum value. , The waveform information is divided into a plurality of pieces in the time axis direction as in the third division section T3,.
 なお、波形情報の分割のし方は、図4に示した例に限定されない。例えば、波形の振幅が極大となる時間毎に波形情報を複数の区間に分割するようにしてもよい。あるいは、正の値の振幅および負の値の振幅がある波形情報の場合は、振幅値がゼロとなる時間毎に波形情報を複数の区間に分割するようにしてもよい。さらに別の例として、振幅値がゼロ以外の所定値となる時間毎に波形情報を複数の区間に分割するようにしてもよい。 The way of dividing the waveform information is not limited to the example shown in FIG. For example, the waveform information may be divided into a plurality of sections at each time when the amplitude of the waveform is maximized. Alternatively, in the case of waveform information having a positive value amplitude and a negative value amplitude, the waveform information may be divided into a plurality of sections at each time when the amplitude value becomes zero. As still another example, the waveform information may be divided into a plurality of sections at each time when the amplitude value becomes a predetermined value other than zero.
 触質パラメータ生成部131は、それぞれの分割区間T1,T2,T3,・・・から、第1の触質パラメータとして代表振幅h1,h2,h3,・・・を特定するとともに、第2の触質パラメータとして分割区間の時間の長さt1,t2,t3,・・・を特定する。ここで、代表振幅h1,h2,h3,・・・は、それぞれの分割区間T1,T2,T3,・・・における開始点の極小値または終了点の極小値のうち値が大きい方と、分割区間T1,T2,T3,・・・における極大値との差分の値を示している。 The tactile parameter generation unit 131 specifies the representative amplitudes h1, h2, h3,... As a first tactile parameter from each of the divided sections T1, T2, T3,. The time lengths t1, t2, t3,... Of the divided sections are specified as quality parameters. Here, the representative amplitudes h1, h2, h3,... Are determined by dividing the minimum value of the start point or the minimum value of the end point in each of the divided sections T1, T2, T3,. The difference value from the local maximum value in the sections T1, T2, T3,... Is shown.
 すなわち、分割区間T1に関しては、極小値が1つしかないので、この極小値と極大値との差分が代表振幅h1となる。分割区間T2に関しては、当該区間の開始点の極小値の方が終了点の極小値よりも大きいので、開始点の極小値と極大値との差分が代表振幅h2となる。分割区間T3に関しては、当該区間の開始点の極小値よりも終了点の極小値の方が大きいので、終了点の極小値と極大値との差分が代表振幅h3となる。 That is, since there is only one minimum value in the division section T1, the difference between this minimum value and the maximum value is the representative amplitude h1. Regarding the divided section T2, since the minimum value at the start point of the section is larger than the minimum value at the end point, the difference between the minimum value at the start point and the maximum value is the representative amplitude h2. Regarding the divided section T3, since the minimum value of the end point is larger than the minimum value of the start point of the section, the difference between the minimum value of the end point and the maximum value is the representative amplitude h3.
 なお、ここで示した代表振幅の特定方法は一例であり、これに限定されるものではない。例えば、それぞれの分割区間T1,T2,T3,・・・における開始点の極小値または終了点の極小値のうち値が小さい方と、分割区間T1,T2,T3,・・・における極大値との差分を代表振幅として特定するようにしてもよい。 The method of specifying the representative amplitude shown here is an example, and the present invention is not limited to this. For example, the smaller one of the minimum value of the start point or the minimum value of the end point in each of the divided sections T1, T2, T3,... And the maximum value in the divided sections T1, T2, T3,. May be specified as the representative amplitude.
 また、正の値の振幅および負の値の振幅がある波形情報を、振幅値がゼロとなる時間毎に分割した場合は、各分割区間における正の極大値または負の極小値を第1の触質パラメータの代表振幅として特定するようにしてもよい。ここで、負の極小値に関しては、その絶対値を第1の触質パラメータの代表振幅として特定するようにしてもよい。また、振幅値がゼロ以外の所定値となる時間毎に波形情報を分割した場合は、各分割区間における最大値または最小値と所定値との差分値を第1の触質パラメータの代表振幅として特定するようにしてもよい。 Further, when the waveform information having the amplitude of the positive value and the amplitude of the negative value is divided at each time when the amplitude value becomes zero, the positive maximum value or the negative minimum value in each divided section is set to the first value. It may be specified as a representative amplitude of the tactile parameter. Here, the absolute value of the negative minimum value may be specified as the representative amplitude of the first tactile parameter. When the waveform information is divided every time when the amplitude value becomes a predetermined value other than zero, a difference value between the maximum value or the minimum value and the predetermined value in each divided section is set as the representative amplitude of the first tactile parameter. It may be specified.
 触質特徴量算出部132は、触質パラメータ生成部131により生成された2組以上の触質パラメータ(第1の触質パラメータおよび第2の触質パラメータの2組以上の組み合わせ)に基づいて、音声コンテンツの波形情報に関する触質特徴量を算出する。本実施形態では、第1の触質パラメータと第2の触質パラメータとを用いた四則演算値を算出し、同じ四則演算値が現れる区間の長さを第1の触質特徴量として算出する。また、四則演算値の多様度を第2の触質特徴量として算出する。 The tactile feature quantity calculation unit 132 is based on two or more tactile parameters (a combination of two or more sets of a first tactile parameter and a second tactile parameter) generated by the tactile parameter generation unit 131. Then, the tactile feature amount related to the waveform information of the audio content is calculated. In the present embodiment, the four tactile operation values using the first tactile parameter and the second tactile parameter are calculated, and the length of the section where the same four tactile operation values appear is calculated as the first tactile feature value. . Also, the degree of diversity of the four arithmetic operations is calculated as a second tactile feature value.
 例えば、分割区間の数がk個の場合、触質特徴量算出部132は、それぞれの分割区間Ti(i=1~k)ごとにhi/tiの値を求める。そして、同じhi/tiの値が出現する区間の長さを第1の触質特徴量P1として算出する。例えば、分割区間T1におけるh1/t1の値と、分割区間T3におけるh3/t3の値とが同じになった場合、第1の触質特徴量P1は、次の式により求められる。
  P1=t1+t2
For example, when the number of divided sections is k, the tactile feature amount calculation unit 132 obtains a value of hi / ti for each divided section Ti (i = 1 to k). Then, the length of the section in which the same hi / ti value appears is calculated as the first tactile feature value P1. For example, when the value of h1 / t1 in the divided section T1 is equal to the value of h3 / t3 in the divided section T3, the first tactile feature value P1 is obtained by the following equation.
P1 = t1 + t2
 あるいは、同じhi/tiの値が出現するまでの区間数を区間の長さとして、第1の触質特徴量P1を算出するようにしてもよい。この場合、上述した例のケースでは、分割区間T1から分割区間T3までの区間数である“2”が第1の触質特徴量P1ということになる。 Alternatively, the first tactile feature value P1 may be calculated using the number of sections until the same value of hi / ti appears as the section length. In this case, in the case of the above-described example, “2”, which is the number of sections from the divided section T1 to the divided section T3, is the first tactile feature amount P1.
 なお、同じhi/tiの値が出現する区間が複数存在する場合は、それぞれの区間ごとに第1の触質特徴量P1を算出し、その平均値を最終的な第1の触質特徴量P1として決定する。あるいは、平均値に代えて、最大値、最小値、中央値などを第1の触質特徴量P1として決定するようにしてもよい。 If there are a plurality of sections in which the same hi / ti value appears, the first tactile feature quantity P1 is calculated for each section, and the average value is used as the final first tactile feature quantity. Determined as P1. Alternatively, instead of the average value, a maximum value, a minimum value, a median value, or the like may be determined as the first tactile feature amount P1.
 また、触質特徴量算出部132は、分割区間ごとに算出した複数のhi/tiの値の分散を第2の触質特徴量P2として算出する。すなわち、第2の触質特徴量P2は、次の式により求められる。
 P2=Σ(hi/ti-m)2/k (i=1~k)
 ただし、mはhi/ti(i=1~k)の平均値
In addition, the tactile feature value calculation unit 132 calculates, as the second tactile feature value P2, the variance of the plurality of hi / ti values calculated for each divided section. That is, the second tactile feature quantity P2 is obtained by the following equation.
P2 = Σ (hi / ti−m) 2 / k (i = 1 to k)
Here, m is the average value of hi / ti (i = 1 to k)
 上記のように求められる第1の触質特徴量P1は、音声コンテンツの波長情報が潜在的に持っている触感のリズムを表している。また、第2の触質特徴量P2は、音声コンテンツの波長情報が潜在的に持っている触感の多様度を表している。本実施形態では、この触感のリズムおよび多様度を示唆する2種類の触質特徴量によって、音声コンテンツの波長情報を特徴付けるようにしている。 {Circle around (1)} The first tactile feature amount P1 obtained as described above represents the rhythm of the tactile sensation that the wavelength information of the audio content has potentially. Further, the second tactile feature amount P2 represents the degree of tactile sensation that the wavelength information of the audio content has potentially. In the present embodiment, the wavelength information of the audio content is characterized by the two types of tactile feature amounts indicating the rhythm and the variety of the tactile sensation.
 なお、ここではhi/tiの値を算出しているが、他の四則演算値を算出するようにしてもよい。例えば、ti/hiの値、hi×tiの値、hi+tiの値、hi-tiの値などを算出するようにしてもよい。 Although the value of hi / ti is calculated here, other four arithmetic values may be calculated. For example, a value of ti / hi, a value of hi × ti, a value of hi + ti, a value of hi-ti, or the like may be calculated.
 モード指定部133は、触質特徴量算出部132により算出された複数種類の触質特徴量の組み合わせに基づいて、当該組み合わせの内容に応じた触質モードを指定する。例えば、モード指定部133は、触質特徴量算出部132により算出された2種類の触質特徴量の組み合わせを所定の座標空間上にマッピングし、マッピングされた位置に応じて触質モードを指定する。 The 指定 mode designation unit 133 designates a tactile mode according to the content of the combination based on the combination of the plurality of types of tactile feature amounts calculated by the tactile feature amount calculation unit 132. For example, the mode specifying unit 133 maps the combination of the two types of tactile feature amounts calculated by the tactile feature amount calculating unit 132 on a predetermined coordinate space, and specifies a tactile mode according to the mapped position. I do.
 所定の座標空間は、例えば、横軸(x軸)に第1の触質特徴量P1、縦軸(y軸)に第2の触質特徴量P2をとった2次元座標とすることが可能である。この場合、モード指定部133は、当該2次元座標空間において、(x,y)=(P1,P2)とするxy座標に応じて触質モードを指定する処理を実行する。 The predetermined coordinate space can be, for example, two-dimensional coordinates in which the horizontal axis (x-axis) takes the first tactile feature amount P1 and the vertical axis (y-axis) takes the second tactile feature amount P2. It is. In this case, the mode designating unit 133 executes a process of designating the tactile mode in the two-dimensional coordinate space according to the xy coordinates where (x, y) = (P1, P2).
 図5は、モード指定部133による触質モードの指定内容の一例を示す図である。例えば、図5(a)に示すように、モード指定部133は、横軸に第1の触質特徴量P1、縦軸に第2の触質特徴量P2をとった2次元座標空間を4つの象限に分割する。そして、4つ象限のそれぞれに対して異なる触質モードを割り当てる。 FIG. 5 is a diagram showing an example of the specification content of the touch mode by the mode specifying unit 133. For example, as shown in FIG. 5A, the mode specifying unit 133 sets the two-dimensional coordinate space having the first tactile feature amount P1 on the horizontal axis and the second tactile feature amount P2 on the vertical axis as four axes. Divide into four quadrants. Then, different tactile modes are assigned to each of the four quadrants.
 第1象限は、第1の触質特徴量P1が第1の閾値Th1より大きく、かつ、第2の触質特徴量P2が第2の閾値Th2より大きい領域である。この第1象限における第1の触質モードは、触覚に関する触感のリズムが遅く、かつ、触感の多様度が大きいという性質を持った触質モードである。 The first quadrant is an area where the first tactile feature quantity P1 is larger than the first threshold Th1 and the second tactile feature quantity P2 is larger than the second threshold Th2. The first tactile mode in the first quadrant is a tactile mode having a property that a tactile rhythm relating to a tactile sensation is slow and a variety of tactile sensations is large.
 第2象限は、第1の触質特徴量P1が第1の閾値Th1以下、かつ、第2の触質特徴量P2が第2の閾値Th2より大きい領域である。この第2象限における第2の触質モードは、触覚に関する触感のリズムが速く、かつ、触感の多様度が大きいという性質を持った触質モードである。 The second quadrant is an area where the first tactile feature value P1 is equal to or less than the first threshold value Th1 and the second tactile feature value P2 is larger than the second threshold value Th2. The second tactile mode in the second quadrant is a tactile mode in which the rhythm of the tactile sensation relating to the tactile sensation is fast and the variety of tactile sensations is large.
 第3象限は、第1の触質特徴量P1が第1の閾値Th1以下、かつ、第2の触質特徴量P2が第2の閾値Th2以下の領域である。この第3象限における第3の触質モードは、触覚に関する触感のリズムが速く、かつ、触感の多様度が小さいという性質を持った触質モードである。 The third quadrant is an area where the first tactile feature quantity P1 is equal to or less than the first threshold Th1 and the second tactile feature quantity P2 is equal to or less than the second threshold Th2. The third tactile mode in the third quadrant is a tactile mode having such characteristics that the tactile sensation relating to the tactile sensation is fast and the variety of tactile sensations is small.
 第4象限は、第1の触質特徴量P1が第1の閾値Th1より大きく、かつ、第2の触質特徴量P2が第2の閾値Th2以下の領域である。この第4象限における第4の触質モードは、触覚に関する触感のリズムが遅く、かつ、触感の多様度が小さいという性質を持った触質モードである。 The fourth quadrant is an area where the first tactile feature P1 is larger than the first threshold Th1 and the second tactile feature P2 is equal to or smaller than the second threshold Th2. The fourth tactile mode in the fourth quadrant is a tactile mode having a property that the tactile rhythm relating to the tactile sensation is slow and the variety of tactile sensations is small.
 モード指定部133は、以上のように分割された4つの象限に対してそれぞれ第1~第4の触質モードが割り当てられた2次元座標空間において、触質特徴量算出部132により算出された触質特徴量の組み合わせ(P1,P2)で特定されるxy座標がどの象限に属するかを判定する。そして、属すると判定された象限に割り当てられている触質モードを指定する。 The mode designating unit 133 is calculated by the tactile feature amount calculating unit 132 in the two-dimensional coordinate space in which the first to fourth tactile modes are assigned to the four quadrants divided as described above. It is determined to which quadrant the xy coordinates specified by the combination of the tactile feature amounts (P1, P2) belong. Then, the tactile mode assigned to the quadrant determined to belong is specified.
 なお、第1の触質特徴量P1に関する第1の閾値Th1の値および第2の触質特徴量P2に関する第2の閾値Th2の値は、任意に定めることが可能である。 The value of the first threshold Th1 for the first tactile feature P1 and the value of the second threshold Th2 for the second tactile feature P2 can be arbitrarily determined.
 また、ここでは2種類の触質特徴量P1,P2で表される2次元座標空間を4つの象限に分割して4つの触質モードを割り合てる例について説明したが、本発明はこれに限定されない。例えば、図5(b)に示すように、第3象限に属する領域を第1の触質モードとし、それ以外の領域(第1象限、第2象限および第4象限を合わせた領域)を第2の触質モードとしてもよい。 Also, here, an example has been described in which the two-dimensional coordinate space represented by the two types of tactile feature amounts P1 and P2 is divided into four quadrants and four tactile modes are assigned. Not limited. For example, as shown in FIG. 5B, an area belonging to the third quadrant is set to the first tactile mode, and other areas (areas combining the first quadrant, the second quadrant, and the fourth quadrant) are set to the first touch mode. The second touch mode may be used.
 あるいは、触質特徴量算出部132において第1の触質特徴量P1のみを算出し、図5(c)のように第1の閾値Th1を境界として第1の触質モードと第2の触質モードとを割り当てるようにしてもよい。同様に、触質特徴量算出部132において第2の触質特徴量P2のみを算出し、図5(d)のように第2の閾値Th2を境界として第1の触質モードと第2の触質モードとを割り当てるようにしてもよい。 Alternatively, only the first tactile feature value P1 is calculated by the tactile feature value calculating unit 132, and the first tactile mode and the second tactile mode are set with the first threshold Th1 as a boundary as shown in FIG. A quality mode may be assigned. Similarly, only the second tactile feature value P2 is calculated by the tactile feature value calculation unit 132, and the first tactile mode and the second tactile mode are set with the second threshold Th2 as a boundary as shown in FIG. A tactile mode may be assigned.
 次に、触質モード指定部13に関する図3(b)の構成例を説明する。図3(b)に示す例において、触質モード指定部13は、その機能構成として、触質パラメータ生成部131、触質差分パラメータ生成部134、触質特徴量算出部132’およびモード指定部133を備えている。なお、この図3(b)において、図3(a)に示した符号と同一の符号を付したものは同一の機能を有するものであるので、ここでは重複する説明を省略する。 Next, an example of the configuration of FIG. 3B relating to the touch mode designation unit 13 will be described. In the example shown in FIG. 3B, the tactile mode specifying unit 13 includes, as its functional components, a tactile parameter generation unit 131, a tactile difference parameter generation unit 134, a tactile feature amount calculation unit 132 ′, and a mode specification unit. 133 is provided. In FIG. 3B, components denoted by the same reference numerals as those shown in FIG. 3A have the same functions, and thus redundant description will be omitted.
 触質差分パラメータ生成部134は、触質パラメータ生成部131により生成された2組以上の触質パラメータについて、2つの組間で触質パラメータの差分値をそれぞれ計算することにより、n個の触質差分パラメータの組み合わせを2組以上生成する。 The tactile difference parameter generation unit 134 calculates the difference values of the tactile parameters between the two sets with respect to the two or more sets of tactile parameters generated by the tactile parameter generation unit 131, and thereby sets the n tactile parameters. Two or more combinations of quality difference parameters are generated.
 すなわち、n=2の場合、触質差分パラメータ生成部134は、2つの組間で、第1の触質パラメータどうしの差分値を計算することによって第1の触質差分パラメータを生成するとともに、第2の触質パラメータどうしの差分値を計算することによって第2の触質差分パラメータを生成する。この計算を複数の組み合わせで順次行うことにより、第1の触質差分パラメータと第2の触質差分パラメータとの組み合わせを2組以上生成する。 That is, when n = 2, the tactile difference parameter generation unit 134 generates a first tactile difference parameter by calculating a difference value between the first tactile parameters between the two sets, A second tactile difference parameter is generated by calculating a difference value between the second tactile parameters. By sequentially performing this calculation using a plurality of combinations, two or more combinations of the first tactile difference parameter and the second tactile difference parameter are generated.
 例えば、触質パラメータ生成部131により生成された2組以上の触質パラメータが、{h1,t1},{h2,t2},{h3,t3}の3組であったとする。ここで、h1,h2,h3が第1の触質パラメータ、t1,t2,t3が第2の触質パラメータである。この場合、触質差分パラメータ生成部134は、{h1,t1}および{h2,t2}の2つの組間で触質パラメータの差分値を計算するとともに、{h2,t2},{h3,t3}の2つの組間で触質パラメータの差分値を計算することにより、次のような2組の触質差分パラメータを生成する。
{h2-h1,t2-t1},{h3-h2,t3-t2}
For example, it is assumed that two or more sets of tactile parameters generated by the tactile parameter generation unit 131 are three sets of {h1, t1}, {h2, t2}, {h3, t3}. Here, h1, h2, and h3 are first tactile parameters, and t1, t2, and t3 are second tactile parameters. In this case, the tactile difference parameter generation unit 134 calculates a tactile parameter difference value between the two pairs of {h1, t1} and {h2, t2}, and also calculates {h2, t2}, {h3, t3}. By calculating the difference value of the tactile parameter between the two sets of}, the following two sets of tactile difference parameters are generated.
{H2-h1, t2-t1}, {h3-h2, t3-t2}
 触質特徴量算出部132’は、触質差分パラメータ生成部134により生成された2組以上の触質差分パラメータに基づいて、音声コンテンツの波形情報に関する触質特徴量を算出する。算出する触質特徴量は、図3(a)で説明した触質特徴量算出部132が算出するものと同様である。 The tactile feature amount calculation unit 132 ′ calculates a tactile feature amount regarding the waveform information of the audio content based on the two or more sets of tactile difference parameters generated by the tactile difference parameter generation unit 134. The tactile feature value to be calculated is the same as that calculated by the tactile feature value calculation unit 132 described with reference to FIG.
 なお、ここでは、音声コンテンツ取得部14により音声コンテンツが取得されたときに、その音声コンテンツを解析して触質モードを指定する構成を示したが、本発明はこれに限定されない。例えば、音声コンテンツと触質モードとの対応関係を示した対応情報(例えば、テーブル情報)をあらかじめ作成しておいて、触質モード指定部13がその対応情報を参照して触質モードを指定するようにしてもよい。 Here, the configuration has been described in which when the audio content is acquired by the audio content acquisition unit 14, the audio content is analyzed and the tactile mode is designated, but the present invention is not limited to this. For example, correspondence information (for example, table information) indicating the correspondence between the audio content and the tactile mode is created in advance, and the tactile mode designation unit 13 designates the tactile mode by referring to the correspondence information. You may make it.
 すなわち、図2Aおよび図2Bに示す構成の場合において、触質モード指定部13は、音声コンテンツ記憶部142に記憶されている音声コンテンツと、当該記憶されている音声コンテンツの解析(図3にて説明した解析)によって得られる触質特徴量に基づき特定される触質モードとの対応関係を示す対応情報をあらかじめ作成し、記憶する。そして、触質モード指定部13は、音声コンテンツ取得部14により音声コンテンツが取得されたときに、当該取得された音声コンテンツに対応する触質モードを対応情報から取得して指定する。 That is, in the case of the configuration shown in FIG. 2A and FIG. 2B, the tactile-mode specifying unit 13 analyzes the audio content stored in the audio content storage unit 142 and the stored audio content (see FIG. 3). The correspondence information indicating the correspondence with the tactile mode specified based on the tactile feature amount obtained by the described analysis) is created and stored in advance. Then, when the audio content is acquired by the audio content acquisition unit 14, the tactile mode designation unit 13 acquires and designates the tactile mode corresponding to the acquired audio content from the correspondence information.
 ここで、音声コンテンツ記憶部142に記憶されている音声コンテンツに対応する触質モードの解析に基づく対応情報の生成は、例えば、ユーザから指示があったタイミングで実行するようにしてよい。また、図2Bに示す構成の場合は、決められたインターバルごとに定期的に行うようにしてもよいし、外部装置700から受信した音声コンテンツが音声コンテンツ記憶部142に記憶される都度、新たに記憶された音声コンテンツについて実行するようにしてもよい。 Here, the generation of the correspondence information based on the analysis of the tactile mode corresponding to the audio content stored in the audio content storage unit 142 may be executed, for example, at a timing instructed by the user. Further, in the case of the configuration shown in FIG. 2B, the audio content may be periodically performed at predetermined intervals, or may be newly added each time the audio content received from the external device 700 is stored in the audio content storage unit 142. It may be executed for the stored audio content.
 次に、触覚コンテンツ取得部11の構成例について説明する。以下では、4つの構成例を説明する。第1構成例は、触質モードに応じた触覚コンテンツをあらかじめ記憶しておいて、触質モード指定部13により触質モードが指定されたときに、指定された触質モードに対応する触覚コンテンツを読み出すようにしたものである。これに対し、第2構成例~第4構成例は、触質モード指定部13により触質モードが指定されたときに、指定された触質モードに対応する触覚コンテンツを生成するようにしたものである。 Next, a configuration example of the haptic content acquisition unit 11 will be described. Hereinafter, four configuration examples will be described. In the first configuration example, the tactile content corresponding to the tactile mode is stored in advance, and when the tactile mode is designated by the tactile mode designating unit 13, the tactile content corresponding to the designated tactile mode is stored. Is read. On the other hand, in the second to fourth configuration examples, when the tactile mode is designated by the tactile mode designation unit 13, the tactile content corresponding to the designated tactile mode is generated. It is.
<触覚コンテンツ取得部11の第1構成例>
 まず、触覚コンテンツ取得部11の第1構成例を説明する。図6は、第1構成例に係る触覚コンテンツ取得部11の機能構成例を示すブロック図である。図6に示すように、第1構成例に係る触覚コンテンツ取得部11は、触覚コンテンツ読出部1111(または1111’)および触覚コンテンツ記憶部1112(または1112’)を備えている。
<First Configuration Example of Tactile Content Acquisition Unit 11>
First, a first configuration example of the haptic content acquisition unit 11 will be described. FIG. 6 is a block diagram illustrating a functional configuration example of the haptic content acquisition unit 11 according to the first configuration example. As shown in FIG. 6, the haptic content acquisition unit 11 according to the first configuration example includes a haptic content reading unit 1111 (or 1111 ′) and a haptic content storage unit 1112 (or 1112 ′).
 なお、図6(a)~(c)は、音声コンテンツの記憶に関して3つの態様を示した図2A~図2Cと同様に、触覚コンテンツ記憶部1112に触覚コンテンツをあらかじめ記憶している態様(図6(a))と、外部装置700から触覚コンテンツをダウンロードして触覚コンテンツ記憶部1112に保存可能な態様(図6(b))と、外部装置700から触覚コンテンツをストリーミング的に受信して触覚コンテンツ記憶部1112’に一時的に記憶する態様(図6(c))とをそれぞれ示している。 FIGS. 6 (a) to 6 (c) show modes in which haptic contents are stored in advance in the haptic content storage unit 1112, similarly to FIGS. 2A to 2C, which show three modes for storing audio contents. 6 (a)), a mode in which haptic content can be downloaded from the external device 700 and stored in the haptic content storage unit 1112 (FIG. 6 (b)), and haptic content is received from the external device 700 in a streaming manner. The state (FIG. 6C) in which the content is temporarily stored in the content storage unit 1112 'is shown.
 図6(a)の構成において、触覚コンテンツ記憶部1112は、複数の触質モードにそれぞれ対応した複数の触覚コンテンツを記憶する。触覚コンテンツ記憶部1112は、ハードディスク、半導体メモリ等の不揮発性の記憶媒体であり、ユーザが明示的に消去の指示をしなければ音声コンテンツを保存し続けることが可能である。触質モードに対応した触覚コンテンツとは、例えば、図5のように割り当てたそれぞれの触質モードに対応する触質特徴量の性質を有する振動情報である。 6 In the configuration of FIG. 6A, the haptic content storage unit 1112 stores a plurality of haptic contents respectively corresponding to a plurality of tactile modes. The haptic content storage unit 1112 is a non-volatile storage medium such as a hard disk and a semiconductor memory, and can keep storing audio contents unless the user explicitly gives an instruction to delete. The tactile content corresponding to the tactile mode is, for example, vibration information having the property of the tactile feature corresponding to each tactile mode assigned as shown in FIG.
 すなわち、図5(a)における第1象限の第1の触質モードに対応する触覚コンテンツは、振動のリズムが遅く、かつ、振動の多様度が大きいという性質を持った振動情報である。また、第2象限の第2の触質モードに対応する触覚コンテンツは、振動のリズムが速く、かつ、振動の多様度が大きいという性質を持った振動情報である。 {That is, the haptic content corresponding to the first tactile mode in the first quadrant in FIG. 5A is vibration information having a property that the rhythm of vibration is slow and the variety of vibration is large. Further, the haptic content corresponding to the second tactile mode in the second quadrant is vibration information having a property that the rhythm of vibration is fast and the variety of vibration is large.
 第3象限の第3の触質モードに対応する触覚コンテンツは、振動のリズムが速く、かつ、振動の多様度が小さいという性質を持った振動情報である。第4象限の第4の触質モードに対応する触覚コンテンツは、振動のリズムが遅く、かつ、振動の多様度が小さいという性質を持った振動情報である。 The haptic content corresponding to the third tactile mode in the third quadrant is vibration information having a property that the rhythm of vibration is fast and the variety of vibration is small. The haptic content corresponding to the fourth tactile mode in the fourth quadrant is vibration information having a property that the rhythm of the vibration is slow and the diversity of the vibration is small.
 第1~第4の触質モードに対応する触覚コンテンツは何れも、それぞれが触感の一要素を表したn個(n≧2)の触質パラメータまたは触質差分パラメータにより特定される固有の触覚効果を持った触覚コンテンツである。すなわち、図3(a)のように触質特徴量を算出する場合、触覚コンテンツは、第1の触質パラメータおよび第2の触質パラメータにより特定される固有の触覚効果を持った触覚コンテンツとする。一方、図3(b)のように触質特徴量を算出する場合、触覚コンテンツは、第1の触質差分パラメータおよび第2の触質差分パラメータにより特定される固有の触覚効果を持った触覚コンテンツとする。 Each of the tactile contents corresponding to the first to fourth tactile modes has a unique tactile sense specified by n (n ≧ 2) tactile parameters or tactile difference parameters each representing one element of the tactile sensation. Tactile content with an effect. That is, when the tactile feature amount is calculated as shown in FIG. 3A, the tactile content includes a tactile content having a unique tactile effect specified by the first tactile parameter and the second tactile parameter. I do. On the other hand, when the tactile feature amount is calculated as shown in FIG. 3B, the tactile content has a tactile effect having a unique tactile effect specified by the first tactile difference parameter and the second tactile difference parameter. Content.
 図6(a)の構成例では、このような触覚コンテンツをあらかじめ触質モードごとに生成し、触質モードごとにあらかじめ生成した複数の触覚コンテンツを触覚コンテンツ記憶部1112にあらかじめ記憶しておく。なお、この触質モードに応じた触覚コンテンツの生成方法については、図14以降で詳細に説明する。触覚コンテンツ取得部11は、触質モード指定部13により指定された触質モードに応じた触覚コンテンツを、触覚コンテンツ読出部1111が触覚コンテンツ記憶部1112から読み出すことによって取得する。 In the configuration example of FIG. 6A, such haptic contents are generated in advance for each tactile mode, and a plurality of haptic contents generated in advance for each tactile mode are stored in the haptic content storage unit 1112 in advance. The method of generating the tactile content according to the tactile mode will be described in detail with reference to FIG. The haptic content acquisition unit 11 acquires the haptic content according to the haptic mode specified by the haptic mode specification unit 13 by reading the haptic content reading unit 1111 from the haptic content storage unit 1112.
 図6(b)は、触質モードごとにあらかじめ生成した複数の触覚コンテンツをコンテンツ供給装置100が外部装置700から通信ネットワーク600を介して受信して触覚コンテンツ記憶部1112に記憶させる機能を備えた形態を示している。すなわち、図6(b)の例において、コンテンツ供給装置100は、触覚コンテンツ記録部17を更に備えている。触覚コンテンツ記録部17は、外部装置700から通信ネットワーク600を介して触覚コンテンツを受信して触覚コンテンツ記憶部1112に記憶させる。 FIG. 6B has a function in which the content supply device 100 receives a plurality of haptic contents generated in advance for each haptic mode from the external device 700 via the communication network 600 and stores the haptic contents in the haptic content storage unit 1112. The form is shown. That is, in the example of FIG. 6B, the content supply device 100 further includes the tactile content recording unit 17. The haptic content recording unit 17 receives haptic content from the external device 700 via the communication network 600 and stores the haptic content in the haptic content storage unit 1112.
 例えば、触質モードに応じた触覚コンテンツが外部装置700に複数種類保存されている場合に、ユーザは、所望の触覚コンテンツを選択してコンテンツ供給装置100にダウンロードし、触覚コンテンツ記憶部1112に記憶させることが可能である。ユーザによる所望の触覚コンテンツの選択は、例えば、コンテンツ供給装置100またはコンテンツ利用機器500が備える操作部、あるいはコンテンツ供給装置100またはコンテンツ利用機器500がディスプレイ上に提供する所定のグラフィカルユーザインタフェースをユーザが操作することによって行うことが可能である。 For example, when a plurality of types of haptic content corresponding to the haptic mode are stored in the external device 700, the user selects a desired haptic content, downloads the haptic content to the content supply device 100, and stores the haptic content in the haptic content storage unit 1112. It is possible to do. Selection of a desired tactile content by the user is performed by, for example, the user using an operation unit provided in the content supply device 100 or the content use device 500, or a predetermined graphical user interface provided on the display by the content supply device 100 or the content use device 500. It can be done by manipulating.
 触覚コンテンツ取得部11を図6(b)のように構成し、複数の触覚コンテンツを外部装置700からダウンロードして触覚コンテンツ記憶部1112に記憶させた場合、1つの触質モードに対して複数種類の触覚コンテンツが触覚コンテンツ記憶部1112に記憶されることがある。この場合、触質モード指定部13により指定された触質モードに応じてどの触覚コンテンツを読み出すかについて、任意に設定したルールを適用することが可能である。 When the haptic content acquisition unit 11 is configured as shown in FIG. 6B and a plurality of haptic contents are downloaded from the external device 700 and stored in the haptic content storage unit 1112, a plurality of types of haptic contents are set for one tactile mode. May be stored in the haptic content storage unit 1112. In this case, it is possible to apply an arbitrarily set rule on which haptic content is to be read according to the tactile mode specified by the tactile mode specifying unit 13.
 例えば、触覚コンテンツ読出部1111は、ユーザによる触覚コンテンツの選択に係る指示に応じて、何れかの触覚コンテンツを読み出すようにすることが可能である。あるいは、触覚コンテンツ記憶部1112に記憶する触覚コンテンツに付随情報として触質特徴量を記憶させておき、触覚コンテンツ読出部1111は、触質モード指定部13により算出された触質特徴量と最も近い触質特徴量を有する触覚コンテンツを選択的に読み出すようにしてもよい。 For example, the haptic content reading unit 1111 can read any haptic content in response to a user's instruction on selection of haptic content. Alternatively, the tactile feature amount is stored as additional information in the tactile content stored in the tactile content storage unit 1112, and the tactile content readout unit 1111 is closest to the tactile feature amount calculated by the tactile mode designation unit 13. The tactile content having the tactile feature amount may be selectively read.
 図6(c)は、触覚コンテンツ読出部1111および触覚コンテンツ記憶部1112に代えて触覚コンテンツ読出部1111’および触覚コンテンツ記憶部1112’を備え、外部装置700から受信する触覚コンテンツをコンテンツ利用機器500にストリーミング的に供給する形態を示している。この図6(c)において、触覚コンテンツ記憶部1112’は、触覚コンテンツ記録部17により外部装置700から受信した触覚コンテンツを一時的に記憶する記憶媒体であってよい。 FIG. 6C includes a haptic content reading unit 1111 ′ and a haptic content storing unit 1112 ′ instead of the haptic content reading unit 1111 and the haptic content storage unit 1112, and the haptic content received from the external device 700 is used by the content use device 500. Is shown in the form of a stream. In FIG. 6C, the haptic content storage unit 1112 ′ may be a storage medium that temporarily stores the haptic content received from the external device 700 by the haptic content recording unit 17.
 例えば、触覚コンテンツ読出部1111’は、触質モード指定部13により指定された触質モードを触覚コンテンツ記録部17に通知し、触覚コンテンツ記録部17はこの触質モードを外部装置700に通知する。触覚コンテンツ読出部1111’は、上記通知に対する応答として外部装置700から送信されて触覚コンテンツ記憶部1112’に一時的に記憶された触覚コンテンツを読み出して触覚コンテンツ供給部12に供給する。 For example, the haptic content reading unit 1111 'notifies the haptic content recording unit 17 of the haptic mode specified by the haptic mode specifying unit 13, and the haptic content recording unit 17 notifies the external device 700 of the haptic content mode. . The haptic content reading unit 1111 'reads the haptic content transmitted from the external device 700 as a response to the notification and temporarily stored in the haptic content storage unit 1112', and supplies the haptic content supplying unit 12.
 この場合、触覚コンテンツ読出部1111’および触覚コンテンツ供給部12は、触覚コンテンツ記録部17により受信されて触覚コンテンツ記憶部1112’に一時的に記憶された触覚コンテンツをコンテンツ利用機器500に供給する処理を、触覚コンテンツ記憶部1112’に対する触覚コンテンツの記録処理と一連に行う。 In this case, the haptic content reading unit 1111 'and the haptic content supplying unit 12 supply the haptic content received by the haptic content recording unit 17 and temporarily stored in the haptic content storage unit 1112' to the content use device 500. Is performed in series with the recording process of the haptic content in the haptic content storage unit 1112 ′.
 なお、図6(c)の構成例において、触質モードに応じた触覚コンテンツが外部装置700に複数種類保存されている場合に、触質モード指定部13により指定された触質モードに応じてどの触覚コンテンツを読み出すかについて、任意に設定したルールを適用することが可能である。例えば、触覚コンテンツ読出部1111’は、触質モード指定部13により指定された触質モードを外部装置700に通知し、これに応じて外部装置700が、指定された触質モードに対応する複数の触覚コンテンツを提示して選択可能にする選択画面を生成してコンテンツ供給装置100のディスプレイに表示させる。そして、この選択画面におけるユーザによる触覚コンテンツの選択操作に応じて、選択された触覚コンテンツを触覚コンテンツ記録部17が外部装置700から受信して触覚コンテンツ記憶部1112’に一時的に記憶させ、これを触覚コンテンツ読出部1111’が読み出して触覚コンテンツ供給部12に供給するようにすることが可能である。 In the configuration example of FIG. 6C, when a plurality of types of tactile contents according to the tactile mode are stored in the external device 700, the tactile content according to the tactile mode designated by the tactile mode designating unit 13. Arbitrarily set rules can be applied to which haptic content is read. For example, the haptic content reading unit 1111 'notifies the external device 700 of the tactile mode specified by the tactile mode specifying unit 13, and in response to this, the external device 700 transmits a plurality of tactile modes corresponding to the specified tactile mode. A selection screen for presenting and selecting the haptic content is generated and displayed on the display of the content supply device 100. The haptic content recording unit 17 receives the selected haptic content from the external device 700 and temporarily stores the haptic content in the haptic content storage unit 1112 'in response to the user's operation of selecting the haptic content on the selection screen. May be read by the haptic content reading unit 1111 ′ and supplied to the haptic content supplying unit 12.
 あるいは、以下のようにしてもよい。すなわち、外部装置700に保存する触覚コンテンツに付随情報として触質特徴量を記憶させておき、触覚コンテンツ読出部1111’は、触質モード指定部13により算出された触質特徴量を外部装置700に通知する。これに応じて外部装置700は、通知された触質特徴量と最も近い触質特徴量を有する触覚コンテンツを選択的に読み出してコンテンツ供給装置100に送信し、これを触覚コンテンツ記録部17が受信して触覚コンテンツ記憶部1112’に記憶させるようにしてもよい。 Alternatively, the following may be performed. That is, the tactile feature amount is stored as accompanying information in the tactile content stored in the external device 700, and the tactile content readout unit 1111 'stores the tactile feature amount calculated by the tactile mode designating unit 13 in the external device 700. Notify. In response, the external device 700 selectively reads out the haptic content having the tactile feature amount closest to the notified tactile feature amount and transmits the haptic content to the content supply device 100, and the haptic content recording unit 17 receives the haptic content. Then, it may be stored in the tactile content storage unit 1112 '.
 なお、図6(b)の構成において、触質モード指定部13により算出された触質特徴量と最も近い触質特徴量を有する触覚コンテンツを触覚コンテンツ読出部1111が触覚コンテンツ記憶部1112から選択的に読み出す場合、および、図6(c)の構成において、触質モード指定部13により算出された触質特徴量と最も近い触質特徴量を有する触覚コンテンツを外部装置700から受信することによって触覚コンテンツ記憶部1112’に一時的に記憶された触覚コンテンツを読み出す場合は、図5のように触質特徴量の2次元座標空間を分割した領域ごとに触質モードが存在する形態ではなく、触質モード指定部13により算出される触質特徴量ごとに触質モードが存在する形態と言える。この場合、触質モード指定部13は、算出した触質特徴量そのものによって触質モードを指定することに相当する。 In the configuration of FIG. 6B, the haptic content reading unit 1111 selects the haptic content having the haptic feature amount closest to the haptic feature amount calculated by the haptic mode designating unit 13 from the haptic content storage unit 1112. In the case where the tactile content is closest to the tactile feature calculated by the tactile mode designating unit 13 and is received from the external device 700 in the configuration of FIG. When the haptic content temporarily stored in the haptic content storage unit 1112 'is read, the tactile mode is not present in each area obtained by dividing the two-dimensional coordinate space of the tactile feature amount as shown in FIG. It can be said that a tactile mode exists for each tactile feature amount calculated by the tactile mode designating unit 13. In this case, the tactile mode designation unit 13 corresponds to designating the tactile mode based on the calculated tactile feature amount itself.
 なお、触覚コンテンツ記憶部1112,1122’における触覚コンテンツの記憶に関して図6(a)~(c)の3つの形態があり得ることは、後述する触覚コンテンツ取得部11の第2構成例~第4構成例および第2の実施形態~第4の実施形態においても同様である。 It should be noted that the storage of the haptic content in the haptic content storage units 1112 and 1122 ′ can be in the three forms shown in FIGS. 6A to 6C. The same applies to the configuration example and the second to fourth embodiments.
 音声コンテンツに関して、図2A~図2Bのように、音声コンテンツ記憶部142に音声コンテンツがあらかじめ記憶されている形態、外部装置700からダウンロードした音声コンテンツを音声コンテンツ記憶部142に記憶可能な形態、および、外部装置700から音声コンテンツをストリーミング的に受信して音声コンテンツ記憶部142’に一時的に記憶させる形態の3つの形態を示した。触覚コンテンツに関しても同様に、図6(a)~(c)のように、触覚コンテンツ記憶部1112に触覚コンテンツがあらかじめ記憶されている形態、外部装置700からダウンロードした触覚コンテンツを触覚コンテンツ記憶部1112に記憶可能な形態、および、外部装置700から触覚コンテンツをストリーミング的に受信して触覚コンテンツ記憶部1112’に一時的に記憶させる形態の3つの形態を示した。音声コンテンツに関する3つの形態のうち何れか1つと、触覚コンテンツに関する3つの形態のうち何れか1つとを任意に組み合わせて適用することが可能である。 2A and 2B, the audio content is stored in advance in the audio content storage unit 142, the audio content downloaded from the external device 700 is stored in the audio content storage unit 142, and The three modes have been described in which the audio content is received in a streaming manner from the external device 700 and temporarily stored in the audio content storage unit 142 ′. 6A to 6C, the haptic content is stored in advance in the haptic content storage unit 1112, and the haptic content downloaded from the external device 700 is stored in the haptic content storage unit 1112. 3 and a form in which the haptic content is received in a streaming manner from the external device 700 and temporarily stored in the haptic content storage unit 1112 ′. Any one of the three modes relating to the audio content and any one of the three modes relating to the haptic content can be arbitrarily combined and applied.
 例えば、図2Aまたは図2Bのように音声コンテンツ記憶部142に記憶されている音声コンテンツを読み出してコンテンツ利用機器500に供給するとともに、図6(c)のようにその音声コンテンツを解析して指定された触質モードに対応する触覚コンテンツを外部装置700から受信してコンテンツ利用機器500にストリーミング的に供給するようにすることも可能である。 For example, as shown in FIG. 2A or 2B, the audio content stored in the audio content storage unit 142 is read and supplied to the content use device 500, and the audio content is analyzed and designated as shown in FIG. It is also possible to receive the haptic content corresponding to the tactile mode set from the external device 700 and supply the haptic content to the content using device 500 in a streaming manner.
 逆に、図2Cのようにユーザが選択した音声コンテンツを外部装置700から受信してコンテンツ利用機器500にストリーミング的に供給するとともに、図6(a)または(b)のように触覚コンテンツ記憶部1112に記憶されている触覚コンテンツの中から、外部装置700から受信した音声コンテンツを解析して指定された触質モードに対応する触覚コンテンツを読み出してコンテンツ利用機器500に供給するようにすることも可能である。 Conversely, as shown in FIG. 2C, the audio content selected by the user is received from the external device 700 and supplied to the content use device 500 in a streaming manner, and as shown in FIG. It is also possible to analyze the audio content received from the external device 700 from among the tactile contents stored in the 1112 and read out the tactile content corresponding to the designated tactile mode, and supply the read tactile content to the content use device 500. It is possible.
 また、図2Cのようにユーザが選択した音声コンテンツを外部装置700から受信してコンテンツ利用機器500にストリーミング的に供給するとともに、図6(c)のようにその音声コンテンツを解析して指定された触質モードに対応する触覚コンテンツを外部装置700から受信してコンテンツ利用機器500にストリーミング的に供給するようにすることも可能である。この場合は、コンテンツ供給装置100に音声コンテンツおよび触覚コンテンツの何れもが記憶されていなくても、ユーザが所望する音声コンテンツと、その音声コンテンツから解析される触質モードに対応した触覚コンテンツとを外部装置700から取得してコンテンツ利用機器500に供給することが可能である。 Also, as shown in FIG. 2C, the audio content selected by the user is received from the external device 700 and supplied to the content use device 500 in a streaming manner, and the audio content is analyzed and designated as shown in FIG. It is also possible to receive the haptic content corresponding to the tactile mode from the external device 700 and supply the haptic content to the content use device 500 in a streaming manner. In this case, even if neither the audio content nor the tactile content is stored in the content supply device 100, the audio content desired by the user and the tactile content corresponding to the tactile mode analyzed from the audio content are stored. The content can be obtained from the external device 700 and supplied to the content use device 500.
 図7は、最もシンプルな組み合わせの例として、音声コンテンツの取得については図2Aのように構成するとともに、触覚コンテンツの取得については図6(a)のように構成した場合におけるコンテンツ供給装置100の動作例を示すフローチャートである。なお、図7に示すフローチャートは、コンテンツ供給装置100を起動したときに開始する。 FIG. 7 shows, as an example of the simplest combination, the content supply device 100 in the case where the acquisition of audio content is configured as shown in FIG. 2A and the acquisition of tactile content is configured as shown in FIG. 9 is a flowchart illustrating an operation example. Note that the flowchart illustrated in FIG. 7 starts when the content supply device 100 is activated.
 まず、音声コンテンツ取得部14の音声コンテンツ読出部141は、音声コンテンツ記憶部142に記憶されている1以上の音声コンテンツの中から何れかを選択するユーザ操作が行われたか否かを判定する(ステップS1)。このユーザ操作が行われていない場合は、ステップS1の判定を繰り返す。 First, the audio content reading unit 141 of the audio content acquisition unit 14 determines whether or not a user operation for selecting any one or more of the one or more audio contents stored in the audio content storage unit 142 has been performed ( Step S1). If the user operation has not been performed, the determination in step S1 is repeated.
 一方、音声コンテンツを選択するユーザ操作が行われた場合、音声コンテンツ読出部141は、当該ユーザ操作により選択された音声コンテンツを音声コンテンツ記憶部142から読み出すことによって音声コンテンツを取得する(ステップS2)。 On the other hand, when the user operation for selecting the audio content is performed, the audio content reading unit 141 obtains the audio content by reading the audio content selected by the user operation from the audio content storage unit 142 (Step S2). .
 次いで、触質モード指定部13は、音声コンテンツ読出部141により音声コンテンツ記憶部142から読み出された音声コンテンツを解析し、その解析結果に応じて触質モードを指定する(ステップS3)。触覚コンテンツ取得部11は、触質モード指定部13により指定された触質モードに応じた触覚コンテンツを、触覚コンテンツ読出部1111により触覚コンテンツ記憶部1112から読み出すことによって取得する(ステップS4)。 Next, the tactile mode designation unit 13 analyzes the audio content read from the audio content storage unit 142 by the audio content reading unit 141, and designates a tactile mode according to the analysis result (step S3). The haptic content acquisition unit 11 acquires the haptic content according to the haptic mode specified by the haptic mode specifying unit 13 by reading the haptic content reading unit 1111 from the haptic content storage unit 1112 (step S4).
 そして、音声コンテンツ供給部15が、音声コンテンツ取得部14により取得された音声コンテンツをコンテンツ利用機器500に供給するとともに(ステップS5)、触覚コンテンツ供給部12が、触覚コンテンツ取得部11により取得された触覚コンテンツをコンテンツ利用機器500に供給する(ステップS6)。 Then, the audio content supply unit 15 supplies the audio content acquired by the audio content acquisition unit 14 to the content using device 500 (step S5), and the haptic content supply unit 12 is acquired by the haptic content acquisition unit 11. The tactile content is supplied to the content use device 500 (step S6).
 その後、音声コンテンツ読出部141は、音声コンテンツのコンテンツ利用機器500に対する供給が終了したか否かを判定する(ステップS7)。音声コンテンツの供給の終了は、ステップS2で読み出した音声コンテンツを最後までコンテンツ利用機器500に供給した場合、または、音声コンテンツを最後まで供給する前の途中の段階でユーザにより音声コンテンツの供給の停止指示が行われた場合の何れかである。 Then, the audio content reading unit 141 determines whether or not the supply of the audio content to the content using device 500 has been completed (Step S7). The supply of the audio content is terminated when the audio content read in step S2 is supplied to the content use device 500 to the end, or the user stops the supply of the audio content at a stage before the audio content is supplied to the end. Either of the cases where an instruction has been given.
 音声コンテンツの供給が終了していない場合、処理はステップS5に戻り、音声コンテンツおよび触覚コンテンツのコンテンツ利用機器500に対する供給を継続する。一方、音声コンテンツの供給が終了した場合、図7に示すフローチャートの処理は終了する。 If the supply of the audio content has not been completed, the process returns to step S5, and the supply of the audio content and the tactile content to the content using device 500 is continued. On the other hand, when the supply of the audio content ends, the processing of the flowchart illustrated in FIG. 7 ends.
<触覚コンテンツ取得部11の第2構成例>
 次に、触覚コンテンツ取得部11の第2構成例を説明する。図8は、第2構成例に係る触覚コンテンツ取得部11の機能構成例を示すブロック図である。なお、この図8において、図6に示した構成要素と同一の機能を有する構成要素には同一の符号を付している。図8に示すように、第2構成例に係る触覚コンテンツ取得部11は、触覚コンテンツ読出部1121(または1121’)、触覚コンテンツ記憶部1122(または1122’)および振動波形加工部1123を備えている。
<Second Configuration Example of Tactile Content Acquisition Unit 11>
Next, a second configuration example of the haptic content acquisition unit 11 will be described. FIG. 8 is a block diagram illustrating a functional configuration example of the haptic content acquisition unit 11 according to the second configuration example. In FIG. 8, components having the same functions as those shown in FIG. 6 are denoted by the same reference numerals. As illustrated in FIG. 8, the haptic content acquisition unit 11 according to the second configuration example includes a haptic content reading unit 1121 (or 1121 ′), a haptic content storage unit 1122 (or 1122 ′), and a vibration waveform processing unit 1123. I have.
 図6に示した触覚コンテンツ取得部11の第1構成例では、触覚コンテンツ取得部11は、触覚コンテンツ記憶部1112,1112’に記憶された触覚コンテンツを読み出すことによって触質モードに応じた触覚コンテンツの取得を行っていた。これに対し、図8に示す触覚コンテンツ取得部11の第2構成例では、触覚コンテンツ取得部11は、触覚コンテンツ記憶部1122,1122’から読み出した基準の触覚コンテンツをもとに、その振動情報を加工することによって触質モードに応じた触覚コンテンツを生成する。 In the first configuration example of the haptic content acquisition unit 11 illustrated in FIG. 6, the haptic content acquisition unit 11 reads out the haptic content stored in the haptic content storage units 1112 and 1112 ′, and thereby reads the haptic content according to the tactile mode. The acquisition was done. On the other hand, in the second configuration example of the haptic content acquisition unit 11 shown in FIG. 8, the haptic content acquisition unit 11 uses the vibration information based on the reference haptic content read from the haptic content storage units 1122 and 1122 ′. To generate a haptic content according to the tactile mode.
 なお、図8においても、図8(a)は触覚コンテンツ記憶部1122に触覚コンテンツがあらかじめ記憶されている形態を示し、図8(b)は外部装置700からダウンロードした触覚コンテンツを触覚コンテンツ記憶部1122に記憶可能な形態を示し、図8(c)は外部装置700から触覚コンテンツをストリーミング的に受信して触覚コンテンツ記憶部1122’に一時的に記憶させる形態の3つを示している。 8A shows a form in which the haptic content is stored in advance in the haptic content storage unit 1122, and FIG. 8B shows the haptic content downloaded from the external device 700 in the haptic content storage unit. FIG. 8C shows three forms in which the haptic content is received in a streaming manner from the external device 700 and temporarily stored in the haptic content storage unit 1122 ′.
 触覚コンテンツ記憶部1122,1122’は、ハードディスク、半導体メモリ等の不揮発性の記憶媒体であり、基準の触覚コンテンツを記憶する。触覚コンテンツ記憶部1122,1122’が記憶する触覚コンテンツは、触質モードに対応して生成されたものではなく、触質モードに応じた触覚コンテンツを生成するための基準となる所定の振動情報から成る触覚コンテンツである。 The haptic content storage units 1122 and 1122 ’are non-volatile storage media such as a hard disk and a semiconductor memory, and store reference haptic content. The haptic content stored in the haptic content storage units 1122 and 1122 ′ is not generated in accordance with the tactile mode, but is generated based on predetermined vibration information serving as a reference for generating the haptic content corresponding to the tactile mode. Haptic content.
 触覚コンテンツ読出部1121,1121’は、音声コンテンツの選択操作がユーザにより行われたとき、あるいは、触覚コンテンツの取得を指示する操作がユーザにより行われたときなどに、触覚コンテンツ記憶部1122,1122’から触覚コンテンツを読み出す。すなわち、触覚コンテンツ読出部1121は、触覚コンテンツ記憶部1122にあらかじめ記憶されている触覚コンテンツを読み出す。また、触覚コンテンツ読出部1121’は、外部装置700から受信されて触覚コンテンツ記憶部1122’に一時的に記憶された触覚コンテンツを読み出す。 The haptic content reading units 1121 and 1121 ′ are used when the user performs an operation for selecting audio content or when an operation for instructing acquisition of haptic content is performed by the user. 'Read haptic content from That is, the haptic content reading unit 1121 reads the haptic content stored in the haptic content storage unit 1122 in advance. In addition, the haptic content reading unit 1121 'reads the haptic content received from the external device 700 and temporarily stored in the haptic content storage unit 1122'.
 振動波形加工部1123は、触覚コンテンツ読出部1121,1121’により読み出された触覚コンテンツの振動情報に対する重み情報であって、触質モード指定部13により指定された触質モードに応じた重み情報を生成し、生成した重み情報によって触覚コンテンツの振動情報を加工することにより、指定された触質モードに応じた触覚コンテンツを生成する。そして、生成した触覚コンテンツを触覚コンテンツ供給部12に供給する。 The vibration waveform processing unit 1123 is weight information for the vibration information of the haptic content read by the haptic content reading units 1121 and 1121 ′, and is weight information according to the tactile mode specified by the tactile mode specification unit 13. Is generated, and the vibration information of the haptic content is processed based on the generated weight information, thereby generating the haptic content corresponding to the designated tactile mode. Then, the generated haptic content is supplied to the haptic content supply unit 12.
 図9は、振動波形加工部1123の処理内容を模式的に示すイメージ図である。図9は、図5(a)の例と同様に、2つの触質特徴量P1,P2の組み合わせに基づいて、第1~第4の触質モードの何れかを指定する場合の例を示している。図9において、菱形のマークで示しているのは、触覚コンテンツ記憶部1122,1122’に記憶されている基準の触覚コンテンツに対応する触質特徴量の組み合わせである。また、図9において、4つの矢印で示しているのは、触質モードに応じた重み付けの方向である。なお、矢印の向きは、重み付けの厳密な方向を示しているものではなく、各象限への方向付けをイメージとして模式的に示したものである。 FIG. 9 is an image diagram schematically showing the processing contents of the vibration waveform processing unit 1123. FIG. 9 shows an example in which one of the first to fourth tactile modes is designated based on a combination of the two tactile feature amounts P1 and P2, as in the example of FIG. ing. In FIG. 9, the combination of tactile feature amounts corresponding to the reference tactile content stored in the tactile content storage units 1122 and 1122 ′ is indicated by diamond marks. Also, in FIG. 9, what is indicated by four arrows is the direction of weighting according to the tactile mode. Note that the direction of the arrow does not indicate the exact direction of the weighting, but schematically illustrates the direction to each quadrant as an image.
 すなわち、図9の例は、第1の触質特徴量P1の値が第1の閾値Th1と同じ、かつ、第2の触質特徴量P2の値が第2の閾値Th2と同じで、第1~第4の触質モードの何れにも対応しない基準の触覚コンテンツの振動情報に対して、触質モードに応じて方向性の異なる重み情報を生成して加工を施すことにより、指定された触質モードに応じた振動情報を有する触覚コンテンツを生成することを模式的に示している。 That is, in the example of FIG. 9, the value of the first tactile feature value P1 is the same as the first threshold value Th1, and the value of the second tactile feature value P2 is the same as the second threshold value Th2. The vibration information of the reference tactile content that does not correspond to any of the first to fourth tactile modes is processed by generating weight information having different directions according to the tactile mode and performing processing. 4 schematically illustrates generation of a haptic content having vibration information according to a haptic mode.
 なお、第1~第4の触質モードの何れにも対応しない触覚コンテンツを基準とするのではなく、何れかの触質モードに対応する触覚コンテンツを基準として、触質モードに応じて生成した重み情報によって振動情報を加工するようにしてもよい。例えば、第1の触質モードに対応する触覚コンテンツを基準として触覚コンテンツ記憶部1122,1122’に記憶させ、触質モード指定部13により指定された触質モードが第1触質のモードの場合は重み付けを行わず、指定された触質モードが第2~第4の触質モードの場合に、第1の触質モードが第2~第4の触質モードの何れかに変わるような重み付けを行うようにしてもよい。 Note that, instead of using the haptic content that does not correspond to any of the first to fourth haptic modes as a reference, the haptic content is generated based on the haptic content corresponding to any of the haptic modes in accordance with the tactile mode. The vibration information may be processed by the weight information. For example, when the tactile content corresponding to the first tactile mode is stored in the tactile content storage units 1122 and 1122 ′ based on the tactile content, and the tactile mode specified by the tactile mode designating unit 13 is the first tactile mode Does not perform weighting, and weights such that when the specified tactile mode is the second to fourth tactile modes, the first tactile mode is changed to any of the second to fourth tactile modes. May be performed.
 図10は、振動波形加工部1123の機能構成例を示すブロック図である。図10に示すように、振動波形加工部1123は、その機能構成として、特徴抽出部1123A、重み情報生成部1123Bおよび重み加工部1123Cを備えている。 FIG. 10 is a block diagram illustrating an example of a functional configuration of the vibration waveform processing unit 1123. As shown in FIG. 10, the vibration waveform processing unit 1123 includes a feature extraction unit 1123A, a weight information generation unit 1123B, and a weight processing unit 1123C as its functional configuration.
 特徴抽出部1123Aは、音声コンテンツ取得部14により取得された音声コンテンツの波形情報において、他の箇所と区別し得る複数の特徴箇所を抽出する。例えば、特徴抽出部1123Aは、音声コンテンツの波形情報において、所定時間の間に振幅値が所定値以上大きくなる箇所を特徴箇所として抽出する。 The feature extracting unit 1123 </ b> A extracts a plurality of feature locations that can be distinguished from other locations in the audio content waveform information acquired by the audio content acquiring unit 14. For example, the feature extracting unit 1123A extracts, in the waveform information of the audio content, a portion where the amplitude value increases by a predetermined value or more during a predetermined time as a characteristic portion.
 重み情報生成部1123Bは、特徴抽出部1123Aにより抽出された複数の特徴箇所に基づいて、特徴箇所間の時間区間において経時的に値が変化する重み情報を生成する。例えば、重み情報生成部1123Bは、特徴抽出部1123Aにより抽出された複数の特徴箇所に基づいて、一の特徴箇所が抽出された時間から次の特徴箇所が抽出された時間まで値が経時的に徐々に小さくなる重み情報を生成する。 The weight information generation unit 1123B generates, based on the plurality of feature locations extracted by the feature extraction unit 1123A, weight information whose value changes with time in a time section between the feature locations. For example, based on a plurality of feature points extracted by the feature extraction unit 1123A, the weight information generation unit 1123B may change values over time from the time at which one feature point is extracted to the time at which the next feature point is extracted. Generate weight information that gradually decreases.
 図11は、特徴抽出部1123Aおよび重み情報生成部1123Bの処理内容を説明するための図である。ここで、図11(a)は、音声コンテンツ取得部14により取得された音声コンテンツの波形情報の一部を示している。図11(b)は、触覚コンテンツ読出部1121,1121’により触覚コンテンツ記憶部1122,1122’から読み出された触覚コンテンツの波形情報に対し、重み情報生成部1123Bにより生成された重み情報を模式的に重ねて示した状態を示している。 FIG. 11 is a diagram for explaining the processing contents of the feature extraction unit 1123A and the weight information generation unit 1123B. Here, FIG. 11A illustrates a part of the waveform information of the audio content acquired by the audio content acquisition unit 14. FIG. 11B schematically illustrates the weight information generated by the weight information generation unit 1123B for the haptic content waveform information read from the haptic content storage units 1122 and 1122 ′ by the haptic content reading units 1121 and 1121 ′. The state shown in FIG.
 特徴抽出部1123Aは、図11(a)に示す音声コンテンツの波形情報において、所定時間(例えば、0.1秒)の間に振幅値が所定値以上大きくなる箇所を複数の特徴箇所F,F,F,・・・として抽出する。すなわち、特徴抽出部1123Aは、音声コンテンツの波形情報の振幅値が急激に大きくなる箇所を特徴箇所F,F,F,・・・として抽出する。 In the waveform information of the audio content shown in FIG. 11A, the feature extracting unit 1123A identifies a portion where the amplitude value increases by a predetermined value or more during a predetermined time (for example, 0.1 second) into a plurality of characteristic portions F 1 , Extract as F 2 , F 3 ,. That is, the feature extracting unit 1123A extracts places where the amplitude value of the waveform information of the audio content sharply increases as feature places F 1 , F 2 , F 3 ,.
 重み情報生成部1123Bは、特徴抽出部1123Aにより抽出された複数の特徴箇所F,F,F,・・・に基づいて、一の特徴箇所F(i=1,2,・・・)が抽出された時間から、次の特徴箇所Fi+1が抽出された時間まで、値が経時的に徐々に小さくなる重み情報を生成する。この重み情報は、重み値(何れも正の値)が最小値から最大値までの間をとる情報であり、図11(b)においてノコギリ波として模式的に示されている。 The weight information generation unit 1123B generates one feature location F i (i = 1, 2,...) Based on the plurality of feature locations F 1 , F 2 , F 3 ,. Generate weighting information whose value gradually decreases over time from the time when () is extracted to the time when the next feature point F i + 1 is extracted. The weight information is information in which the weight value (all positive values) ranges from the minimum value to the maximum value, and is schematically shown as a sawtooth wave in FIG.
 図11(b)の例では、一の特徴箇所Fが抽出された時間において重み値が最大となり、そこから線形的あるいは段階的に値が経時的に徐々に小さくなり、次の特徴箇所Fi+1が抽出された時間において重み値が再び最大となるような重み情報を生成している。ここで、重み情報生成部1123Bは、一の特徴箇所Fが抽出された時間において重み値が最大となり、次の特徴箇所Fi+1が抽出された時間に達する時点で重み値がちょうど最小値となるような重み情報を生成している。 In the example of FIG. 11B, the weight value becomes maximum at the time when one feature point F i is extracted, and the value gradually decreases linearly or stepwise with time from the time when one feature point F i is extracted. Weight information is generated such that the weight value becomes maximum again at the time when i + 1 is extracted. Here, the weight information generation unit 1123B determines that the weight value becomes maximum at the time when one feature point F i is extracted, and the weight value becomes exactly the minimum value at the time when the next feature point F i + 1 is extracted. Such weight information is generated.
 なお、ここに示した重み情報の生成処理は一例であり、これに限定されるものではない。例えば、図11(b)では、重み値が一定の割合で直線的に徐々に小さくなる例を示したが、一の特徴箇所Fが抽出された時間から次の特徴箇所Fi+1が抽出された時間まで、所定の2次関数あるいは対数関数などに従って値が曲線的に徐々に小さくなるような重み情報を生成するようにしてもよい。 Note that the weight information generation processing described here is an example, and the present invention is not limited to this. For example, FIG. 11B shows an example in which the weight value gradually decreases linearly at a constant rate, but the next feature point F i + 1 is extracted from the time when one feature point F i is extracted. The weight information may be generated such that the value gradually decreases in a curve according to a predetermined quadratic function or logarithmic function until the time.
 また、重み値が徐々に小さくなる割合(ノコギリ波で示される斜線部の傾斜角)を、どの区間も同じとするようにしてもよい。この場合、一の特徴箇所Fと次の特徴箇所Fi+1との間が長い区間があると、次の特徴箇所Fi+1に至る前に重み値が最小値に達する。この場合、重み情報生成部1123Bは、例えば、重み値が最小値に達した後、次の特徴箇所Fi+1に至るまで、重み値が最小値に固定するような重み情報を生成する。 Also, the rate at which the weight value gradually decreases (the inclination angle of the hatched portion indicated by the sawtooth wave) may be set to be the same in all the sections. In this case, if between one feature point F i and the next feature point F i + 1 is a long interval, the weight value reaches a minimum value before reaching the next feature point F i + 1. In this case, for example, after the weight value reaches the minimum value, the weight information generation unit 1123B generates the weight information such that the weight value is fixed to the minimum value until the next feature point F i + 1 .
 また、重み値の最大値と最小値とを固定せず、所定の条件に応じて変動する変動値とするようにしてもよい。例えば、特徴箇所における振幅値の大きさに応じて、重み値の最大値を可変とするようにしてもよい。この場合、重み情報生成部1123Bは、一の特徴箇所Fにおける振幅値が大きいほど重み値が大きくなるようにし、そこから次の特徴箇所Fi+1まで値が徐々に小さくなるような重み情報を生成する。このようにすれば、所定時間の間に振幅値が所定値以上大きくなる複数の特徴箇所Fのうち、その特徴箇所Fの振幅値が大きいほど大きな重み値が設定されるようになる。 Further, the maximum value and the minimum value of the weight value may not be fixed, and may be a fluctuation value that fluctuates according to a predetermined condition. For example, the maximum value of the weight value may be made variable according to the magnitude of the amplitude value at the characteristic portion. In this case, the weight information generation unit 1123B sets the weight value to be larger as the amplitude value at one feature point F i is larger, and outputs weight information such that the value is gradually reduced from there to the next feature point F i + 1. Generate. In this way, among a plurality of feature points F i the amplitude value becomes larger than a predetermined value for a predetermined time, a large weight value the larger the amplitude value of that feature point F i is to be set.
 重み加工部1123Cは、触覚コンテンツ読出部1121,1121’により触覚コンテンツ記憶部1122,1122’から読み出された触覚コンテンツの振動情報を、重み情報生成部1123Bにより生成された重み情報によって加工する。例えば、重み加工部1123Cは、触覚コンテンツの波形情報の振幅値に対して重み情報の重み値を乗算することにより、触覚コンテンツの振動情報を加工する。 The weight processing unit 1123C processes the vibration information of the haptic content read from the haptic content storage units 1122 and 1122 'by the haptic content reading units 1121 and 1121' using the weight information generated by the weight information generation unit 1123B. For example, the weight processing unit 1123C processes the vibration information of the haptic content by multiplying the amplitude value of the waveform information of the haptic content by the weight value of the weight information.
 すなわち、重み加工部1123Cは、図11(b)に示している触覚コンテンツの波形情報の各時間における振幅値に対し、同じく図11(b)にノコギリ波として模式的に示している各時間における重み値を乗算する。図11(b)において、触覚コンテンツの波形情報と重み情報とを重ねて示しているのは、各時刻における波形情報の振幅値と、これに対して乗算する重み値との対応関係を明示するためである。 That is, the weight processing unit 1123C compares the amplitude value of the waveform information of the haptic content at each time shown in FIG. 11B with the amplitude value at each time also schematically shown as a sawtooth wave in FIG. 11B. Multiply weight values. In FIG. 11B, the waveform information of the haptic content and the weight information are superimposed to indicate the correspondence between the amplitude value of the waveform information at each time and the weight value to be multiplied with the amplitude information. That's why.
 図12は、振動波形加工部1123により加工された触覚コンテンツの波形情報を音声コンテンツの波形情報と共に示す図である。図12(a)は、音声コンテンツ取得部14により取得された音声コンテンツの波形情報を示し、図12(b)は、振動波形加工部1123により加工された触覚コンテンツの波形情報を示している。図12(a)に示す音声コンテンツの波形情報は、図11(a)に示す音声コンテンツの波形情報と同じである。 FIG. 12 is a diagram showing the waveform information of the haptic content processed by the vibration waveform processing unit 1123 together with the waveform information of the audio content. FIG. 12A shows waveform information of audio content acquired by the audio content acquisition unit 14, and FIG. 12B shows waveform information of haptic content processed by the vibration waveform processing unit 1123. The waveform information of the audio content shown in FIG. 12A is the same as the waveform information of the audio content shown in FIG.
 なお、音声コンテンツ取得部14により取得される音声コンテンツがモノラルの音声信号である場合は、上述したように、図11(a)に示す音声コンテンツの波形情報(重み情報を生成するために特徴箇所の抽出対象とする音声コンテンツの波形情報)と、図12(a)に示す音声コンテンツの波形情報(コンテンツ利用機器500に供給される音声コンテンツの波形情報)とは同じになる。 When the audio content acquired by the audio content acquisition unit 14 is a monaural audio signal, as described above, the waveform information of the audio content shown in FIG. The waveform information of the audio content to be extracted is the same as the waveform information of the audio content shown in FIG. 12A (the waveform information of the audio content supplied to the content use device 500).
 一方、音声コンテンツ取得部14により取得される音声コンテンツがステレオの音声信号である場合は、図11(a)に示す音声コンテンツの波形情報と、図12(a)に示す音声コンテンツの波形情報とを同じとしてもよいが、必ずしも同じとする必要はない。例えば、特徴箇所の抽出対象とする音声コンテンツは左チャネルの音声信号とし、コンテンツ利用機器500に供給する音声コンテンツは右チャネルの音声信号としてもよい。もちろん、その逆でもよい。また、左右何れかのチャネルの音声信号を解析して特徴箇所を抽出し、両チャネルの音声信号をコンテンツ利用機器500に供給するようにしてもよい。 On the other hand, when the audio content acquired by the audio content acquisition unit 14 is a stereo audio signal, the audio content waveform information shown in FIG. 11A and the audio content waveform information shown in FIG. May be the same, but need not necessarily be the same. For example, the audio content from which the characteristic portion is to be extracted may be a left channel audio signal, and the audio content supplied to the content use device 500 may be a right channel audio signal. Of course, the reverse is also possible. Alternatively, the audio signal of any one of the left and right channels may be analyzed to extract a characteristic portion, and the audio signals of both channels may be supplied to the content use device 500.
 なお、特徴抽出部1123Aが音声コンテンツの波形情報から抽出する複数の特徴箇所は、以上に説明した例に限定されない。例えば、特徴抽出部1123Aは、音声コンテンツの波形情報において、振幅値が所定値以上となる箇所を特徴箇所として抽出するようにしてもよい。あるいは、音声コンテンツの波形情報を時間ごとに周波数解析し、含まれる周波数成分が急激に変わる箇所を特徴箇所として抽出するようにしてもよい。あるいは、音声コンテンツの波形情報に対して図4と同様の解析を行い、第1の触質パラメータおよび第2の触質パラメータの四則演算値が急激に変わる箇所を特徴箇所として抽出するようにしてもよい。 Note that the plurality of feature locations extracted by the feature extraction unit 1123A from the waveform information of the audio content is not limited to the example described above. For example, the feature extracting unit 1123A may extract, as the feature location, a location where the amplitude value is equal to or greater than a predetermined value in the audio content waveform information. Alternatively, the waveform information of the audio content may be frequency-analyzed for each time, and a portion where the included frequency component changes abruptly may be extracted as a characteristic portion. Alternatively, the same analysis as in FIG. 4 is performed on the waveform information of the audio content, and a portion where the four arithmetic operations of the first tactile parameter and the second tactile parameter rapidly change is extracted as a characteristic portion. Is also good.
 また、上記実施形態では、重み情報生成部1123Bは、一の特徴箇所Fが抽出された時間から次の特徴箇所Fi+1が抽出された時間まで値が徐々に小さくなるような重み情報を生成したが、本発明はこれに限定されない。例えば、特徴抽出部1123Aが、音声コンテンツの波形情報において所定時間の間に振幅値が急激に小さくなる箇所を特徴箇所として抽出するようにし、重み情報生成部1123Bが、一の特徴箇所Fが抽出された時間から次の特徴箇所Fi+1が抽出された時間まで値が徐々に大きくなるような重み情報を生成するようにしてもよい。 Further, in the above embodiment, the weight information generation unit 1123B generates the weight information such that the value gradually decreases from the time at which one feature location F i is extracted to the time at which the next feature location F i + 1 is extracted. However, the present invention is not limited to this. For example, the feature extraction unit 1123A is, so as to extract a feature point suddenly decreases places the amplitude value during a predetermined time in the waveform information of the audio content, weight information generation unit 1123B is, in the one feature point F i Weight information may be generated such that the value gradually increases from the extracted time to the time when the next feature location F i + 1 is extracted.
 以上のようにして生成される触覚コンテンツは、コンテンツ利用機器500において当該触覚コンテンツと組み合わせて利用される音声コンテンツの波形情報における特徴箇所と同調する態様で重み値が変動する重み情報によって波形の振幅値が加工されたものである。このため、この触覚コンテンツを音声コンテンツと共にコンテンツ利用機器500に供給することにより、音声コンテンツに基づき再生される音声をユーザに提供するのと同時に、その音声の特徴と同調した触覚コンテンツの振動をユーザに提供することができる。 The haptic content generated as described above has a waveform amplitude based on weight information whose weight value fluctuates in a manner synchronized with a characteristic portion in waveform information of audio content used in combination with the haptic content in the content using device 500. The value has been processed. Therefore, by supplying the haptic content to the content use device 500 together with the audio content, the audio reproduced based on the audio content is provided to the user, and at the same time, the vibration of the haptic content synchronized with the characteristics of the audio is provided to the user. Can be provided.
 以上が振動波形加工部1123の基本動作である。これに対し、振動波形加工部1123はさらに、触質モード指定部13により指定された触質モードに応じた処理によって重み情報を生成する。具体的には、振動波形加工部1123は、触質モード指定部13により指定された触質モードに応じて、特徴抽出部1123Aによる特徴箇所の抽出内容、および、重み情報生成部1123Bによる重み情報の生成内容の少なくとも一方を変える。 The above is the basic operation of the vibration waveform processing unit 1123. On the other hand, the vibration waveform processing unit 1123 further generates weight information by performing processing according to the tactile mode specified by the tactile mode specifying unit 13. Specifically, according to the tactile mode specified by the tactile mode specifying unit 13, the vibration waveform processing unit 1123 extracts the content of the characteristic portion by the characteristic extracting unit 1123 A and the weight information by the weight information generating unit 1123 B. Change at least one of the generated contents of.
 例えば、特徴抽出部1123Aによる特徴箇所の抽出に関して、所定時間の間に振幅値が所定値以上大きくなる箇所を特徴箇所として抽出する際に、所定値の値を触質モードに応じて変更する。例えば、所定値の基準値を決めておいて、その基準値より所定値を大きくすると、振幅値がより大きく変動している箇所のみが特徴箇所として抽出されることになるので、特徴箇所の数が基準状態(所定値=基準値として特徴箇所を抽出する状態)より少なくなる。逆に、所定値を基準値より小さくすると、振幅値の変動が比較的小さい箇所も特徴箇所として抽出されることになるので、特徴箇所の数が基準状態よりも多くなる。 For example, regarding the extraction of a characteristic portion by the characteristic extracting unit 1123A, when extracting a portion where the amplitude value increases by a predetermined value or more during a predetermined time as a characteristic portion, the value of the predetermined value is changed according to the tactile mode. For example, if a reference value of a predetermined value is determined and the predetermined value is made larger than the reference value, only a portion where the amplitude value fluctuates more is extracted as a feature portion. Is smaller than the reference state (predetermined value = state in which the characteristic portion is extracted as the reference value). Conversely, if the predetermined value is smaller than the reference value, a portion where the fluctuation of the amplitude value is relatively small is also extracted as a feature portion, so that the number of feature portions is larger than in the reference state.
 また、指定された触質モードに応じて、音声コンテンツの波形情報において振幅値が所定値以上となる箇所を特徴箇所として抽出するように抽出方法に変えたり、この抽出方法における所定値の値を変えたりすることにより、抽出される特徴箇所の位置や数を変えるようにしてもよい。指定された触質モードに応じて特徴箇所の抽出方法を変える場合、音声コンテンツの波形情報を時間ごとに周波数解析し、含まれる周波数成分が急激に変わる箇所を特徴箇所として抽出する方法や、音声コンテンツの波形情報に対して図4と同様の解析を行い、第1の触質パラメータおよび第2の触質パラメータの四則演算値が急激に変わる箇所を特徴箇所として抽出する方法に変えてもよい。 Also, according to the specified tactile mode, the extraction method may be changed so as to extract a portion where the amplitude value is equal to or larger than a predetermined value in the waveform information of the audio content as a characteristic portion, or the value of the predetermined value in this extraction method may be changed. By changing the position, the position and number of the extracted characteristic portions may be changed. When changing the method of extracting characteristic portions according to the specified tactile mode, the waveform information of audio content is subjected to frequency analysis for each time, and a portion where the included frequency component changes abruptly is extracted as a characteristic portion. An analysis similar to that of FIG. 4 may be performed on the waveform information of the content, and the method may be changed to a method of extracting a portion where the four arithmetic operation values of the first tactile parameter and the second tactile parameter suddenly change as a characteristic portion. .
 このように、特徴抽出部1123Aにより抽出される特徴箇所の位置や数が変わることにより、変わった特徴箇所をもとに重み情報生成部1123Bにより生成される重み情報が変わる。重み情報が変わることにより、当該重み情報を用いて重み加工部1123Cにより加工される触覚コンテンツの波形情報が変わる。これにより、触覚コンテンツに基づいて付与される振動の触感を触質モードに応じて変えることができる。 As described above, the weight information generated by the weight information generating unit 1123B changes based on the changed characteristic location by changing the position or the number of the characteristic location extracted by the feature extracting unit 1123A. When the weight information changes, the waveform information of the haptic content processed by the weight processing unit 1123C using the weight information changes. Thereby, the tactile sensation of the vibration applied based on the tactile content can be changed according to the tactile mode.
 また、重み情報生成部1123Bによる重み情報の生成に関して、例えば、重み値の最大値や最小値を触質モードに応じて変更するようにしてもよい。また、一の特徴箇所が抽出された時間から次の特徴箇所が抽出された時間までの重み値の変動の仕方を触質モードに応じて変更するようにしてもよい。すなわち、重み値の最大値から最小値まで重み値を徐々に変えていく方法として、直線状、階段状、2次関数、対数関数などの何れかを触質モードに応じて採用する。この場合、重み値が徐々に小さくなる割合を触質モードに応じて変えるようにしてもよい。 Regarding the generation of the weight information by the weight information generation unit 1123B, for example, the maximum value or the minimum value of the weight value may be changed according to the tactile mode. Further, the manner of changing the weight value from the time when one characteristic portion is extracted to the time when the next characteristic portion is extracted may be changed according to the tactile mode. That is, as a method of gradually changing the weight value from the maximum value to the minimum value of the weight value, any one of a linear shape, a staircase shape, a quadratic function, a logarithmic function, and the like is adopted according to the tactile mode. In this case, the rate at which the weight value gradually decreases may be changed according to the tactile mode.
 このように、重み情報生成部1123Bによる重み情報の生成内容を変えることにより、生成される重み情報が変わる。重み情報が変わることにより、当該重み情報を用いて重み加工部1123Cにより加工される触覚コンテンツの波形情報が変わる。これにより、触覚コンテンツに基づいて付与される振動の触感を触質モードに応じて変えることができる。 As described above, by changing the content of the weight information generated by the weight information generating unit 1123B, the generated weight information changes. When the weight information changes, the waveform information of the haptic content processed by the weight processing unit 1123C using the weight information changes. Thereby, the tactile sensation of the vibration applied based on the tactile content can be changed according to the tactile mode.
 特徴抽出部1123Aによる特徴箇所の抽出内容と、重み情報生成部1123Bによる重み情報の生成内容との何れか一方だけを変えることとしても、触質モードに応じた触覚コンテンツを生成することが可能である。ただし、特徴箇所の抽出内容と重み情報の生成内容との両方を適切に変えることにより、具現化しようとする触感をより適切に表した触覚コンテンツを生成できるようになり、また、より多くの触質モードに対応した触覚コンテンツを生成することができるようになる。 The haptic content according to the tactile mode can be generated by changing only one of the content extracted by the feature extracting unit 1123A and the content generated by the weight information generating unit 1123B. is there. However, by appropriately changing both the extracted content of the characteristic portion and the generated content of the weight information, it becomes possible to generate a haptic content that more appropriately expresses the haptic sensation to be embodied, and further increases the haptic content. Haptic content corresponding to the quality mode can be generated.
 図13は、第2構成例に係るコンテンツ供給装置100の動作例を示すフローチャートである。なお、図13に示すフローチャートは、音声コンテンツの取得については図2Aのように構成するとともに、触覚コンテンツの取得については図8(a)のように構成した場合におけるコンテンツ供給装置100の動作例を示すフローチャートである。この図13に示すフローチャートは、コンテンツ供給装置100を起動したときに開始する。 FIG. 13 is a flowchart illustrating an operation example of the content supply device 100 according to the second configuration example. Note that the flowchart illustrated in FIG. 13 illustrates an example of the operation of the content supply device 100 when the acquisition of audio content is configured as illustrated in FIG. 2A and the acquisition of tactile content is configured as illustrated in FIG. It is a flowchart shown. The flowchart shown in FIG. 13 starts when the content supply device 100 is activated.
 まず、音声コンテンツ取得部14の音声コンテンツ読出部141は、音声コンテンツ記憶部142に記憶されている1以上の音声コンテンツの中から何れかを選択するユーザ操作が行われたか否かを判定する(ステップS11)。このユーザ操作が行われていない場合は、ステップS11の判定を繰り返す。 First, the audio content reading unit 141 of the audio content acquisition unit 14 determines whether or not a user operation for selecting any one or more of the one or more audio contents stored in the audio content storage unit 142 has been performed ( Step S11). If the user operation has not been performed, the determination in step S11 is repeated.
 一方、音声コンテンツを選択するユーザ操作が行われた場合、音声コンテンツ読出部141は、当該ユーザ操作により選択された音声コンテンツを音声コンテンツ記憶部142から読み出すことによって音声コンテンツを取得する(ステップS12)。 On the other hand, when the user operation for selecting the audio content is performed, the audio content reading unit 141 obtains the audio content by reading the audio content selected by the user operation from the audio content storage unit 142 (Step S12). .
 次いで、触質モード指定部13は、音声コンテンツ読出部141により音声コンテンツ記憶部142から読み出された音声コンテンツを解析し、その解析結果に応じて触質モードを指定する(ステップS13)。触覚コンテンツ取得部11の触覚コンテンツ読出部1121は、基準の触覚コンテンツを触覚コンテンツ記憶部1122から読み出す(ステップS14)。 Next, the tactile mode designation unit 13 analyzes the audio content read from the audio content storage unit 142 by the audio content reading unit 141, and designates a tactile mode according to the analysis result (step S13). The haptic content reading unit 1121 of the haptic content acquiring unit 11 reads the reference haptic content from the haptic content storage unit 1122 (Step S14).
 さらに、振動波形加工部1123は、触覚コンテンツ読出部1121により読み出された触覚コンテンツの振動情報に対する重み情報であって、触質モード指定部13により指定された触質モードに応じた重み情報を生成し(ステップS15)、生成した重み情報によって触覚コンテンツの振動情報を加工することにより、指定された触質モードに応じた触覚コンテンツを生成する(ステップS16)。 Further, the vibration waveform processing unit 1123 outputs weight information corresponding to the tactile mode specified by the tactile mode specifying unit 13 as weight information for the vibration information of the haptic content read by the haptic content reading unit 1121. The tactile content according to the designated tactile mode is generated by processing the vibration information of the tactile content according to the generated weight information (step S15) (step S16).
 そして、音声コンテンツ供給部15が、音声コンテンツ取得部14により取得された音声コンテンツをコンテンツ利用機器500に供給するとともに(ステップS17)、触覚コンテンツ供給部12が、振動波形加工部1123により加工された触覚コンテンツをコンテンツ利用機器500に供給する(ステップS18)。 Then, the audio content supply unit 15 supplies the audio content acquired by the audio content acquisition unit 14 to the content use device 500 (step S17), and the haptic content supply unit 12 is processed by the vibration waveform processing unit 1123. The tactile content is supplied to the content using device 500 (step S18).
 その後、音声コンテンツ読出部141は、音声コンテンツのコンテンツ利用機器500に対する供給が終了したか否かを判定する(ステップS19)。音声コンテンツの供給が終了していない場合、処理はステップS16に戻り、音声コンテンツおよび重み情報によって加工した触覚コンテンツのコンテンツ利用機器500に対する供給を継続する。一方、音声コンテンツの供給が終了した場合、図13に示すフローチャートの処理は終了する。 Then, the audio content reading unit 141 determines whether or not the supply of the audio content to the content using device 500 has been completed (step S19). If the supply of the audio content has not been completed, the process returns to step S16, and the supply of the audio content and the haptic content processed based on the weight information to the content using device 500 is continued. On the other hand, when the supply of the audio content ends, the processing of the flowchart illustrated in FIG. 13 ends.
 なお、図8では、触覚コンテンツ記憶部1122,1122’は、触質モードに対応して生成された触覚コンテンツではなく、触質モードに応じた触覚コンテンツを生成するための基準となる所定の振動情報から成る基準の触覚コンテンツを記憶する例について説明した。これに対し、図6で説明したのと同様に、触覚コンテンツ記憶部1122,1122’が複数の触質モードにそれぞれ対応した複数の触覚コンテンツを記憶し、触覚コンテンツ読出部1121,1121’が、触質モード指定部13により指定された触質モードに応じた触覚コンテンツを触覚コンテンツ記憶部1122,1122’から読み出すようにしてもよい。 In FIG. 8, the haptic content storage units 1122 and 1122 ′ are not a haptic content generated in accordance with the tactile mode, but a predetermined vibration serving as a reference for generating the haptic content in accordance with the tactile mode. The example in which the reference haptic content including information is stored has been described. On the other hand, as described in FIG. 6, the haptic content storage units 1122 and 1122 ′ store a plurality of haptic contents respectively corresponding to a plurality of tactile modes, and the haptic content reading units 1121 and 1121 ′ The tactile content according to the tactile mode specified by the tactile mode specifying unit 13 may be read from the tactile content storage units 1122 and 1122 ′.
<触覚コンテンツ取得部11の第3構成例>
 次に、触覚コンテンツ取得部11の第3構成例を説明する。図14A~図14Cは、第3構成例に係る触覚コンテンツ取得部11の機能構成例を示すブロック図である。第3構成例に係る触覚コンテンツ取得部11では、図6の触覚コンテンツ記憶部1112,1112’や図8の触覚コンテンツ記憶部1122,1122’に対してあらかじめ生成しておいた触覚コンテンツを記憶することに代えて、触質モードの指定に応じて触覚コンテンツをリアルタイムに生成するようにしたものである。
<Third Configuration Example of Tactile Content Acquisition Unit 11>
Next, a third configuration example of the haptic content acquisition unit 11 will be described. 14A to 14C are block diagrams illustrating a functional configuration example of the haptic content acquisition unit 11 according to the third configuration example. The haptic content acquisition unit 11 according to the third configuration example stores haptic content generated in advance in the haptic content storage units 1112 and 1112 ′ of FIG. 6 and the haptic content storage units 1122 and 1122 ′ of FIG. Instead, the haptic content is generated in real time according to the specification of the haptic mode.
 図14Aに示す第3構成例に係る触覚コンテンツ取得部11は、触質コンテンツ読出部1131、触質コンテンツ記憶部1132、対象情報取得部1133および触質パラメータ生成部1134を備えている。なお、ここでは、外部装置700からダウンロードした触質コンテンツ(後述する)を触質コンテンツ記憶部1132に記憶可能な形態(図6(b)に対応する形態)のみを示しているが、触質コンテンツ記憶部1132に触質コンテンツがあらかじめ記憶されている形態(図6(a)に対応する形態)や、外部装置700から触質コンテンツをストリーミング的に受信する形態(図6(c)に対応する形態)にも適用が可能である。 The haptic content acquisition unit 11 according to the third configuration example shown in FIG. 14A includes a tactile content readout unit 1131, a tactile content storage unit 1132, a target information acquisition unit 1133, and a tactile parameter generation unit 1134. Here, only a form (a form corresponding to FIG. 6B) in which tactile content (described later) downloaded from the external device 700 can be stored in the tactile content storage unit 1132 is shown. The tactile content is stored in advance in the content storage unit 1132 (corresponding to FIG. 6A), or the tactile content is received from the external device 700 in a streaming manner (corresponding to FIG. 6C). ) Is also applicable.
 図14Bに示す第3構成例に係る触覚コンテンツ取得部11は、対象情報取得部1133、触質パラメータ生成部1134、触質コンテンツ読出部1141、触質コンテンツ記憶部1142、振動波形加工部1123を備えている。なお、この図14Bにおいて、図14Aおよび図8(b)に示した構成要素と同一の機能を有する構成要素には同一の符号を付している。 The haptic content acquisition unit 11 according to the third configuration example illustrated in FIG. 14B includes a target information acquisition unit 1133, a tactile parameter generation unit 1134, a tactile content reading unit 1141, a tactile content storage unit 1142, and a vibration waveform processing unit 1123. Have. In FIG. 14B, components having the same functions as those shown in FIGS. 14A and 8B are denoted by the same reference numerals.
 なお、ここでは、外部装置700からダウンロードした触質コンテンツを触質コンテンツ記憶部1142に記憶可能な形態(図8(b)に対応する形態)のみを示しているが、触質コンテンツ記憶部1142に触質コンテンツがあらかじめ記憶されている形態(図8(a)に対応する形態)や、外部装置700から触質コンテンツをストリーミング的に受信する形態(図8(c)に対応する形態)にも適用が可能である。 Note that, here, only a mode (a mode corresponding to FIG. 8B) in which the tactile content downloaded from the external device 700 can be stored in the tactile content storage unit 1142 is shown, but the tactile content storage unit 1142 In the embodiment, the tactile content is stored in advance (the form corresponding to FIG. 8A), or the tactile content is received in a streaming manner from the external device 700 (the form corresponding to FIG. 8C). Is also applicable.
 図14Cは、図14Aおよび図14Bに示す構成の変形例を示している。この図14Cに構成に関しても、外部装置700からダウンロードした触質コンテンツを触質コンテンツ記憶部1142に記憶可能な形態(図8(b)に対応する形態)のみを示しているが、触質コンテンツ記憶部1142に触質コンテンツがあらかじめ記憶されている形態(図8(a)に対応する形態)や、外部装置700から触質コンテンツをストリーミング的に受信する形態(図8(c)に対応する形態)にも適用が可能である。 FIG. 14C shows a modification of the configuration shown in FIGS. 14A and 14B. FIG. 14C also shows only a configuration (a configuration corresponding to FIG. 8B) in which the tactile content downloaded from the external device 700 can be stored in the tactile content storage unit 1142. The tactile content is stored in the storage unit 1142 in advance (corresponding to FIG. 8A), or the tactile content is streamed from the external device 700 (corresponding to FIG. 8C). Form) is also applicable.
 まず、図14Aについて説明し、図14Bおよび図14Cについては図14Aと異なる点について説明する。 First, FIG. 14A will be described, and points different from FIG. 14A will be described with reference to FIGS. 14B and 14C.
 触質コンテンツ記憶部1132は、それぞれが触感の一要素を表したn個(n≧2)の触質パラメータにより特定される固有の触覚効果を持った触質コンテンツであって、複数の触質モードにそれぞれ対応した複数の触質コンテンツを、n個の触質パラメータの組み合わせおよび触質モードに対応付けて記憶する。本実施形態では、n=2の例を示す。また、2個の触質パラメータとして、図4において説明した情報の強度に関する第1の触質パラメータと、情報の分割区間の長さに関する第2の触質パラメータとを用いる例を示す。 The tactile content storage unit 1132 is a tactile content having a unique tactile effect specified by n (n ≧ 2) tactile parameters, each of which represents one element of the tactile sensation. A plurality of tactile contents respectively corresponding to the modes are stored in association with combinations of n tactile parameters and tactile modes. In the present embodiment, an example where n = 2 is shown. Also, an example is shown in which the first tactile parameter relating to the intensity of the information described in FIG. 4 and the second tactile parameter relating to the length of the divided section of the information are used as the two tactile parameters.
 すなわち、本実施形態において、触質コンテンツ記憶部1132は、情報の強度に関する第1の触質パラメータおよび情報の分割区間の長さに関する第2の触質パラメータにより特定される固有の触覚効果を持った触質コンテンツを、第1の触質パラメータおよび第2の触質パラメータの組み合わせに対応付けて記憶する。ここで用いる触質パラメータは、例えば<硬い-柔らかい>、<粗い-滑らか>のように対立する触質(以下、触質対という)の程度を表すパラメータといえる。 That is, in the present embodiment, the tactile content storage unit 1132 has a unique tactile effect specified by the first tactile parameter relating to the intensity of the information and the second tactile parameter relating to the length of the divided section of the information. The stored tactile content is stored in association with a combination of the first tactile parameter and the second tactile parameter. The tactile parameter used here can be said to be a parameter indicating the degree of opposing tactile properties (hereinafter referred to as a tactile pair) such as <hard-soft> or <coarse-smooth>.
 例えば、<硬い-柔らかい>という触質対に関する触質パラメータとして、情報の強度を用いることが可能である。すなわち、強度を表す値が大きいほど硬いことを表し、強度を表す値が小さいほど柔らかいことを表す。また、<粗い-滑らか>という触質対に関する触質パラメータとして、情報の分割区間の長さを用いることが可能である。すなわち、長さを表す値が大きいほど滑らかであることを表し、長さを表す値が小さいほど粗いことを表す。 For example, it is possible to use the intensity of information as a tactile parameter relating to a <hard-soft> tactile pair. In other words, a larger value indicating strength indicates a harder value, and a smaller value indicating strength indicates a softer value. Also, the length of the information division section can be used as the tactile parameter relating to the tactile pair <rough-smooth>. In other words, a larger value representing the length indicates smoother, and a smaller value representing the length indicates coarser.
 図15は、触質コンテンツ記憶部1132が記憶する触質コンテンツの記憶例を模式的に示す図である。図15は、縦軸に第1の触質パラメータとしての「強度」をとり、横軸に第2の触質パラメータとしての「分割区間の長さ」をとって表したマトリクス状の触質対空間を示している。図15の例では、第1の触質パラメータ(強度)で表される触質対として<硬い-柔らかい>を用い、第2の触質パラメータ(分割区間の長さ)で表される触質対として<粗い-滑らか>を用いたものを示している。 FIG. 15 is a diagram schematically illustrating a storage example of the tactile content stored in the tactile content storage unit 1132. FIG. 15 shows a matrix-like tactile pair in which “vertical axis” represents “strength” as a first tactile parameter, and “horizontal axis” represents “length of a divided section” as a second tactile parameter. Shows space. In the example of FIG. 15, <hard-soft> is used as a tactile pair represented by a first tactile parameter (strength), and a tactile represented by a second tactile parameter (length of a divided section) is used. The pair using <rough-smooth> is shown.
 図15の例では、強度の最大値から最小値までを5段階に分けるとともに、分割区間の長さの最大値から最小値までを5段階に分けることにより、25個のマトリクス空間を形成している。25個のマトリクス空間には、それぞれ1番~25番のインデックス番号が付与されている。触質コンテンツ記憶部1132は、これら25個のマトリクス空間内にそれぞれ、強度および分割区間の長さの組み合わせに応じた触質コンテンツを記憶する。 In the example of FIG. 15, 25 matrix spaces are formed by dividing the maximum to minimum values of the intensity into five levels and dividing the maximum to minimum values of the length of the divided section into five levels. I have. Index numbers 1 to 25 are assigned to the 25 matrix spaces, respectively. The tactile content storage unit 1132 stores the tactile content according to the combination of the intensity and the length of the divided section in each of the 25 matrix spaces.
 例えばインデックス番号“1”の位置には、強度が最大で分割区間の長さが最小の振動情報、つまり、最も硬くて最も粗いというイメージを伝達可能な触質コンテンツの振動情報が記憶される。また、例えばインデックス番号“25”の位置には、強度が最小で分割区間の長さが最大の振動情報、つまり、最も柔らかくても最も滑らかというイメージを伝達可能な触質コンテンツの振動情報が記憶される。 For example, at the position of the index number “1”, vibration information having the maximum strength and the minimum length of the divided section, that is, vibration information of the tactile content capable of transmitting the image of the hardest and coarsest is stored. Also, for example, at the position of index number “25”, vibration information having the smallest intensity and the largest length of the divided section, that is, vibration information of the tactile content that can transmit the image of being the softest but the smoothest is stored. Is done.
 なお、触質コンテンツを特定するための2組の触質対として何を用いるかは任意に定めることが可能である。すなわち、ここでは2組の触質対として<硬い-柔らかい>および<粗い-滑らか>を用いているが、本発明はこれに限定されない。例えば、触質対の別の例として、<大きい-小さい>、<鋭い-鈍い>、<重い-軽い>、<ざらざら-つるつる>、<揺らぎのある-安定した>、<消えるような-残るような>などの対を用いてもよい。 Note that what is used as the two sets of tactile pairs for specifying the tactile content can be arbitrarily determined. That is, here, <hard-soft> and <rough-smooth> are used as the two tactile pairs, but the present invention is not limited to this. For example, as another example of a tactile pair, <large-small>, <sharp-dull>, <heavy-light>, <rough-slippery>, <fluctuation-stable>, <disappearing-remaining> A pair such as> may be used.
 図14Aの構成例では、触質コンテンツ記憶部1132は、図15に示したようなマトリクスの対応情報を、複数の触質モードに応じて記憶する。例えば、図5(a)のように4つの触質モードを有する場合は、4つの触質モードに応じた4つの対応情報を記憶する。これにより、情報の強度に関する第1の触質パラメータの値および情報の分割区間の長さに関する第2の触質パラメータの値が何れも同じであっても、触質モード指定部13により指定される触質モードに応じて触質コンテンツの振動情報が変わることになる。 In the configuration example of FIG. 14A, the tactile content storage unit 1132 stores the matrix correspondence information as shown in FIG. 15 according to a plurality of tactile modes. For example, when there are four tactile modes as shown in FIG. 5A, four pieces of correspondence information corresponding to the four tactile modes are stored. Thereby, even if the value of the first tactile parameter related to the intensity of the information and the value of the second tactile parameter related to the length of the divided section of the information are all the same, the tactile mode designation unit 13 specifies the value. The vibration information of the tactile content changes according to the tactile mode.
 なお、触質モードに応じて内容が異なる複数の対応情報は、第1の触質パラメータで表される触質対<硬い-柔らかい>と、第2の触質パラメータで表される触質対<粗い-滑らか>との組み合わせが同じで、個々のインデックス番号に対応付けて記憶される振動情報の内容が異なるものとすることが可能である。あるいは、触質モードに応じて内容が異なる複数の対応情報は、第1の触質パラメータで表される触質対と、第2の触質パラメータで表される触質対との組み合わせを触質モードに応じて変えたものとすることも可能である。 A plurality of pieces of correspondence information having different contents according to the tactile mode include a tactile pair <hard-soft> represented by a first tactile parameter and a tactile pair represented by a second tactile parameter. The combination of <coarse-smooth> may be the same, and the content of the vibration information stored in association with each index number may be different. Alternatively, the plurality of pieces of correspondence information having different contents depending on the tactile mode are a combination of a tactile pair represented by a first tactile parameter and a tactile pair represented by a second tactile parameter. It is also possible to change according to the quality mode.
 なお、上述したように、図14Aの例では、外部装置700からダウンロードした触質コンテンツを触質コンテンツ記憶部1132に記憶可能な形態を示している。すなわち、触質コンテンツ記録部17’は、外部装置700から通信ネットワーク600を介して触質コンテンツを取得して触質コンテンツ記憶部1132に記憶させる。 As described above, the example of FIG. 14A shows a mode in which the tactile content downloaded from the external device 700 can be stored in the tactile content storage unit 1132. That is, the tactile content recording unit 17 ′ acquires the tactile content from the external device 700 via the communication network 600 and stores the tactile content in the tactile content storage unit 1132.
 また、外部装置700から触質コンテンツをストリーミング的に受信して触質コンテンツ記憶部1132’(図示せず)に一時的に記憶させる形態とする場合、触質コンテンツ読出部1131’(図示せず)および触覚コンテンツ供給部12は、触質コンテンツ記録部17’により受信されて触質コンテンツ記憶部1132’に一時的に記憶された触質コンテンツに基づいて生成された触覚コンテンツをコンテンツ利用機器500に供給する処理を、触質コンテンツ記憶部1132’に対する触質コンテンツの記録処理と一連に行う。 In a case where the tactile content is received in a streaming manner from the external device 700 and temporarily stored in the tactile content storage unit 1132 ′ (not shown), the tactile content reading unit 1131 ′ (not shown) is used. ) And the haptic content supply unit 12 transmits the haptic content generated based on the haptic content received by the haptic content recording unit 17 ′ and temporarily stored in the haptic content storage unit 1132 ′ to the content use device 500. Are performed in series with the recording process of the tactile content in the tactile content storage unit 1132 ′.
 対象情報取得部1133は、触覚コンテンツの生成元とする対象情報を取得する。ここで、対象情報取得部1133は、強度に相当する値が連続的または断続的に連なって成る対象情報を取得する。当該対象情報の一例として、時系列の波形情報を取得する。ここで取得する波形情報は、アナログ信号でもよいし、デジタルデータでもよい。また、取得する波形情報は、時間の経過と共に振幅が変化する情報であればよく、その種類は任意である。例えば、音声信号、映像信号、地震計・風力計・光量計など各種計測機器の測定信号、オシロスコープによる波形測定データ、株価変動データなどが挙げられるが、これらは一例に過ぎない。 (4) The target information acquisition unit 1133 acquires target information from which a haptic content is generated. Here, the target information acquisition unit 1133 acquires target information in which a value corresponding to the intensity is continuously or intermittently connected. As an example of the target information, time-series waveform information is acquired. The waveform information acquired here may be an analog signal or digital data. Further, the waveform information to be obtained may be any information whose amplitude changes over time, and its type is arbitrary. For example, audio signals, video signals, measurement signals of various measuring devices such as seismometers, anemometers, and light meters, waveform measurement data with an oscilloscope, stock price fluctuation data, and the like are given, but these are merely examples.
 このように対象情報取得部1133が取得する対象情報は、音声コンテンツ取得部14により取得された音声コンテンツとは異なる情報である。ここで、対象情報取得部1133が取得する対象情報は、ユーザが任意に指定することが可能である。すなわち、ユーザは、あらかじめ用意した対象情報をコンテンツ供給装置100に入力し、これを触覚コンテンツ取得部11の対象情報取得部1133が取得する。 対 象 The target information acquired by the target information acquisition unit 1133 is information different from the audio content acquired by the audio content acquisition unit 14. Here, the target information obtained by the target information obtaining unit 1133 can be arbitrarily specified by the user. That is, the user inputs target information prepared in advance to the content supply device 100, and the target information obtaining unit 1133 of the tactile content obtaining unit 11 obtains this.
 触質パラメータ生成部1134は、対象情報取得部1133により取得された対象情報から、それぞれが触感の一要素を表したn個(今の例ではn=2)の触質パラメータの組み合わせを1組以上生成する。この触質パラメータ生成部1134の処理内容は、図3に示した触質パラメータ生成部131の処理内容と同様である。 From the target information acquired by the target information acquisition unit 1133, the tactile parameter generation unit 1134 sets a set of n (in this example, n = 2) tactile parameter combinations each representing one element of the tactile sensation. Generate above. The processing content of the tactile parameter generation unit 1134 is the same as the processing content of the tactile parameter generation unit 131 shown in FIG.
 触質コンテンツ読出部1131は、触質パラメータ生成部1134により生成されたn個の触質パラメータ(第1の触質パラメータおよび第2の触質パラメータ)の組み合わせを1組以上指定して、当該指定した1組以上の組み合わせおよび触質モードに対応する1以上の触質コンテンツを触質コンテンツ記憶部1132から読み出す。 The tactile content readout unit 1131 specifies one or more combinations of the n tactile parameters (the first tactile parameter and the second tactile parameter) generated by the tactile parameter generation unit 1134, and One or more tactile contents corresponding to the specified one or more combinations and tactile modes are read from the tactile content storage unit 1132.
 例えば、触質コンテンツ読出部1131は、図4のように触質パラメータ生成部1134によりそれぞれの分割区間から第1の触質パラメータ(振幅)および第2の触質パラメータ(分割区間の時間の長さ)の組み合わせが複数生成された場合、これらの組み合わせを順に指定して、当該指定した複数組の組み合わせに対応する複数の触質コンテンツを触質コンテンツ記憶部1132から順に読み出す。 For example, as shown in FIG. 4, the tactile content readout unit 1131 uses the tactile parameter generation unit 1134 to execute a first tactile parameter (amplitude) and a second tactile parameter (the time length of the divided section) from each divided section. When a plurality of combinations of (a) and (b) are generated, these combinations are sequentially specified, and a plurality of tactile contents corresponding to the specified plurality of combinations are sequentially read from the tactile content storage unit 1132.
 すなわち、触質コンテンツ読出部1131は、図4に示す各分割区間T1,T2,T3,・・・から特定された代表振幅および分割区間の長さの組み合わせ{h1,t1},{h2,t2},{h3,t3},・・・を指定する。そして、図15に示した触質コンテンツのマトリクス空間上において、上記指定したそれぞれの組み合わせに対応する触質コンテンツを順に読み出す。 That is, the tactile content reading unit 1131 performs the combination {h1, t1}, {h2, t2 of the representative amplitude and the length of the divided section specified from each of the divided sections T1, T2, T3,. }, {H3, t3}, ... are specified. Then, on the matrix space of the tactile content shown in FIG. 15, the tactile content corresponding to each of the specified combinations is sequentially read.
 なお、図4のように第1の触質パラメータおよび第2の触質パラメータの組み合わせが複数生成された場合であっても、その中の何れか1つまたは複数の組み合わせを指定して、当該指定した組み合わせに対応する1以上の触質コンテンツを触質コンテンツ記憶部1132から読み出すようにしてもよい。この場合における触質パラメータの組み合わせの指定は、所望の触覚コンテンツを生成したいユーザが手動で行うことができるようにしてもよいし、所定のルールに基づいて触質コンテンツ読出部1131が自動的に行うようにしてもよい。 Note that, even when a plurality of combinations of the first tactile parameter and the second tactile parameter are generated as shown in FIG. 4, any one or a plurality of combinations are designated, and One or more tactile contents corresponding to the specified combination may be read from the tactile content storage unit 1132. In this case, the specification of the combination of the tactile parameters may be manually performed by a user who wants to generate a desired tactile content, or the tactile content reading unit 1131 may automatically specify the combination of tactile contents based on a predetermined rule. It may be performed.
 図14Aに示す構成例では、触質コンテンツ読出部1131により読み出された触質コンテンツを触覚コンテンツとし、これを触覚コンテンツ供給部12に供給する。 In the configuration example illustrated in FIG. 14A, the tactile content read by the tactile content reading unit 1131 is set as the tactile content, and the tactile content is supplied to the tactile content supply unit 12.
 なお、図示はしていないが、図3(b)に示した触質差分パラメータ生成部134と同様の構成を触質パラメータ生成部1134の後段に設けるようにしてもよい。 Although not shown, a configuration similar to the tactile difference parameter generation unit 134 illustrated in FIG. 3B may be provided at a subsequent stage of the tactile parameter generation unit 1134.
 この場合、触質パラメータ生成部1134は、対象情報取得部1131により取得された対象情報から、それぞれが触感の一要素を表したn個(n≧2)の触質パラメータの組み合わせを2組以上生成する。そして、この触質パラメータ生成部1134の後段に設けられる触質差分パラメータ生成部は、触質パラメータ生成部1134により生成された2組以上の触質パラメータについて、2つの組間で触質パラメータの差分値をそれぞれ計算することにより、n個の触質差分パラメータの組み合わせを1組以上生成する。 In this case, the tactile parameter generation unit 1134 uses the target information acquired by the target information acquisition unit 1131 to select two or more combinations of n (n ≧ 2) tactile parameters each representing one element of the tactile sensation. Generate. Then, the tactile difference parameter generation unit provided at the subsequent stage of the tactile parameter generation unit 1134 outputs the tactile parameter between the two sets for the two or more sets of tactile parameters generated by the tactile parameter generation unit 1134. By calculating the difference values, one or more combinations of n tactile difference parameters are generated.
 また、触質コンテンツ記憶部1132は、n個の触質差分パラメータにより特定される固有の触覚効果を持った触質コンテンツであって、複数の触質モードにそれぞれ対応した複数の触質コンテンツを、n個の触質差分パラメータの組み合わせおよび触質モードに対応付けて記憶する。そして、触質コンテンツ読出部1131は、触質差分パラメータ生成部により生成されたn個の触質差分パラメータの組み合わせを1組以上指定して、当該指定した1組以上の組み合わせおよび触質モードに対応する1以上の触質コンテンツを触質コンテンツ記憶部1132から読み出す。この構成の場合も、触質コンテンツ読出部1131により読み出された触質コンテンツを触覚コンテンツとする。 The tactile content storage unit 1132 stores a plurality of tactile contents each having a unique tactile effect specified by the n tactile difference parameters and corresponding to a plurality of tactile modes. , And a combination of n tactile difference parameters and a tactile mode are stored. Then, the tactile content reading unit 1131 specifies one or more combinations of the n tactile difference parameters generated by the tactile difference parameter generation unit, and sets the combination to the specified one or more combinations and tactile mode. The corresponding one or more tactile contents are read from the tactile content storage unit 1132. Also in this configuration, the tactile content read by the tactile content reading unit 1131 is set as the tactile content.
 なお、図14Aのように、外部装置700からダウンロードした触質コンテンツを触質コンテンツ記憶部1132に記憶可能な形態のみならず、触質コンテンツを触質コンテンツ記憶部1132にあらかじめ記憶している形態や、外部装置700から触質コンテンツをストリーミング的に受信して触質コンテンツ記憶部1132’(図示せず)に一時的に記憶させる形態とする場合においても、触質パラメータに代えて触質差分パラメータを用いることができるのは言うまでもない。 In addition, as shown in FIG. 14A, not only a form in which the tactile content downloaded from the external device 700 can be stored in the tactile content storage unit 1132, but also a form in which the tactile content is stored in the tactile content storage unit 1132 in advance. Also, in the case where the tactile content is received in a streaming manner from the external device 700 and temporarily stored in the tactile content storage unit 1132 ′ (not shown), the tactile difference is used instead of the tactile parameter. It goes without saying that parameters can be used.
 次に、図14Bの構成について説明する。対象情報取得部1133および触質パラメータ生成部1134については、図14Aで説明したのと同様である。触質コンテンツ記憶部1142は、ハードディスク、半導体メモリ等の不揮発性の記憶媒体であり、n個の触質パラメータにより特定される固有の触覚効果を持った触質コンテンツを、n個の触質パラメータの組み合わせに対応付けて記憶する。触質コンテンツ記憶部1142が記憶する触質コンテンツは、図14Aにて説明したのと同様のものであるが、触質モードに対応して生成されたものではなく、触質モードに応じた触覚コンテンツを生成するための基準となる所定の振動情報から成る触質コンテンツである。 Next, the configuration of FIG. 14B will be described. The target information acquisition unit 1133 and the tactile parameter generation unit 1134 are the same as those described with reference to FIG. 14A. The tactile content storage unit 1142 is a non-volatile storage medium such as a hard disk or a semiconductor memory, and stores tactile contents having a unique haptic effect specified by n tactile parameters into n tactile parameters. Is stored in association with the combination. The tactile content stored in the tactile content storage unit 1142 is the same as that described with reference to FIG. 14A, but is not generated in accordance with the tactile mode, and is not generated in accordance with the tactile mode. The tactile content is composed of predetermined vibration information serving as a reference for generating the content.
 触質コンテンツ読出部1141は、触質パラメータ生成部1134により生成されたn個の触質パラメータの組み合わせを1組以上指定して、当該指定した1組以上の組み合わせに対応する1以上の触質コンテンツを触質コンテンツ記憶部1142から読み出す。 The tactile content reading unit 1141 specifies one or more combinations of the n tactile parameters generated by the tactile parameter generation unit 1134, and specifies one or more tactiles corresponding to the specified one or more combinations. The content is read from the tactile content storage unit 1142.
 振動波形加工部1123は、触質コンテンツ読出部1141により読み出された触質コンテンツの振動情報に対する重み情報であって、触質モード指定部13により指定された触質モードに応じた重み情報を生成し、生成した重み情報によって触質コンテンツの振動情報を加工する。この図14Bに示す構成の場合、振動波形加工部1123により加工された触質コンテンツを触覚コンテンツとする。 The vibration waveform processing unit 1123 is a weight information for the vibration information of the tactile content read by the tactile content reading unit 1141, and assigns the weight information according to the tactile mode specified by the tactile mode designating unit 13. The vibration information of the tactile content is processed by the generated weight information. In the case of the configuration shown in FIG. 14B, the tactile content processed by the vibration waveform processing unit 1123 is set as the tactile content.
 なお、図示はしていないが、図3(b)に示した触質差分パラメータ生成部134と同様の構成を触質パラメータ生成部1134の後段に設けるようにしてもよい。 Although not shown, a configuration similar to the tactile difference parameter generation unit 134 illustrated in FIG. 3B may be provided at a subsequent stage of the tactile parameter generation unit 1134.
 この場合、触質パラメータ生成部1134は、対象情報取得部1131により取得された対象情報から、それぞれが触感の一要素を表したn個(n≧2)の触質パラメータの組み合わせを2組以上生成する。そして、この触質パラメータ生成部1134の後段に設けられる触質差分パラメータ生成部は、触質パラメータ生成部1134により生成された2組以上の触質パラメータについて、2つの組間で触質パラメータの差分値をそれぞれ計算することにより、n個の触質差分パラメータの組み合わせを1組以上生成する。 In this case, the tactile parameter generation unit 1134 uses the target information acquired by the target information acquisition unit 1131 to select two or more combinations of n (n ≧ 2) tactile parameters each representing one element of the tactile sensation. Generate. Then, the tactile difference parameter generation unit provided at the subsequent stage of the tactile parameter generation unit 1134 outputs the tactile parameter between the two sets for the two or more sets of tactile parameters generated by the tactile parameter generation unit 1134. By calculating the difference values, one or more combinations of n tactile difference parameters are generated.
 さらに、振動波形加工部1123は、触覚コンテンツ読出部1141により読み出された触質コンテンツの振動情報に対する重み情報であって、触質モード指定部13により指定された触質モードに応じた重み情報を生成し、生成した重み情報によって触質コンテンツの振動情報を加工する。この構成の場合も、振動波形加工部1123により加工された触質コンテンツを触覚コンテンツとする。 Further, the vibration waveform processing unit 1123 is weight information for the vibration information of the tactile content read by the tactile content reading unit 1141, and is weight information corresponding to the tactile mode specified by the tactile mode specifying unit 13. Is generated, and the vibration information of the tactile content is processed based on the generated weight information. Also in the case of this configuration, the tactile content processed by the vibration waveform processing unit 1123 is set as the tactile content.
 また、触質コンテンツ記憶部1142は、n個の触質差分パラメータにより特定される固有の触覚効果を持った触質コンテンツを、n個の触質差分パラメータの組み合わせに対応付けて記憶する。そして、触質コンテンツ読出部1141は、触質差分パラメータ生成部により生成されたn個の触質差分パラメータの組み合わせを1組以上指定して、当該指定した1組以上の組み合わせに対応する1以上の触質コンテンツを触質コンテンツ記憶部1142から読み出す。 (4) The tactile content storage unit 1142 stores tactile content having a unique haptic effect specified by n tactile difference parameters in association with a combination of n tactile difference parameters. Then, the tactile content reading unit 1141 specifies one or more combinations of the n tactile difference parameters generated by the tactile difference parameter generation unit, and selects one or more combinations corresponding to the specified one or more combinations. Is read from the tactile content storage unit 1142.
 なお、図14Bでは、触質コンテンツ記憶部1142は、触質モードに対応して生成された触質コンテンツではなく、触質モードに応じた触覚コンテンツを生成するための基準となる所定の振動情報から成る触質コンテンツを記憶する例について説明した。これに対し、図14Aで説明したのと同様に、触質コンテンツ記憶部1142が複数の触質モードにそれぞれ対応した複数の触質コンテンツを記憶し、触質コンテンツ読出部1141が、触質モード指定部13により指定された触質モードに応じた触質コンテンツを触質コンテンツ記憶部1142から読み出すようにしてもよい。 In FIG. 14B, the tactile content storage unit 1142 stores the predetermined vibration information serving as a reference for generating the tactile content corresponding to the tactile mode, instead of the tactile content generated corresponding to the tactile mode. The example in which the tactile content composed of is stored has been described. On the other hand, as described with reference to FIG. 14A, the tactile content storage unit 1142 stores a plurality of tactile contents respectively corresponding to the plurality of tactile modes, and the tactile content readout unit 1141 stores the tactile mode. The tactile content according to the tactile mode specified by the specifying unit 13 may be read from the tactile content storage unit 1142.
 次に、図14Cの構成例について説明する。図14Aおよび図14Bでは、対象情報取得部1133は、音声コンテンツ取得部14により取得された音声コンテンツとは異なる情報、すなわち、ユーザが音声コンテンツとは別に指定した波形情報を対象情報として取得していた。これに対し、図14Cの構成例では、対象情報取得部1133’は、音声コンテンツ取得部14により取得された音声コンテンツを対象情報として取得する。その他は図14Aまたは図14Bと同様である。 Next, the configuration example of FIG. 14C will be described. 14A and 14B, the target information obtaining unit 1133 obtains, as target information, information different from the audio content obtained by the audio content obtaining unit 14, that is, waveform information specified separately from the audio content by the user. Was. On the other hand, in the configuration example of FIG. 14C, the target information acquisition unit 1133 ′ acquires the audio content acquired by the audio content acquisition unit 14 as the target information. Others are the same as FIG. 14A or FIG. 14B.
 この図14Cに示す構成によれば、音声コンテンツ取得部14により取得される音声コンテンツ(すなわち、コンテンツ利用機器500に供給する音声コンテンツ)が持つ触質パラメータにより特定される触質コンテンツをもとに触覚コンテンツが生成されることになる。すなわち、図14Cに示す構成によれば、ユーザにより選択された音声コンテンツの触質特徴量に基づいて触質モード指定部13より指定された触質モードに応じた触覚コンテンツであって、かつ、ユーザにより選択された音声コンテンツに関する触質パラメータに応じた触覚コンテンツ(すなわち、対象情報取得部1133’において音声コンテンツを対象情報として取得することによって生成される触覚コンテンツ)が取得されることになる。これにより、音声コンテンツと親和性の高い触覚コンテンツを生成することができる。 According to the configuration shown in FIG. 14C, based on the tactile content specified by the tactile parameter of the audio content acquired by the audio content acquisition unit 14 (that is, the audio content supplied to the content use device 500). Haptic content will be generated. That is, according to the configuration illustrated in FIG. 14C, the tactile content is in accordance with the tactile mode specified by the tactile mode specifying unit 13 based on the tactile feature amount of the audio content selected by the user, and The haptic content corresponding to the tactile parameter relating to the audio content selected by the user (that is, the haptic content generated by obtaining the audio content as the target information in the target information obtaining unit 1133 ') is obtained. This makes it possible to generate tactile content having high affinity with audio content.
 図16は、音声コンテンツの取得については図2Aのように構成するとともに、触覚コンテンツの取得については触覚コンテンツ取得部11を図14Aのように構成した場合におけるコンテンツ供給装置100の動作例を示すフローチャートである。なお、図16に示すフローチャートは、コンテンツ供給装置100を起動したときに開始する。 FIG. 16 is a flowchart illustrating an operation example of the content supply device 100 when the acquisition of audio content is configured as illustrated in FIG. 2A and the acquisition of haptic content is configured as the haptic content acquisition unit 11 as illustrated in FIG. 14A. It is. Note that the flowchart illustrated in FIG. 16 starts when the content supply device 100 is activated.
 まず、対象情報取得部1133は、ユーザにより指定された対象情報を取得する(ステップS21)。次いで、触質パラメータ生成部1134は、対象情報取得部1133により取得された対象情報から、それぞれが触感の一要素を表したn個の触質パラメータの組み合わせを生成する(ステップS22)。なお、触質差分パラメータを生成する実施形態の場合は、このステップS22で生成された触質パラメータをもとに触質差分パラメータを生成する。 First, the target information acquisition unit 1133 acquires target information specified by the user (Step S21). Next, the tactile parameter generation unit 1134 generates a combination of n tactile parameters each representing one element of the tactile sensation from the target information acquired by the target information acquisition unit 1133 (Step S22). In the case of the embodiment in which the tactile difference parameter is generated, the tactile difference parameter is generated based on the tactile parameter generated in step S22.
 その後、音声コンテンツ取得部14の音声コンテンツ読出部141は、音声コンテンツ記憶部142に記憶されている1以上の音声コンテンツの中から何れかを選択するユーザ操作が行われたか否かを判定する(ステップS23)。このユーザ操作が行われていない場合は、ステップS23の判定を繰り返す。 Thereafter, the audio content reading unit 141 of the audio content obtaining unit 14 determines whether or not a user operation for selecting any one or more of the one or more audio contents stored in the audio content storage unit 142 has been performed ( Step S23). If the user operation has not been performed, the determination in step S23 is repeated.
 一方、音声コンテンツを選択するユーザ操作が行われた場合、音声コンテンツ読出部141は、当該ユーザ操作により選択された音声コンテンツを音声コンテンツ記憶部142から読み出すことによって音声コンテンツを取得する(ステップS24)。 On the other hand, when the user operation for selecting the audio content is performed, the audio content reading unit 141 acquires the audio content by reading the audio content selected by the user operation from the audio content storage unit 142 (step S24). .
 次いで、触質モード指定部13は、音声コンテンツ読出部141により音声コンテンツ記憶部142から読み出された音声コンテンツを解析し、その解析結果に応じて触質モードを指定する(ステップS25)。触覚コンテンツ取得部11の触質コンテンツ読出部1131は、ステップS22で触質パラメータ生成部1134により生成されたn個の触質パラメータの組み合わせを1組以上指定して、当該指定した1組以上の組み合わせおよび触質モードに対応する1以上の触質コンテンツを触質コンテンツ記憶部1132から読み出す(ステップS26)。 Next, the tactile mode designation unit 13 analyzes the audio content read from the audio content storage unit 142 by the audio content reading unit 141, and designates a tactile mode according to the analysis result (step S25). The tactile content reading unit 1131 of the tactile content acquisition unit 11 specifies one or more combinations of the n tactile parameters generated by the tactile parameter generation unit 1134 in step S22, and One or more tactile contents corresponding to the combination and the tactile mode are read from the tactile content storage unit 1132 (step S26).
 そして、音声コンテンツ供給部15が、ステップS24で音声コンテンツ取得部14により取得された音声コンテンツをコンテンツ利用機器500に供給するとともに(ステップS27)、触覚コンテンツ供給部12が、ステップS26で触質コンテンツ読出部1131により触質コンテンツ記憶部1132から読み出された触質コンテンツを触覚コンテンツとしてコンテンツ利用機器500に供給する(ステップS28)。 Then, the audio content supply unit 15 supplies the audio content acquired by the audio content acquisition unit 14 in step S24 to the content use device 500 (step S27), and the haptic content supply unit 12 transmits the tactile content in step S26. The tactile content read from the tactile content storage unit 1132 by the reading unit 1131 is supplied to the content using device 500 as tactile content (step S28).
 その後、音声コンテンツ読出部141は、音声コンテンツのコンテンツ利用機器500に対する供給が終了したか否かを判定する(ステップS29)。音声コンテンツの供給が終了していない場合、処理はステップS27に戻り、音声コンテンツおよび触覚コンテンツのコンテンツ利用機器500に対する供給を継続する。一方、音声コンテンツの供給が終了した場合、図16に示すフローチャートの処理は終了する。 Then, the audio content reading unit 141 determines whether or not the supply of the audio content to the content using device 500 has been completed (step S29). If the supply of the audio content has not been completed, the process returns to step S27, and the supply of the audio content and the tactile content to the content using device 500 is continued. On the other hand, when the supply of the audio content ends, the processing of the flowchart illustrated in FIG. 16 ends.
 図17は、音声コンテンツの取得については図2Aのように構成するとともに、触覚コンテンツの取得については触覚コンテンツ取得部11を図14Bのように構成した場合におけるコンテンツ供給装置100の動作例を示すフローチャートである。なお、図17に示すフローチャートは、コンテンツ供給装置100を起動したときに開始する。 FIG. 17 is a flowchart showing an operation example of the content supply device 100 when the acquisition of audio content is configured as shown in FIG. 2A and the acquisition of haptic content is configured as the haptic content acquisition unit 11 as shown in FIG. 14B. It is. Note that the flowchart illustrated in FIG. 17 starts when the content supply device 100 is activated.
 まず、対象情報取得部1133は、ユーザにより指定された対象情報を取得する(ステップS31)。次いで、触質パラメータ生成部1134は、対象情報取得部1133により取得された対象情報から、それぞれが触感の一要素を表したn個の触質パラメータの組み合わせを生成する(ステップS32)。なお、触質差分パラメータを生成する実施形態の場合は、このステップS32で生成された触質パラメータをもとに触質差分パラメータを生成する。 First, the target information obtaining unit 1133 obtains target information specified by the user (step S31). Next, the tactile parameter generation unit 1134 generates a combination of n tactile parameters each representing one element of the tactile sensation from the target information acquired by the target information acquisition unit 1133 (Step S32). In the case of the embodiment in which the tactile difference parameter is generated, the tactile difference parameter is generated based on the tactile parameter generated in step S32.
 その後、音声コンテンツ取得部14の音声コンテンツ読出部141は、音声コンテンツ記憶部142に記憶されている1以上の音声コンテンツの中から何れかを選択するユーザ操作が行われたか否かを判定する(ステップS33)。このユーザ操作が行われていない場合は、ステップS33の判定を繰り返す。 Thereafter, the audio content reading unit 141 of the audio content obtaining unit 14 determines whether or not a user operation for selecting any one or more of the one or more audio contents stored in the audio content storage unit 142 has been performed ( Step S33). If the user operation has not been performed, the determination in step S33 is repeated.
 一方、音声コンテンツを選択するユーザ操作が行われた場合、音声コンテンツ読出部141は、当該ユーザ操作により選択された音声コンテンツを音声コンテンツ記憶部142から読み出すことによって音声コンテンツを取得する(ステップS34)。 On the other hand, when the user operation for selecting the audio content is performed, the audio content reading unit 141 acquires the audio content by reading the audio content selected by the user operation from the audio content storage unit 142 (Step S34). .
 次いで、触質モード指定部13は、音声コンテンツ読出部141により音声コンテンツ記憶部142から読み出された音声コンテンツを解析し、その解析結果に応じて触質モードを指定する(ステップS35)。触覚コンテンツ取得部11の触質コンテンツ読出部1141は、ステップS32で触質パラメータ生成部1134により生成されたn個の触質パラメータの組み合わせを1組以上指定して、当該指定した1組以上の組み合わせに対応する1以上の触質コンテンツを触質コンテンツ記憶部1142から読み出す(ステップS36)。 Next, the tactile mode designation unit 13 analyzes the audio content read from the audio content storage unit 142 by the audio content reading unit 141, and designates a tactile mode according to the analysis result (step S35). The tactile content reading unit 1141 of the tactile content acquisition unit 11 specifies one or more combinations of the n tactile parameters generated by the tactile parameter generation unit 1134 in step S32, and One or more tactile contents corresponding to the combination are read from the tactile content storage unit 1142 (step S36).
 さらに、振動波形加工部1123は、触質コンテンツ読出部1141により読み出された触質コンテンツの振動情報に対する重み情報であって、触質モード指定部13により指定された触質モードに応じた重み情報を生成し(ステップS37)、生成した重み情報によって触質コンテンツの振動情報を加工することにより、指定された触質モードに応じた触質コンテンツを生成する(ステップS38)。 Further, the vibration waveform processing unit 1123 is weight information for the vibration information of the tactile content read by the tactile content reading unit 1141, and is a weight corresponding to the tactile mode specified by the tactile mode designating unit 13. Information is generated (step S37), and tactile content according to the designated tactile mode is generated by processing vibration information of the tactile content using the generated weight information (step S38).
 そして、音声コンテンツ供給部15が、ステップS34で音声コンテンツ取得部14により取得された音声コンテンツをコンテンツ利用機器500に供給するとともに(ステップS39)、触覚コンテンツ供給部12が、振動波形加工部1123により加工された触質コンテンツを触覚コンテンツとしてコンテンツ利用機器500に供給する(ステップS40)。 Then, the audio content supply unit 15 supplies the audio content acquired by the audio content acquisition unit 14 in step S34 to the content use device 500 (step S39), and the haptic content supply unit 12 causes the vibration waveform processing unit 1123 to The processed tactile content is supplied as tactile content to the content use device 500 (step S40).
 その後、音声コンテンツ読出部141は、音声コンテンツのコンテンツ利用機器500に対する供給が終了したか否かを判定する(ステップS41)。音声コンテンツの供給が終了していない場合、処理はステップS38に戻り、音声コンテンツおよび重み情報によって加工した触覚コンテンツのコンテンツ利用機器500に対する供給を継続する。一方、音声コンテンツの供給が終了した場合、図17に示すフローチャートの処理は終了する。 Then, the audio content reading unit 141 determines whether or not the supply of the audio content to the content using device 500 has been completed (Step S41). If the supply of the audio content has not been completed, the process returns to step S38, and the supply of the haptic content processed based on the audio content and the weight information to the content using device 500 is continued. On the other hand, when the supply of the audio content ends, the processing of the flowchart illustrated in FIG. 17 ends.
<触覚コンテンツ取得部11の第4構成例>
 次に、触覚コンテンツ取得部11の第4構成例を説明する。図18A~図18Cは、第4構成例に係る触覚コンテンツ取得部11の機能構成例を示すブロック図である。なお、第4構成例に係る触覚コンテンツ取得部11は、第3構成例に係る触覚コンテンツ取得部11の変形例を示したものであり、図14A~図14Cに示した構成要素と同一の機能を有する構成要素には同一の符号を付している。
<Fourth Configuration Example of Tactile Content Acquisition Unit 11>
Next, a fourth configuration example of the haptic content acquisition unit 11 will be described. 18A to 18C are block diagrams illustrating a functional configuration example of the haptic content acquisition unit 11 according to the fourth configuration example. The haptic content acquisition unit 11 according to the fourth configuration example is a modification of the haptic content acquisition unit 11 according to the third configuration example, and has the same functions as those of the components illustrated in FIGS. 14A to 14C. The same reference numerals are given to components having.
 図18A~図18Cに示すように、第4構成例に係る触覚コンテンツ取得部11は、第3構成例に係る触覚コンテンツ取得部11が備える機能構成に加えて、繰り返し抽出部1145を更に備えている。 As shown in FIGS. 18A to 18C, the haptic content acquisition unit 11 according to the fourth configuration example further includes a repetition extraction unit 1145 in addition to the functional configuration of the haptic content acquisition unit 11 according to the third configuration example. I have.
 図18Aおよび図18C(a)の構成において、繰り返し抽出部1145は、触質モード指定部13により指定された触質モードに応じて触質コンテンツ読出部1131により順に読み出された複数の触質コンテンツが、2つ以上の異なる触質コンテンツの組み合わせから成るパターンの繰り返しを有するか否かを判定する。そして、繰り返しを構成している触質コンテンツ群の少なくとも1サイクル分を抽出し、これを触覚コンテンツとして生成する。 In the configuration of FIGS. 18A and 18C (a), the repetitive extraction unit 1145 includes a plurality of touch qualities sequentially read by the touch content reading unit 1131 in accordance with the touch mode specified by the touch mode specifying unit 13. It is determined whether the content has a repeating pattern consisting of a combination of two or more different haptic contents. Then, at least one cycle of the tactile content group constituting the repetition is extracted and generated as tactile content.
 また、図18Bおよび図18C(b)の構成において、繰り返し抽出部1145は、触質コンテンツ読出部1141により順に読み出された複数の触質コンテンツが、2つ以上の異なる触質コンテンツの組み合わせから成るパターンの繰り返しを有するか否かを判定する。そして、繰り返しを構成している触質コンテンツ群の少なくとも1サイクル分を抽出し、これを触覚コンテンツとして生成する。 Also, in the configuration of FIGS. 18B and 18C (b), the repetitive extraction unit 1145 converts the plurality of tactile contents sequentially read by the tactile content reading unit 1141 from a combination of two or more different tactile contents. It is determined whether or not the pattern has a repetition of the following pattern. Then, at least one cycle of the tactile content group constituting the repetition is extracted and generated as tactile content.
 さらに、振動波形加工部1123は、繰り返し抽出部1145により生成された触覚コンテンツの振動情報に対する重み情報であって、触質モード指定部13により指定された触質モードに応じた重み情報を生成し、生成した重み情報によって触質コンテンツの振動情報を加工する。 Further, the vibration waveform processing unit 1123 generates weight information corresponding to the tactile mode specified by the tactile mode specifying unit 13, which is weight information for the vibration information of the tactile content generated by the repetitive extraction unit 1145. Then, the vibration information of the tactile content is processed by the generated weight information.
 繰り返しを構成している触質コンテンツ群は、この振動を受けるユーザに対して意味のあるメッセージを伝えることが可能な情報である。その理由を以下に説明する。 The tactile content group that constitutes the repetition is information that can convey a meaningful message to the user who receives the vibration. The reason will be described below.
 触覚によって何らかのメッセージを人に伝える場合、第1に、触感に差異を作ることが大事である。例えば、人は、ずっと同じ圧力を受け続けると圧力を感じなくなるが、圧力に差異を作ると、より強く圧力を感じるようになる。そして、その差異の連なりから、ある種のメッセージを表現することが可能となる。例えば、図15に示したマトリクス空間において、インデックス番号が20番の触質コンテンツと25番の触質コンテンツとを順に抽出すると、比較的弱い強度で長い時間をかけてゆったりと強度が変化するという差異が生じ、この差異によって「柔らかくて滑らか」な感じというメッセージを表現することが可能となる。 (1) When transmitting a message to a person by touch, first of all, it is important to make a difference in touch. For example, a person will not feel pressure if they continue to receive the same pressure, but if they make a difference in pressure, they will feel more pressure. Then, from the sequence of the differences, it is possible to express a certain kind of message. For example, in the matrix space shown in FIG. 15, when the tactile content having the index number 20 and the tactile content having the index number 25 are sequentially extracted, the intensity changes relatively slowly over a long period of time. There is a difference, which makes it possible to express the message "soft and smooth".
 第2に、上記のような触感の差異を2回以上繰り返すことにより、それが何か特別なもの(偶然ではないもの)という印象を人に与えることができる。すなわち、20番の触質コンテンツと25番の触質コンテンツとを順に1回ずつ抽出するだけなく、20番→25番→20番→25番のように2回以上繰り返すことにより、差異によって生じるメッセージをより強く伝えることが可能となる。なお、ここでは2つの触質コンテンツが繰り返される例を示したが、3つ以上の触質コンテンツが繰り返されるものも、強いメッセージ性を持った触覚コンテンツとなる。 Secondly, by repeating the above-mentioned difference in tactile sensation two or more times, it is possible to give a person the impression that it is something special (not accidental). In other words, the tactile content of No. 20 and the tactile content of No. 25 are not only extracted one by one in order, but are also repeated twice or more in the order of No. 20 → No. 25 → No. 20 → No. It is possible to convey the message more strongly. Although an example in which two tactile contents are repeated is shown here, a tactile content having strong message characteristics is also obtained when three or more tactile contents are repeated.
 以下に、繰り返し抽出部1145による繰り返しパターンの判定アルゴリズムの一例を説明する。図19は、繰り返し抽出部1145による繰り返しパターンの判定アルゴリズムを説明するための図である。図19(a)は、例えば触質コンテンツ読出部1131(触質コンテンツ読出部1141の場合も同様)により順に読み出された10個の触質コンテンツのインデックス番号の順列を示している。 Hereinafter, an example of a repetition pattern determination algorithm by the repetition extraction unit 1145 will be described. FIG. 19 is a diagram for explaining a repetition pattern determination algorithm performed by the repetition extraction unit 1145. FIG. 19A shows a permutation of index numbers of ten tactile contents sequentially read by, for example, the tactile content reading unit 1131 (the same applies to the tactile content reading unit 1141).
 繰り返し抽出部1145は、まず、触質コンテンツ読出部1131により読み出された触質コンテンツに対応する複数のインデックス番号のうち、先頭のインデックス番号をkeyとして、当該keyと同じインデックス番号が出現する直前までをパターンとして抽出する。ここで、パターンとは、2つ以上の異なるインデックス番号(それにより示される触質コンテンツ)の組み合わせをいうものとする。 First, the repetition extraction unit 1145 sets the first index number among a plurality of index numbers corresponding to the tactile content read by the tactile content reading unit 1131 as a key and immediately before the same index number as the key appears. Is extracted as a pattern. Here, the pattern refers to a combination of two or more different index numbers (tactile content indicated by the index numbers).
 例えば、keyと同じインデックス番号が連続する場合(例えば、“11”のようなケース)、「2つ以上の異なる」という制限を設けることなく、keyと同じインデックス番号が出現する直前までをパターンとして抽出すると、最初の1つ目のインデックス番号“1”だけがパターンとして抽出されることになる。本実施形態では、このような1つのインデックス番号のみから成るものをパターンとしては抽出しない。これをパターンとして抽出すると、“11”は“1”が2回繰り替えされている触覚コンテンツとなってしまうが、これだと触質コンテンツの連なりに差異がないので、触覚コンテンツとしては不適だからである。 For example, in the case where the same index number as the key is continuous (for example, a case like “11”), the pattern up to immediately before the same index number as the key appears without providing a restriction of “two or more different”. After extraction, only the first index number “1” is extracted as a pattern. In the present embodiment, a pattern consisting of only one index number is not extracted as a pattern. When this is extracted as a pattern, “11” becomes tactile content in which “1” is repeated twice, but since there is no difference in the sequence of tactile contents, it is inappropriate as tactile content. is there.
 繰り返し抽出部1145は、1つのパターンを抽出したら、次に、当該抽出したパターンの次のインデックス番号をkeyとして、当該keyと同じインデックス番号が出現する直前までをパターンとして新たに抽出する。繰り返し抽出部1145は、以上の処理を、触質コンテンツ読出部1131により順に読み出された触質コンテンツに対応する複数のインデックス番号の最後まで行う。 After extracting one pattern, the repetition extraction unit 1145 sets a next index number of the extracted pattern as a key, and newly extracts a pattern until immediately before the same index number as the key appears. The repetitive extraction unit 1145 performs the above processing up to the end of a plurality of index numbers corresponding to the tactile content sequentially read by the tactile content reading unit 1131.
 なお、先頭のインデックス番号をkeyとして、最後のインデックス番号まで探索を行っても、そのkeyと同じインデックス番号が見つからない場合は、先頭から2番目のインデックス番号をkeyに設定し直して、当該keyと同じインデックス番号が出現する直前までをパターンとして抽出する。この処理は、パターンが見つかるまで、keyを変えながら繰り返し行う。図19(b)は、このようなパターン抽出処理を行った結果を示している。 If the same index number as the key is not found even when the search is performed up to the last index number using the first index number as a key, the second index number from the top is set to the key and the key is set. A pattern is extracted until just before the same index number as appears. This process is repeated while changing the key until a pattern is found. FIG. 19B shows the result of performing such a pattern extraction process.
 図19(b)の例では、まず、先頭のインデックス番号“1”をkeyとして、当該keyと同じインデックス番号が出現する直前までをパターンとして抽出している。これにより、“123”が1つ目のパターンとして抽出されている。次に、抽出した1つ目のパターンの次のインデックス番号(4番目のインデックス番号)“1”をkeyとして、当該keyと同じインデックス番号が出現する直前までをパターンとして抽出している。これにより、“123”が2つ目のパターンとして抽出されている。 In the example shown in FIG. 19B, first, a leading index number “1” is used as a key, and a pattern is extracted until immediately before the same index number as the key appears. As a result, “123” is extracted as the first pattern. Next, the next index number (fourth index number) “1” of the extracted first pattern is set as a key, and the pattern is extracted just before the same index number as the key appears. As a result, “123” is extracted as the second pattern.
 次に、抽出した2つ目のパターンの次のインデックス番号(7番目のインデックス番号)“1”をkeyとして、当該keyと同じインデックス番号が出現する直前までをパターンとして抽出している。これにより、“14”が3つ目のパターンとして抽出されている。さらに、抽出した3つ目のパターンの次のインデックス番号(9番目のインデックス番号)“1”をkeyとして、当該keyと同じインデックス番号が出現する直前までをパターンとして抽出しようとしたが、同じインデックス番号はみつからず、残りの “13”が4つ目のパターンとして抽出されている。 Next, the next index number (seventh index number) “1” of the extracted second pattern is set as a key, and the pattern is extracted until immediately before the same index number as the key appears. As a result, “14” is extracted as the third pattern. Further, the next index number (the ninth index number) “1” of the extracted third pattern is set as a key, and it is attempted to extract a pattern until immediately before the same index number as the key appears. No number is found, and the remaining $ "13" is extracted as the fourth pattern.
 図19(b)の例では、“123”のパターンが2回繰り返されている。よって、繰り返し抽出部1145は、この繰り返しを構成している触質コンテンツ群“123123”を抽出し、これを触覚コンテンツとして生成する。なお、繰り返し抽出部1145は、繰り返しを構成している触質コンテンツ群“123123”のうち、1サイクル分(1つのパターン分)の“123”だけを抽出し、これを触覚コンテンツとして生成するようにしてもよい。1サイクル分の触質コンテンツ群“123”を触覚コンテンツとしてコンテンツ利用機器500に供給した場合、コンテンツ利用機器500のリピート再生機能によって“123123”のように繰り返しのある触覚コンテンツを得ることが可能である。 で は In the example of FIG. 19B, the pattern of “123” is repeated twice. Therefore, the repetition extraction unit 1145 extracts the tactile content group “123123” constituting the repetition, and generates this as the tactile content. The repetition extraction unit 1145 extracts only one cycle (one pattern) of “123” from the tactile content group “123123” constituting the repetition, and generates this as tactile content. It may be. When the tactile content group “123” for one cycle is supplied to the content using device 500 as the haptic content, a repeat haptic content like “123123” can be obtained by the repeat reproduction function of the content using device 500. is there.
 なお、図19の例では、図19(c)に示すように、2番目のインデックス番号“2”をkeyとして設定すると、“231”というパターンの繰り返しを抽出することができる。そこで、繰り返し抽出部1145は、keyの設定位置を先頭から順に変えながらパターン抽出処理を行うことにより、繰り返しを構成している複数の触質コンテンツ群“123123”、“231231”を抽出し、これらの少なくとも1サイクル分を触覚コンテンツとして生成するようにしてもよい。また、インデックス番号の全てを順次keyに設定して、繰り返しパターンの判定処理を行うようにしてもよい。 In the example of FIG. 19, when the second index number “2” is set as a key as shown in FIG. 19C, the repetition of the pattern “231” can be extracted. Therefore, the repetition extraction unit 1145 extracts a plurality of tactile content groups “123123” and “231231” constituting the repetition by performing pattern extraction processing while sequentially changing the set position of the key from the top. May be generated as tactile content. Alternatively, all index numbers may be sequentially set to the key, and the repetitive pattern determination process may be performed.
 なお、ここでは、触質コンテンツ読出部1131により読み出された触質コンテンツが10個の場合における繰り返しパターンの判定例を説明したが、触質コンテンツが多数の場合もある。そこで、繰り返し抽出部1145は、触質コンテンツ読出部1131により順に読み出された複数の触質コンテンツを先頭から所定数毎に区切ってグループ化し、グループ毎に繰り返しパターンの判定処理を行うようにしてもよい。 Here, the example of determining the repetition pattern in the case where the tactile content read out by the tactile content reading unit 1131 is 10 has been described, but there may be a case where the tactile content is large. Therefore, the repetitive extraction unit 1145 groups the plurality of tactile contents sequentially read out by the tactile content reading unit 1131 by dividing the tactile contents by a predetermined number from the top, and performs a repetitive pattern determination process for each group. Is also good.
 図20は、音声コンテンツの取得については図2Aのように構成するとともに、触覚コンテンツの取得については触覚コンテンツ取得部11を図18Aのように構成した場合におけるコンテンツ供給装置100の動作例を示すフローチャートである。なお、図20に示すフローチャートは、コンテンツ供給装置100を起動したときに開始する。図20において、図16に示したステップ番号と同一のステップ番号を付した処理は同一であるので、ここでは重複する説明を省略する。 FIG. 20 is a flowchart showing an operation example of the content supply device 100 when the acquisition of audio content is configured as shown in FIG. 2A and the acquisition of haptic content is configured as the haptic content acquisition unit 11 as shown in FIG. 18A. It is. The flowchart illustrated in FIG. 20 starts when the content supply device 100 is activated. In FIG. 20, the processes with the same step numbers as those shown in FIG. 16 are the same, and thus the duplicate description will be omitted here.
 図20において、ステップS26で触質コンテンツ読出部1131が触質モードに対応する複数の触質コンテンツを触質コンテンツ記憶部1132から読み出した後、繰り返し抽出部1145は、当該複数の触質コンテンツが繰り返しのパターンを有するか否かを判定する(ステップS51)。そして、繰り返し抽出部1145は、繰り返しを構成している触質コンテンツ群の少なくとも1サイクル分を抽出し、これを触覚コンテンツとして生成する(ステップS52)。その後、処理はステップS27へと進む。 In FIG. 20, after the tactile content reading unit 1131 reads a plurality of tactile contents corresponding to the tactile mode from the tactile content storage unit 1132 in step S26, the repetitive extraction unit 1145 determines that the plurality of tactile contents are It is determined whether or not it has a repetitive pattern (step S51). Then, the repetition extraction unit 1145 extracts at least one cycle of the tactile content group constituting the repetition, and generates this as tactile content (step S52). Thereafter, the process proceeds to step S27.
 なお、上記実施形態では、触質コンテンツ記憶部1132,1142から読み出された複数の触質コンテンツの中から、1種類の繰り返しパターンから成る触質コンテンツ群を抽出し、抽出した触質コンテンツ群の少なくとも1サイクル分をそのまま触覚コンテンツとする例について説明したが、本発明はこれに限定されない。例えば、複数種類の繰り返しパターンから成る触質コンテンツ群の少なくとも1サイクル分を抽出し、これらを組み合わせることによって触覚コンテンツを生成するようにしてもよい。 In the above embodiment, a tactile content group composed of one type of repetition pattern is extracted from a plurality of tactile contents read from the tactile content storage units 1132 and 1142, and the extracted tactile content group is extracted. Although an example has been described in which at least one cycle is used as tactile content as it is, the present invention is not limited to this. For example, a tactile content may be generated by extracting at least one cycle of a tactile content group including a plurality of types of repetitive patterns and combining them.
 また、上記実施形態では、1つのインデックス番号をKeyに設定して、そのKeyと同じインデックス番号が出現する直前までをパターンとして抽出する例について説明したが、本発明はこれに限定されない。例えば、複数のインデックス番号の組み合わせをKeyに設定して、そのKeyと同じインデックス番号の組み合わせが出現する直前までをパターンとして抽出するようにしてもよい。 In the above embodiment, an example has been described in which one index number is set to Key and a pattern is extracted just before the same index number as the Key appears as a pattern, but the present invention is not limited to this. For example, a combination of a plurality of index numbers may be set as Key, and a pattern up to immediately before a combination of the same index number as the Key appears may be extracted as a pattern.
 また、上記実施形態では、例えば図19(b)のように“123|123”とパターンの繰り返しが検出された場合に、その繰り返しを構成している触質コンテンツ群“123123” の少なくとも1サイクル分を触覚コンテンツとして生成する例について説明したが、本発明はこれに限定されない。例えば、“123”を1個または2個以上の任意の数だけ組み合わせたものを触覚コンテンツとして生成するようにしてもよい。 Further, in the above embodiment, for example, when a pattern repetition of “123 | 123” is detected as shown in FIG. 19B, at least one cycle of the tactile content group “123123” # forming the repetition is detected. Although the example in which the minute is generated as the tactile content has been described, the present invention is not limited to this. For example, one or an arbitrary number of combinations of “123” may be generated as the tactile content.
 また、“123”の順序をサイクリックに置き換えたもの(“231”または“312”)を生成し、これを1個または複数個組み合わせたものを触覚コンテンツとして生成するようにしてもよい。ここで、“231231”や“312312”のように、同一のパターンを組み合わせて触覚コンテンツを生成してもよいし、“123231312”のように、異なるパターンを任意に組み合わせて触覚コンテンツを生成するようにしてもよい。 Alternatively, a sequence in which the sequence of “123” is replaced by a cyclic sequence (“231” or “312”) may be generated, and one or a combination of these sequences may be generated as tactile content. Here, the haptic content may be generated by combining the same pattern like “231231” or “312312”, or may be arbitrarily combined with different patterns like “123231313”. It may be.
 また、図14Bおよび図18Bでは、触質コンテンツ記憶部1142は、触質モードに対応して生成された触質コンテンツではなく、触質モードに応じた触覚コンテンツを生成するための基準となる所定の振動情報から成る触質コンテンツを記憶する例について説明した。これに対し、触質コンテンツ記憶部1142が複数の触質モードにそれぞれ対応した複数の触質コンテンツを記憶し、触質コンテンツ読出部1141が、触質モード指定部13により指定された触質モードに応じた触質コンテンツを触質コンテンツ記憶部1142から読み出すようにしてもよい。 In FIG. 14B and FIG. 18B, the tactile content storage unit 1142 stores the predetermined tactile content according to the tactile mode, not the tactile content generated in accordance with the tactile mode. The example in which the tactile content including the vibration information of the tactile information is stored has been described. On the other hand, the tactile content storage unit 1142 stores a plurality of tactile contents respectively corresponding to the plurality of tactile modes, and the tactile content readout unit 1141 stores the tactile mode specified by the tactile mode designating unit 13. May be read from the tactile content storage unit 1142.
 さらに、図14A,図14Bに示した第3構成例、および図18A,図18Bに示した第4構成例に係る触覚コンテンツ取得部11では、対象情報取得部1133が取得する対象情報の例として波形情報を説明したが、これに限定されない。本実施形態において処理対象として使用可能な情報は、n個(n≧2)の触質パラメータにより特定される固有の触覚効果を持った情報である。特に、強度に相当する値が連続的または断続的に連なっているもの、あるいは、連なっている状態に変換可能なものであれば、対象情報として用いることが可能である。 Further, in the haptic content acquisition unit 11 according to the third configuration example illustrated in FIGS. 14A and 14B and the fourth configuration example illustrated in FIGS. 18A and 18B, as the example of the target information acquired by the target information acquisition unit 1133. Although the waveform information has been described, the present invention is not limited to this. Information that can be used as a processing target in the present embodiment is information having a unique haptic effect specified by n (n ≧ 2) tactile parameters. In particular, if the value corresponding to the intensity is continuous or intermittent, or can be converted into a continuous state, it can be used as the target information.
 上述した波形情報は、強度に相当する振幅が時間軸に沿って連続的(アナログ信号の場合)または断続的(デジタルデータの場合)に連なっている情報であり、対象情報取得部1133により取得可能な情報の典型例である。 The above-described waveform information is information in which the amplitude corresponding to the intensity is continuous (in the case of an analog signal) or intermittent (in the case of digital data) along the time axis, and can be acquired by the target information acquisition unit 1133. It is a typical example of the information.
 別の例として、文字列から成るテキスト情報は、これ自体は強度に相当する値が連なっている情報ではないが、詳細を後述するように、そのような情報に変換可能な情報である。よって、テキスト情報も、対象情報取得部1133により取得可能な情報の1つである。この場合、第1の触質パラメータおよび第2の触質パラメータがそれぞれ何であるかについては後述する。 As another example, text information composed of a character string is not information in which values corresponding to strengths are continuous, but is information that can be converted into such information as described in detail later. Therefore, the text information is also one of the information that can be obtained by the target information obtaining unit 1133. In this case, the first tactile parameter and the second tactile parameter will be described later.
 基本的に、情報量が単一のもの以外は、本実施形態において扱うことが可能な情報と言える。例えば、テキスト情報の場合、“あ”のように1文字のみから成るものは、強度に相当する値が連なっている情報とは言えず、また、これに変換することもできないので、本実施形態の対象外となる。一方、複数の文字から成るテキスト情報であれば、後述するように、強度に相当する値が連なっている情報に変換可能なので、本実施形態において扱うことが可能な情報となる。 Basically, information other than a single information amount can be said to be information that can be handled in the present embodiment. For example, in the case of text information, information consisting of only one character such as "a" cannot be said to be information in which a value corresponding to intensity is continuous, and cannot be converted into this. Will be excluded. On the other hand, if the text information is composed of a plurality of characters, it can be converted into information in which values corresponding to the strengths are linked, as described later, and thus the information can be handled in the present embodiment.
 音声信号の場合、ある程度の時間的な長さを持ったものであれば、上述の通り本実施形態において扱うことが可能な情報である。一方、一瞬で終わる音の場合、振幅は存在するが、時間軸に沿って複数に分割可能な長さを持たない。そのため、このままでは本実施形態において扱うことが可能な情報ではない。しかし、その瞬時音を周波数解析して周波数軸の信号に変換すると、周波数毎に異なる振幅を持った情報、つまり、強度に相当する振幅が周波数軸に沿って連なった情報となるため、本実施形態において扱うことが可能な情報となる。 In the case of an audio signal, as long as it has a certain length of time, it is information that can be handled in the present embodiment as described above. On the other hand, in the case of a sound that ends in a moment, the sound has an amplitude but does not have a length that can be divided into a plurality of pieces along the time axis. Therefore, it is not information that can be handled in the present embodiment as it is. However, when the instantaneous sound is frequency-analyzed and converted into a signal on the frequency axis, information having a different amplitude for each frequency, that is, information in which the amplitude corresponding to the intensity is continuous along the frequency axis, is obtained. This is information that can be handled in the form.
 音声信号やテキスト情報に限らず、それ以外のあらゆる情報についても同様のことが言える。すなわち、もともと情報量が単一でないものは、強度に相当する値が連なっているものと言えるので、本実施形態において扱うことが可能な情報である。一方、もとは情報量が単一であっても、強度に相当する値が連なっている情報に変換可能なものも、本実施形態において扱うことが可能な情報である。 同 様 The same can be said for not only audio signals and text information but also all other information. That is, if the information amount is not originally single, it can be said that the values corresponding to the strengths are continuous, and thus the information can be handled in the present embodiment. On the other hand, information that can be converted to information in which a value corresponding to intensity is continuous even if the information amount is originally single is information that can be handled in the present embodiment.
 以下に、対象情報取得部1133により取得される対象情報の種類に応じた触質パラメータの具体的な生成例について説明する。なお、対象情報が波形情報である場合については既に説明したので、それ以外の情報が対象情報である場合について説明する。 Hereinafter, a specific example of generation of tactile parameters according to the type of target information acquired by the target information acquisition unit 1133 will be described. Since the case where the target information is the waveform information has been described above, the case where the other information is the target information will be described.
<第1例:ヒストグラム情報の場合>
 触質パラメータ生成部1134は、対象情報取得部1133により取得された対象情報が、周波数の違いに応じて強度が変化するヒストグラム情報である場合、当該ヒストグラム情報を周波数軸方向に複数に分割する。そして、それぞれの分割区間から、分割区間内の代表強度を第1の触質パラメータとして特定するとともに、分割区間の周波数幅を第2の触質パラメータとして特定することにより、第1の触質パラメータおよび第2の触質パラメータの組み合わせを生成する。
<First example: histogram information>
When the target information obtained by the target information obtaining unit 1133 is histogram information whose intensity changes according to a difference in frequency, the tactile parameter generation unit 1134 divides the histogram information into a plurality of pieces in the frequency axis direction. Then, from each of the divided sections, the representative intensity in the divided section is specified as the first tactile parameter, and the frequency width of the divided section is specified as the second tactile parameter. And a second tactile parameter combination.
 図21は、ヒストグラム情報を入力した場合における触質パラメータ生成部1134による処理内容の一例を説明するための図である。図21(a)は、対象情報取得部1133により取得されたヒストグラム情報を示している。図21(a)に示す通り、ヒストグラム情報は、外形は波形情報と同様である。そのため、波形情報と同様の処理を適用することが可能である。この場合も、前処理として、図21(b)のようにヒストグラム情報のエンベロープを抽出し、当該エンベロープを対象として第1の触質パラメータおよび第2の触質パラメータを特定するようにしてもよい。 FIG. 21 is a diagram for explaining an example of the processing content by the tactile parameter generation unit 1134 when the histogram information is input. FIG. 21A shows the histogram information acquired by the target information acquisition unit 1133. As shown in FIG. 21A, the outer shape of the histogram information is the same as the waveform information. Therefore, it is possible to apply the same processing as the waveform information. Also in this case, as the pre-processing, the envelope of the histogram information may be extracted as shown in FIG. 21B, and the first tactile parameter and the second tactile parameter may be specified for the envelope. .
 すなわち、触質パラメータ生成部1134は、まず、図21(a)に示すヒストグラム情報(または図21(b)に示すエンベロープ情報)を周波数軸方向に複数に分割する。図21では一例として、エンベロープの振幅が極小となる時間毎に分割している。すなわち、エンベロープの開始点から1つ目の極小値までを第1の分割区間F1、1つ目の極小値から2つ目の極小値までを第2の分割区間F2、2つ目の極小値から3つ目の極小値までを第3の分割区間F3、・・・のように、ヒストグラム情報を周波数軸方向に複数に分割している。ただし、分割法はこれに限定されない。 {That is, the tactile parameter generation unit 1134 first divides the histogram information shown in FIG. 21A (or the envelope information shown in FIG. 21B) into a plurality of pieces in the frequency axis direction. In FIG. 21, as an example, the envelope is divided for each time at which the amplitude of the envelope becomes minimum. That is, the first divided section F1 is from the start point of the envelope to the first minimal value, the second divided section F2 is from the first minimal value to the second minimal value, and the second minimal value is , The histogram information is divided into a plurality of parts in the frequency axis direction, as in a third division section F3,. However, the division method is not limited to this.
 触質パラメータ生成部1134は、それぞれの分割区間F1,F2,F3,・・・から、第1の触質パラメータとして代表強度h1,h2,h3,・・・を特定するとともに、第2の触質パラメータとして分割区間の周波数幅f1,f2,f3,・・・を特定する。ここで、代表強度h1,h2,h3,・・・は、それぞれの分割区間F1,F2,F3,・・・における極大値を示している。ただし、代表強度の取り方はこれに限定されない。 The tactile parameter generation unit 1134 specifies the representative intensities h1, h2, h3,... As the first tactile parameter from each of the divided sections F1, F2, F3,. The frequency widths f1, f2, f3,... Of the divided sections are specified as quality parameters. Here, the representative intensities h1, h2, h3,... Indicate the maximum values in the respective divided sections F1, F2, F3,. However, the method of obtaining the representative strength is not limited to this.
<第2例:空間分布情報の場合>
 触質パラメータ生成部1134は、対象情報取得部1133により取得された対象情報が、位置または領域の違いに応じて強度が変化する空間分布情報である場合、当該空間分布情報を位置または領域に応じて複数に分割する。そして、それぞれの分割区間から、分割区間内の代表強度を第1の触質パラメータとして特定するとともに、分割区間の終始点間の長さまたは面積を第2の触質パラメータとして特定することにより、第1の触質パラメータおよび第2の触質パラメータの組み合わせを生成する。
<Second example: spatial distribution information>
If the target information acquired by the target information acquiring unit 1133 is spatial distribution information whose intensity changes according to a difference in position or region, the tactile parameter generation unit 1134 converts the spatial distribution information according to the position or region. Divided into multiple Then, from each of the divided sections, the representative intensity in the divided section is specified as the first tactile parameter, and the length or area between the end points of the divided section is specified as the second tactile parameter. A combination of a first haptic parameter and a second haptic parameter is generated.
 空間分布情報の一例として、画像情報が挙げられる。画像情報は、画素の位置または複数の画素群から成る領域に応じて、強度の要素を有する色情報や輝度情報が変化する情報である。触質パラメータ生成部1134は、このような画像情報を、画素の位置または画素群の領域に応じて複数に分割し、それぞれの分割区間から第1の触質パラメータおよび第2の触質パラメータの組み合わせを生成する。 画像 Image information is an example of spatial distribution information. The image information is information in which color information and luminance information having an intensity element change according to the position of a pixel or an area including a plurality of pixel groups. The tactile parameter generation unit 1134 divides such image information into a plurality of pieces according to the position of a pixel or a region of a pixel group, and calculates a first tactile parameter and a second tactile parameter from each divided section. Generate a combination.
 図22は、画像情報を入力した場合における触質パラメータ生成部1134による処理内容の一例を説明するための図である。図22(a)に示す画像情報は、縦横が様々な大きさのメッシュ状に分割されたパターン画像の例を示している。第2例は、このようなパターン画像から第1の触質パラメータおよび第2の触質パラメータの組み合わせを生成するのに適している。 FIG. 22 is a diagram for explaining an example of the processing content by the tactile parameter generation unit 1134 when image information is input. The image information shown in FIG. 22A shows an example of a pattern image divided into meshes of various sizes in vertical and horizontal directions. The second example is suitable for generating a combination of the first tactile parameter and the second tactile parameter from such a pattern image.
 触質パラメータ生成部1134は、まず、図22(a)に示すパターン画像をメッシュの領域に応じて複数に分割する。図22(a)では一例として、最も左上のメッシュを第1の分割区間A1、その右側のメッシュを第2の分割区間A2、更にその右側のメッシュを第3の分割区間A3、・・・としていき、右端までいったら1つの下の段に降りて左端から右端に向かって順に分割していく。これを最も右下のメッシュまで行うことにより、パターン画像の全体を各メッシュの領域に応じて複数に分割している。 The tactile parameter generation unit 1134 first divides the pattern image shown in FIG. 22A into a plurality of pieces according to the mesh area. In FIG. 22A, as an example, the upper left mesh is a first divided section A1, the right mesh is a second divided section A2, and the right mesh is a third divided section A3,. When it reaches the right end, it descends to one lower stage and divides in order from the left end to the right end. By performing this up to the lower right mesh, the entire pattern image is divided into a plurality of patterns in accordance with the area of each mesh.
 触質パラメータ生成部1134は、それぞれの分割区間A1,A2,A3,・・・から、第1の触質パラメータとして代表強度h1,h2,h3,・・・を特定するとともに、第2の触質パラメータとして分割区間の面積a1,a2,a3,・・・を特定する。ここで、代表強度h1,h2,h3,・・・は、それぞれの分割区間A1,A2,A3,・・・における彩度、明度または輝度の何れかの平均値などを用いることが可能である。 The tactile parameter generation unit 1134 specifies the representative strengths h1, h2, h3,... As the first tactile parameter from each of the divided sections A1, A2, A3,. The areas a1, a2, a3,... Of the divided sections are specified as quality parameters. Here, as the representative intensities h1, h2, h3,..., It is possible to use an average value of any one of the saturation, lightness, and luminance in each of the divided sections A1, A2, A3,. .
 なお、ここでは、複数のメッシュが縦横に区切られた2次元のパターン画像の例を示したが、図22(b)のような1次元のパターン画像(縦方向は1画素、横方向は複数画素のライン画像)であってもよい。この場合、触質パラメータ生成部1134は、それぞれの分割区間A1,A2,A3,・・・から、第2の触質パラメータとして、分割区間の始点から終点までの長さ(画素数に相当)を特定すればよい。 Here, an example of a two-dimensional pattern image in which a plurality of meshes are divided vertically and horizontally is shown, but a one-dimensional pattern image as shown in FIG. Pixel line image). In this case, the tactile parameter generation unit 1134 determines, as a second tactile parameter, the length (corresponding to the number of pixels) from the start point to the end point of each divided section A1, A2, A3,. May be specified.
<第3例:周波数スペクトル情報の場合>
 対象情報取得部1133により取得された画像情報が、図22に示したシンプルなパターン画像ではなく、写真や絵画のような複雑な画像情報の場合、第2例を適用するのは難しい。このような画像情報を処理対象とする場合、触質パラメータ生成部1134は、前処理として画像情報を周波数スペクトル情報に変換し、その周波数スペクトル情報から第1の触質パラメータおよび第2の触質パラメータの組み合わせを生成する。
<Third example: frequency spectrum information>
When the image information acquired by the target information acquiring unit 1133 is not the simple pattern image shown in FIG. 22 but is complex image information such as a photograph or a painting, it is difficult to apply the second example. When such image information is to be processed, the tactile parameter generation unit 1134 converts the image information into frequency spectrum information as preprocessing, and converts the first tactile parameter and the second tactile parameter from the frequency spectrum information. Generate a combination of parameters.
 すなわち、触質パラメータ生成部1134は、対象情報取得部1133により取得された画像情報を分析して強度-周波数分布の周波数スペクトル情報を生成した後、当該周波数スペクトル情報を周波数軸方向に複数に分割し、それぞれの分割区間から、分割区間内の代表強度を第1の触質パラメータとして特定するとともに、分割区間の周波数幅を第2の触質パラメータとして特定することにより、第1の触質パラメータおよび第2の触質パラメータの組み合わせを生成する。 That is, the tactile parameter generation unit 1134 analyzes the image information acquired by the target information acquisition unit 1133 to generate frequency spectrum information of the intensity-frequency distribution, and then divides the frequency spectrum information into a plurality of pieces in the frequency axis direction. By specifying the representative intensity in the divided section as a first tactile parameter and specifying the frequency width of the divided section as a second tactile parameter from each divided section, And a second tactile parameter combination.
 この場合における具体的な処理例は、図21を用いて説明した第1例と同様なので、説明を割愛する。なお、画像情報の他に、音声信号に対してもこの第3例を適用することが可能である。上述したように、一瞬で終わる単発の音の場合は、図15の例を適用することができない。しかし、第3例を適用することは可能である。すなわち、瞬時音を分析して強度-周波数分布の周波数スペクトル情報を生成することにより、その周波数スペクトル情報から第1の触質パラメータおよび第2の触質パラメータの組み合わせを生成することが可能である。 具体 A specific processing example in this case is the same as that of the first example described with reference to FIG. Note that this third example can be applied to audio signals in addition to image information. As described above, in the case of a single sound that ends in a moment, the example of FIG. 15 cannot be applied. However, it is possible to apply the third example. That is, by analyzing the instantaneous sound and generating frequency spectrum information of the intensity-frequency distribution, it is possible to generate a combination of the first tactile parameter and the second tactile parameter from the frequency spectrum information. .
<第4例:テキスト情報の場合>
 触質パラメータ生成部1134は、対象情報取得部1133により取得された対象情報がテキスト情報である場合、テキスト情報を形態素解析してセンテンス毎に分割するとともに、各センテンス内を分節毎に区切り、各文節の音素数を特定する。そして、それぞれのセンテンスから、センテンス内の代表音素数の逆数を強度とみなして第1の触質パラメータとして特定するとともに、センテンス内の文節数を第2の触質パラメータとして特定することにより、第1の触質パラメータおよび第2の触質パラメータの組み合わせを生成する。
<Fourth example: text information>
When the target information acquired by the target information acquisition unit 1133 is text information, the tactile parameter generation unit 1134 morphologically analyzes the text information and divides the sentence into sentences, and divides each sentence into segments. Specify the number of phonemes in the phrase. Then, from each sentence, the reciprocal of the representative phoneme number in the sentence is regarded as the strength and specified as the first tactile parameter, and the number of phrases in the sentence is specified as the second tactile parameter. A combination of the first tactile parameter and the second tactile parameter is generated.
 図23は、テキスト情報を入力した場合における触質パラメータ生成部1134による処理内容の一例を説明するための図である。図23は、対象情報取得部1133により取得されたテキスト情報にカナを併記したものを示している。図23に示す例において入力されたテキスト情報は、「今日は日曜日。私は今日学校に行きました。」という文章の文字列から成る情報である。 FIG. 23 is a diagram for explaining an example of the processing content by the tactile parameter generation unit 1134 when text information is input. FIG. 23 shows the text information obtained by the target information obtaining unit 1133 with kana added. The text information input in the example illustrated in FIG. 23 is information including a character string of a sentence “Today is Sunday. I went to school today.”
 触質パラメータ生成部1134は、まず、「今日は日曜日。私は今日学校に行きました。」という文章のテキスト情報をセンテンス毎に分割する。すなわち、「今日は日曜日」および「私は今日学校に行きました」の2つに分割する。1つ目のセンテンスが第1の分割区間B1、2つ目のセンテンスが第2の分割区間B2となる。 First, the tactile parameter generation unit 1134 divides the text information of the sentence “Today is Sunday. I went to school today” for each sentence. That is, it is divided into two parts, “Today is Sunday” and “I went to school today”. The first sentence is a first divided section B1, and the second sentence is a second divided section B2.
 次に、触質パラメータ生成部1134は、それぞれのセンテンスを形態素解析し、各センテンス内を分節毎に区切り、各文節の音素数を特定する。すなわち、第1の分割区間B1に関しては、センテンスを「今日は」および「日曜日」の2つの文節に区切る。そして、1つ目の文節「キョウハ」の音素数を“3”と特定し、2つ目の文節「ニチヨウビ」の音素数を“5”と特定する。同様に、第2の分割区間B2に関しては、センテンスを「私は」、「今日」、「学校に」および「行きました」の4つの文節に区切る。そして、各文節の音素数をそれぞれ“4”、“2”、“5”、“5”と特定する。 Next, the tactile parameter generation unit 1134 performs a morphological analysis of each sentence, divides each sentence into segments, and specifies the number of phonemes in each segment. That is, with regard to the first divided section B1, the sentence is divided into two clauses, “today” and “Sunday”. Then, the phoneme number of the first phrase “Kyoha” is specified as “3”, and the phoneme number of the second phrase “Nichijobi” is specified as “5”. Similarly, for the second divided section B2, the sentence is divided into four clauses, "I", "Today", "To school", and "I went". Then, the number of phonemes of each phrase is specified as “4”, “2”, “5”, and “5”.
 そして、触質パラメータ生成部1134は、第1の分割区間B1および第2の分割区間B2のそれぞれから、分割区間内の代表音素数の逆数を強度とみなして、これを第1の触質パラメータとして特定する。代表音素数は、例えば、分割区間内で最小の音素数、最大の音素数、または平均音素数とすることが可能である。例えば、平均音素数を用いる場合、第1の分割区間B1の平均音素数は“4”であり、これの逆数を第1の触質パラメータとして特定する。また、第2の分割区間B2の平均音素数も“4”であり、これの逆数を第1の触質パラメータとして特定する。 Then, the tactile parameter generation unit 1134 regards the reciprocal of the number of representative phonemes in the divided section as the intensity from each of the first divided section B1 and the second divided section B2, and uses this as the first tactile parameter. To be specified. The representative phoneme number can be, for example, the minimum phoneme number, the maximum phoneme number, or the average phoneme number in the divided section. For example, when the average phoneme number is used, the average phoneme number of the first divided section B1 is “4”, and the reciprocal thereof is specified as the first tactile parameter. The average number of phonemes in the second divided section B2 is also “4”, and the reciprocal thereof is specified as the first tactile parameter.
 また、触質パラメータ生成部1134は、第1の分割区間B1および第2の分割区間B2のそれぞれから、文節数を第2の触質パラメータとして特定する。すなわち、第1の分割区間B1については文節数“2”を第2の触質パラメータとして特定し、第2の分割区間B2については文節数“4”を第2の触質パラメータとして特定する。 触 The tactile parameter generation unit 1134 specifies the number of phrases as the second tactile parameter from each of the first divided section B1 and the second divided section B2. That is, the number of phrases “2” is specified as the second tactile parameter for the first divided section B1, and the number of phrases “4” is specified as the second tactile parameter for the second divided section B2.
<第5例:動作情報の場合>
 触質パラメータ生成部1134は、対象情報取得部1133により取得された対象情報が、人の動きを表す一連の動作情報である場合、当該一連の動作情報を一動作毎に分割する。そして、それぞれの動作から、当該動作による加圧力、速度、加速度または人体の到達高さに関する代表値を強度とみなし第1の触質パラメータとして特定するとともに、一動作にかかる時間の長さを第2の触質パラメータとして特定することにより、第1の触質パラメータおよび第2の触質パラメータの組み合わせを生成する。
<Fifth example: operation information>
When the target information acquired by the target information acquiring unit 1133 is a series of motion information indicating a person's motion, the tactile parameter generation unit 1134 divides the series of motion information for each motion. Then, from each operation, the representative value relating to the pressing force, speed, acceleration, or the reaching height of the human body by the operation is regarded as the intensity, and specified as the first tactile parameter, and the length of time required for one operation is defined as the first time. By specifying the second tactile parameter as a second tactile parameter, a combination of the first tactile parameter and the second tactile parameter is generated.
 人の動きを表す一連の動作情報の一例として、マッサージの施術の動きを表した動作情報が挙げられる。図24は、マッサージの動作情報を入力した場合における触質パラメータ生成部1134による処理内容の一例を説明するための図である。マッサージは、複数の手技の組み合わせで行われる。そして、1つの手技は、圧力を所定時間加えることによって成される。 動作 As an example of a series of motion information indicating a motion of a person, motion information indicating a motion of a massage treatment is given. FIG. 24 is a diagram for explaining an example of the processing content by the tactile parameter generation unit 1134 when the operation information of the massage is input. Massage is performed by a combination of a plurality of procedures. Then, one procedure is performed by applying pressure for a predetermined time.
 したがって、このようなマッサージの施術の動きを表した動作情報は、図24に示すように、横軸を時間軸とし、縦軸を圧力として描かれる棒グラフのような情報で表すことができる。なお、隣接する棒グラフの間が開いている箇所は、2つの手技が時間を置いて行われることを意味する。また、隣接する棒グラフの間が接続している箇所は、2つの手技が時間を置かずに連続して行われることを意味する。例えば、表面に圧力センサを備えた人型の人形等に対して実際にマッサージを施術すると、図24に示すようなセンサ情報が得られるので、これを対象情報取得部1133への入力とすることが可能である。 Therefore, as shown in FIG. 24, the motion information representing the movement of the massage treatment can be represented by bar-like information in which the horizontal axis is the time axis and the vertical axis is the pressure. Note that a portion where the space between the adjacent bar graphs is open means that two procedures are performed at a certain time interval. Further, a portion where the adjacent bar graphs are connected means that two procedures are performed continuously without time delay. For example, when massage is actually performed on a humanoid doll or the like having a pressure sensor on the surface, sensor information as shown in FIG. 24 is obtained, and this is input to the target information acquisition unit 1133. Is possible.
 触質パラメータ生成部1134は、対象情報取得部1133により取得される、複数の手技の組み合わせから成る一連の動作情報を、1つ1つの手技(一動作)毎に分割する。図24のイメージで説明すると、1つ1つの棒グラフに分割することに相当する。この場合、1つの手技(棒グラフ)が1つの分割区間に相当する。すなわち、1つ目の手技を第1の分割区間M1,2つ目の手技を第2の分割区間M2、3つ目の手技を第3の分割区間M3、・・・のように、一連の動作情報を手技毎に分割していく。 The tactile parameter generation unit 1134 divides a series of motion information, which is obtained by the target information obtaining unit 1133 and includes a combination of a plurality of procedures, for each procedure (one motion). If this is described using the image of FIG. 24, it corresponds to dividing into individual bar graphs. In this case, one procedure (bar graph) corresponds to one divided section. That is, the first procedure is performed in a series of a first division M1, the second procedure is performed in a second division M2, the third procedure is performed in a third division M3, and so on. The motion information is divided for each procedure.
 そして、触質パラメータ生成部1134は、それぞれの分割区間M1,M2,M3,・・・から、当該分割区間M1,M2,M3,・・・の手技による加圧力p1,p2,p3,・・・を第1の触質パラメータとして特定するとともに、各手技を行うの要する所要時間の長さt1,t2,t3,・・・を第2の触質パラメータとして特定することにより、第1の触質パラメータおよび第2の触質パラメータの組み合わせを生成する。 Then, the tactile parameter generation unit 1134 calculates the applied pressures p1, p2, p3,... From the respective divided sections M1, M2, M3,. Is specified as the first tactile parameter, and the length of time t1, t2, t3,... Required for performing each procedure is specified as the second tactile parameter, whereby the first tactile parameter is obtained. A combination of a quality parameter and a second tactile parameter is generated.
 また、人の動きを表す一連の動作情報の別の例として、モーションキャプチャで捉えた動作情報が挙げられる。モーションキャプチャによる動作情報は、人の動きをデジタル的に記録した動画情報として提供される。触質パラメータ生成部1134は、この動画情報を画像解析して、人の特定部位(例えば、手)の動きの開始点を特定し、その開始点に手が戻ってくるまでの動きを一動作として捉える。そして、一連の動作情報を一動作毎に分割する。この場合、手が開始点に戻ってくるまでの一動作が1つの分割区間に相当する。 Another example of a series of motion information representing a person's motion is motion information captured by motion capture. The motion information obtained by the motion capture is provided as moving image information in which the motion of a person is digitally recorded. The tactile parameter generation unit 1134 analyzes the image of the moving image information, specifies the starting point of the movement of the specific part (for example, the hand) of the person, and performs one operation until the hand returns to the starting point. Catch as. Then, a series of operation information is divided for each operation. In this case, one operation until the hand returns to the start point corresponds to one divided section.
 そして、触質パラメータ生成部1134は、それぞれの分割区間から、当該分割区間の動作による速度、加速度または人体の到達高さに関する代表値を強度とみなし、これを強度に関する第1の触質パラメータとして特定する。例えば、動作の速度の代表値を第1の触質パラメータとする場合、一動作の中の最大速度、最小速度または平均速度を代表値として用いることが可能である。また、人体の到達高さの代表値を第1の触質パラメータとする場合、例えば手を動かして動作したときの床からの最高点を代表値として用いることができる。また、触質パラメータ生成部1134は、一動作にかかる時間の長さを第2の触質パラメータとして特定する。 Then, the tactile parameter generation unit 1134 regards, as the first tactile parameter relating to the strength, a representative value relating to the speed, acceleration, or reaching height of the human body due to the operation of the divided section from each divided section. Identify. For example, when the representative value of the operation speed is used as the first tactile parameter, the maximum speed, the minimum speed, or the average speed in one operation can be used as the representative value. Further, when the representative value of the reaching height of the human body is used as the first tactile parameter, for example, the highest point from the floor when the user operates by moving his hand can be used as the representative value. In addition, the tactile parameter generation unit 1134 specifies the length of time required for one operation as a second tactile parameter.
<第6例:動画情報の場合>
 触質パラメータ生成部1134は、対象情報取得部1133により取得された対象情報が動画情報である場合、当該動画情報をオプティカルフロー解析してフレーム画像間の変位量を演算することにより、時間の経過と共に変位量が変化する波形情報に変換する。そして、当該波形情報を時間軸方向に複数に分割し、それぞれの分割区間から、分割区間内の代表強度を第1の触質パラメータとして特定するとともに、分割区間の時間の長さを第2の触質パラメータとして特定することにより、第1の触質パラメータおよび第2の触質パラメータの組み合わせを生成する。
<Sixth Example: Moving Image Information>
If the target information acquired by the target information acquiring unit 1133 is moving image information, the tactile parameter generation unit 1134 analyzes the moving image information by optical flow to calculate a displacement amount between frame images, thereby elapse of time. At the same time as the waveform information in which the displacement amount changes. Then, the waveform information is divided into a plurality of pieces in the time axis direction, a representative intensity in the divided section is specified as a first tactile parameter from each divided section, and a time length of the divided section is defined as a second tactile parameter. A combination of the first tactile parameter and the second tactile parameter is generated by specifying the tactile parameter as the tactile parameter.
 動画情報は、上述したモーションキャプチャによる動作情報を含む、任意の動画情報である。オプティカルフロー解析は、公知の方法を適用することが可能である。まず、時間t1における1番目のフレーム画像と、時間t2における2番目のフレーム画像との差分であるオプティカルフロー値を求める。ここで、各画素に対して求まるx,y方向のオプティカルフロー値をFx,Fyとした場合、例えば(Fx2+Fy2)/2の値を画素毎に求め、さらに全画素における平均値を求めることにより、この平均値を時間t2における変位量とする。 The moving image information is any moving image information including the motion information by the motion capture described above. A known method can be applied to the optical flow analysis. First, an optical flow value that is a difference between the first frame image at time t1 and the second frame image at time t2 is obtained. Here, when the optical flow values in the x and y directions obtained for each pixel are Fx and Fy, for example, a value of (Fx 2 + Fy 2 ) / 2 is obtained for each pixel, and further, an average value is obtained for all the pixels. Thus, this average value is set as the displacement amount at time t2.
 次に、時間t2における2番目のフレーム画像と、時間t3における3番目のフレーム画像との間で、x,y方向のオプティカルフロー値Fx,Fyをもとに(Fx2+Fy2)/2の値を画素毎に求め、さらに全画素における平均値を求めることにより、この平均値を時間t3における変位量とする。以降も同様にしてフレーム毎に変位量を求めることにより、時間の経過と共に変位量が変化する波形情報が得られる。このようにして波形情報を得た後の処理は、図15を用いて説明した例と同様なので、説明を割愛する。 Next, between the second frame image at the time t2 and the third frame image at the time t3, (Fx 2 + Fy 2 ) / 2 based on the optical flow values Fx and Fy in the x and y directions. A value is obtained for each pixel, and an average value for all pixels is obtained, and this average value is used as a displacement amount at time t3. Thereafter, by similarly obtaining the displacement amount for each frame, waveform information in which the displacement amount changes with the passage of time can be obtained. The processing after obtaining the waveform information in this manner is the same as the example described with reference to FIG.
(第2の実施形態)
 次に、本発明の第2の実施形態について説明する。上記第1の実施形態(図1~図24)では、触質モード指定部13は、音声コンテンツ取得部14により取得された音声コンテンツを解析し、その解析結果に基づいて触質モードの指定を行った。これに対し、第2の実施形態では、音声コンテンツの解析結果に基づく触質モードの指定に代えてまたは加えて、ユーザ操作に応じて触質モードを指定できるようにしたものである。
(Second embodiment)
Next, a second embodiment of the present invention will be described. In the first embodiment (FIGS. 1 to 24), the tactile mode designation unit 13 analyzes the audio content acquired by the audio content acquisition unit 14, and designates the tactile mode based on the analysis result. went. On the other hand, in the second embodiment, the tactile mode can be designated according to a user operation instead of or in addition to the designation of the tactile mode based on the analysis result of the audio content.
 図25および図26は、第2の実施形態によるコンテンツ供給装置100の機能構成例を示すブロック図である。なお、この図25および図26は、図2Bに示すコンテンツ供給装置100の変形例として示すものであるが、図2Aまたは図2Cに示すコンテンツ供給装置100の変形例としても適用可能である。また、触覚コンテンツ取得部11の構成例としては、図6、図8、図14A~図14C、図18A~図18Cの何れの構成も適用することが可能である。 FIGS. 25 and 26 are block diagrams showing a functional configuration example of the content supply device 100 according to the second embodiment. Although FIGS. 25 and 26 show a modification of the content supply device 100 shown in FIG. 2B, it is also applicable as a modification of the content supply device 100 shown in FIG. 2A or 2C. In addition, as the configuration example of the tactile content acquisition unit 11, any of the configurations in FIGS. 6, 8, 14A to 14C, and 18A to 18C can be applied.
 図25は、音声コンテンツの解析結果に基づく触質モードの指定に加えて、ユーザ操作に応じて触質モードを指定できるようにしたものである。すなわち、触質モード指定部13Aは、音声コンテンツの解析結果に基づいて触質モードを指定する機能に加えて、ユーザからの触質モードの選択に係る指示に応じて触質モードを指定する機能を更に備えている。 FIG. 25 shows a configuration in which the tactile mode can be designated according to a user operation in addition to the designation of the tactile mode based on the analysis result of the audio content. That is, the tactile mode designating unit 13A has a function of designating the tactile mode in accordance with an instruction from the user regarding the selection of the tactile mode, in addition to the function of designating the tactile mode based on the analysis result of the audio content. Is further provided.
 ここで、触質モード指定部13Aは、音声コンテンツ取得部14により取得された音声コンテンツの解析結果に応じて触質モードを指定する状態をデフォルトとして、ユーザからの触質モードの選択に係る指示が行われた場合には、当該ユーザからの指示に応じて触質モードを指定する状態に変更するようにしてもよい。 Here, the tactile mode designating unit 13A sets the state of designating the tactile mode according to the analysis result of the audio content acquired by the audio content acquiring unit 14 as a default, and instructs the user to select the tactile mode. Is performed, the state may be changed to a state in which the tactile mode is designated according to an instruction from the user.
 すなわち、ユーザが選択した音声コンテンツの解析結果に基づいて指定される触質モードをお勧めモードとし、特にユーザからの指定がなければ、触覚コンテンツ取得部11はこのお勧めモードに従って触覚コンテンツを取得する。一方、ユーザが意図的にお勧めモードとは違う触質モードを指定する操作を行った場合には、触覚コンテンツ取得部11はその指定された触質モードに従って触覚コンテンツを取得する。 That is, the tactile mode specified based on the analysis result of the audio content selected by the user is set as the recommended mode, and unless otherwise specified by the user, the haptic content acquisition unit 11 acquires the haptic content according to the recommended mode. I do. On the other hand, if the user intentionally performs an operation to specify a tactile mode different from the recommended mode, the haptic content acquisition unit 11 acquires haptic content according to the specified tactile mode.
 このようにすれば、ユーザが選択した音声コンテンツの特徴に合わせた触覚コンテンツを取得することを基本としつつ、ユーザが触質モードを指定した場合には、お勧めモードによる触覚コンテンツの触感とは異なる触感の触覚コンテンツをユーザの希望に合わせて取得することも可能となる。 In this way, while the tactile content according to the characteristics of the audio content selected by the user is basically acquired, when the user specifies the tactile mode, the tactile sense of the tactile content in the recommended mode is It is also possible to acquire tactile contents having different tactile sensations according to the user's desire.
 触覚コンテンツ取得部11の構成例として、例えば図6(a)または図6(b)の構成を適用した場合、ユーザは、所望の音声コンテンツを選択するとともに、所望の触質モードを選択することが可能である。この場合、触覚コンテンツ取得部11の触覚コンテンツ読出部1111は、ユーザからの触質モードの選択に係る指示があると、その指示に応じて触質モード指定部13Aにより指定された触質モードに対応する触覚コンテンツを触覚コンテンツ記憶部1112から読み出す。 When the configuration of FIG. 6A or FIG. 6B is applied, for example, as the configuration example of the tactile content acquisition unit 11, the user selects the desired audio content and the desired tactile mode. Is possible. In this case, the haptic content reading unit 1111 of the haptic content obtaining unit 11 receives the instruction related to the selection of the tactile mode from the user, and switches to the tactile mode designated by the tactile mode designating unit 13A in response to the instruction. The corresponding haptic content is read from the haptic content storage unit 1112.
 また、触覚コンテンツ取得部11の構成例として、例えば図8(a)または図8(b)の構成を適用した場合、ユーザは、所望の音声コンテンツを選択するとともに、所望の触質モードを選択することが可能である。この場合、触覚コンテンツ取得部11の触覚コンテンツ読出部1121は、ユーザからの触質モードの選択に係る指示があると、その指示に応じて触質モード指定部13Aにより指定された触質モードに対応する触質コンテンツを触覚コンテンツ記憶部1122から読み出す。そして、振動波形加工部1123が、触覚コンテンツ読出部1121により読み出された触質コンテンツの振動情報を加工する。 When the configuration of FIG. 8A or 8B is applied as an example of the configuration of the tactile content acquisition unit 11, the user selects a desired audio content and selects a desired tactile mode. It is possible to In this case, the haptic content readout unit 1121 of the haptic content acquisition unit 11 switches to the tactile mode specified by the tactile mode specifying unit 13A in response to the instruction from the user regarding the selection of the tactile mode. The corresponding tactile content is read from the tactile content storage unit 1122. Then, the vibration waveform processing unit 1123 processes the vibration information of the tactile content read by the haptic content reading unit 1121.
 また、触覚コンテンツ取得部11の構成例として、例えば図14C(a)または図18C(a)の構成を適用した場合、ユーザは、所望の音声コンテンツを選択するとともに、所望の触質モードを選択することが可能である。この場合、触覚コンテンツ取得部11の触覚コンテンツ読出部1131は、ユーザが選択した音声コンテンツから生成される触質パラメータに応じた触質コンテンツで、かつ、当該音声コンテンツに関する触質パラメータとは無関係の触質モード(ユーザにより選択された触質モード)に対応する触質コンテンツを触覚コンテンツ記憶部1132から読み出すことが可能である。 Further, for example, when the configuration of FIG. 14C (a) or FIG. 18C (a) is applied as a configuration example of the tactile content acquisition unit 11, the user selects a desired audio content and selects a desired tactile mode. It is possible to In this case, the tactile content reading unit 1131 of the tactile content acquisition unit 11 is a tactile content corresponding to the tactile parameter generated from the audio content selected by the user, and is independent of the tactile parameter related to the audio content. The tactile content corresponding to the tactile mode (tactile mode selected by the user) can be read from the tactile content storage unit 1132.
 図26は、音声コンテンツの解析結果に基づく触質モードの指定に代えて、ユーザ操作に基づく触質モードの指定のみを行うことができるようにしたものである。すなわち、触質モード指定部13Bは、音声コンテンツの解析結果に基づいて触質モードを指定する機能に代えて、ユーザからの触質モードの選択に係る指示に応じて触質モードを指定する機能を備えている。 FIG. 26 shows a configuration in which only the tactile mode based on the user operation can be specified instead of the tactile mode based on the analysis result of the audio content. That is, the tactile mode designating unit 13B has a function of designating the tactile mode in response to an instruction related to the selection of the tactile mode from the user instead of the function of designating the tactile mode based on the analysis result of the audio content. It has.
 図27は、ユーザ操作に基づく触質モードの指定のみを行うことができるようにした構成の変形例である。図27に示す構成のコンテンツ供給装置100では、音声コンテンツの取得に関する構成は全く備えていない。すなわち、触覚コンテンツの取得に関する構成のみを備え、触質モードの指定は、触質モード指定部13Bがユーザからの触質モードの選択に係る指示に応じて行う。 FIG. 27 shows a modification of the configuration in which only the tactile mode can be designated based on a user operation. The content supply device 100 having the configuration shown in FIG. 27 does not include any configuration related to acquisition of audio content. That is, only the configuration relating to the acquisition of the tactile content is provided, and the specification of the tactile mode is performed by the tactile mode designating unit 13B in response to an instruction from the user regarding the selection of the tactile mode.
 なお、この図27における触覚コンテンツ取得部11の構成例としては、図6、図14A、図14C(a)、図18A、図18C(a)の何れかの構成も適用することが可能である。例えば、図6の構成を適用した場合、触覚コンテンツ取得部11の触覚コンテンツ読出部1111,1111’は、触質モード指定部13Bにより指定された触質モードに応じた触覚コンテンツを、複数の触質モードにそれぞれ対応した複数の触覚コンテンツを記憶する触覚コンテンツ記憶部1112,1112’から読み出す。 As a configuration example of the haptic content acquisition unit 11 in FIG. 27, any of the configurations in FIGS. 6, 14A, 14C (a), 18A, and 18C (a) can be applied. . For example, when the configuration in FIG. 6 is applied, the haptic content reading units 1111 and 1111 ′ of the haptic content acquiring unit 11 convert the haptic content according to the haptic mode specified by the haptic mode specifying unit 13B into a plurality of haptic contents. A plurality of haptic contents respectively corresponding to the quality modes are read from the haptic content storage units 1112 and 1112 '.
 また、触覚コンテンツ取得部11に図14A、図14C(a)、図18A、図18C(a)の何れかの構成を適用した場合、触覚コンテンツ取得部11の触質コンテンツ読出部1131は、触質モード指定部13Bにより指定された触質モードに応じた触質コンテンツを、複数の触質モードにそれぞれ対応した複数の触覚コンテンツを記憶する触質コンテンツ記憶部1132から読み出す。 When any one of the configurations shown in FIGS. 14A, 14C (a), 18A, and 18C (a) is applied to the haptic content acquisition unit 11, the haptic content reading unit 1131 of the haptic content acquisition unit 11 The tactile content corresponding to the tactile mode specified by the tactile mode specifying unit 13B is read from the tactile content storage unit 1132 that stores a plurality of tactile contents respectively corresponding to the plurality of tactile modes.
(第3の実施形態)
 次に、本発明の第3の実施形態について説明する。第3の実施形態は、コンテンツ取得装置200とコンテンツ提供サーバ装置300とが通信ネットワーク600を介して接続されたコンテンツ提供システムに関するものである。
(Third embodiment)
Next, a third embodiment of the present invention will be described. The third embodiment relates to a content providing system in which a content acquisition device 200 and a content providing server device 300 are connected via a communication network 600.
 なお、コンテンツ取得装置200がコンテンツ提供サーバ装置300から取得した触覚コンテンツは、任意に活用することが可能である。例えば、コンテンツ取得装置200が取得した触覚コンテンツを第1の実施形態で説明したコンテンツ供給装置100の触覚コンテンツ記憶部1112に記憶させ、コンテンツ供給装置100からコンテンツ利用機器500に触覚コンテンツを供給することが可能である。 Note that the haptic content acquired by the content acquisition device 200 from the content providing server device 300 can be used arbitrarily. For example, the haptic content acquired by the content acquisition device 200 is stored in the haptic content storage unit 1112 of the content supply device 100 described in the first embodiment, and the haptic content is supplied from the content supply device 100 to the content use device 500. Is possible.
 本実施形態では、5つのシステム構成例について説明する。 In this embodiment, five system configuration examples will be described.
<コンテンツ提供システムの第1構成例>
 図28は、第1構成例に係るコンテンツ提供システムの機能構成例を示すブロック図である。なお、この図28において、図2に示した構成要素と同一の機能を有する構成要素には同一の符号を付している。
<First Configuration Example of Content Providing System>
FIG. 28 is a block diagram illustrating a functional configuration example of the content providing system according to the first configuration example. 28, components having the same functions as the components shown in FIG. 2 are denoted by the same reference numerals.
 図28に示すように、コンテンツ取得装置200は、その機能構成として、触覚コンテンツ受信部201、触覚コンテンツ保存部202、音声コンテンツ受信部203、音声コンテンツ保存部204および指示送信部205を備えている。また、コンテンツ提供サーバ装置300は、その機能構成として、触覚コンテンツ取得部11、触質モード指定部13、音声コンテンツ取得部14、触覚コンテンツ送信部301、音声コンテンツ送信部302および指示受信部303を備えている。 As shown in FIG. 28, the content acquisition device 200 includes a haptic content reception unit 201, a haptic content storage unit 202, an audio content reception unit 203, an audio content storage unit 204, and an instruction transmission unit 205 as its functional configuration. . Further, the content providing server device 300 includes, as its functional components, a haptic content acquisition unit 11, a tactile mode designation unit 13, an audio content acquisition unit 14, a haptic content transmission unit 301, an audio content transmission unit 302, and an instruction reception unit 303. Have.
 上記コンテンツ取得装置200が備える各機能ブロックは、ハードウェア、DSP、ソフトウェアの何れによっても構成することが可能である。例えばソフトウェアによって構成する場合、上記各機能ブロックは、実際にはコンピュータのCPU、RAM、ROMなどを備えて構成され、RAMやROM、ハードディスクまたは半導体メモリ等の記録媒体に記憶されたコンテンツ提供用プログラムが動作することによって実現される。これは、図29~図32に図示する第2構成例~第5構成例においても同様である。 各 Each functional block provided in the content acquisition device 200 can be configured by any of hardware, DSP, and software. For example, when configured by software, each of the functional blocks is actually configured to include a CPU, a RAM, a ROM, and the like of a computer, and a content providing program stored in a storage medium such as a RAM, a ROM, a hard disk, or a semiconductor memory. Is realized by operating. This is the same in the second to fifth configuration examples shown in FIGS. 29 to 32.
 上記コンテンツ提供サーバ装置300が備える各機能ブロックも、ハードウェア、DSP、ソフトウェアの何れによっても構成することが可能である。例えばソフトウェアによって構成する場合、上記各機能ブロックは、実際にはコンピュータのCPU、RAM、ROMなどを備えて構成され、RAMやROM、ハードディスクまたは半導体メモリ等の記録媒体に記憶されたコンテンツ提供用プログラムが動作することによって実現される。これは、図29~図32に図示する第2構成例~第5構成例においても同様である。 (4) Each functional block included in the content providing server device 300 can be configured by any of hardware, DSP, and software. For example, when configured by software, each of the functional blocks is actually configured to include a CPU, a RAM, a ROM, and the like of a computer, and a content providing program stored in a storage medium such as a RAM, a ROM, a hard disk, or a semiconductor memory. Is realized by operating. This is the same in the second to fifth configuration examples shown in FIGS. 29 to 32.
 コンテンツ取得装置200の指示送信部205は、コンテンツ取得装置200の操作部あるいは所定のグラフィカルユーザインタフェースを通じて行われたユーザからの音声コンテンツの選択に係る指示をコンテンツ提供サーバ装置300に送信する。コンテンツ提供サーバ装置300の指示受信部303は、この指示を受信する。なお、この音声コンテンツの選択に係る指示は、これに応じて触覚コンテンツがコンテンツ提供サーバ装置300から取得されるので、触覚コンテンツの取得に関する指示に相当する。 The instruction transmission unit 205 of the content acquisition device 200 transmits to the content providing server device 300 an instruction related to selection of audio content from the user via the operation unit of the content acquisition device 200 or a predetermined graphical user interface. The instruction receiving unit 303 of the content providing server device 300 receives this instruction. Note that the instruction related to the selection of the audio content is equivalent to the instruction related to the acquisition of the haptic content because the haptic content is acquired from the content providing server device 300 in response thereto.
 ここでいう所定のグラフィカルユーザインタフェースとは、例えば、コンテンツ提供サーバ装置300の音声コンテンツ記憶部142に記憶されている音声コンテンツの一覧を表示してユーザが何れかを選択可能な選択画面のことである。当該選択画面は、コンテンツ提供サーバ装置300が作成してコンテンツ取得装置200のディスプレイなどに表示させる。 Here, the predetermined graphical user interface is, for example, a selection screen on which a list of audio contents stored in the audio content storage unit 142 of the content providing server device 300 is displayed and the user can select one of the audio contents. is there. The selection screen is created by the content providing server device 300 and displayed on a display of the content acquisition device 200 or the like.
 コンテンツ提供サーバ装置300の音声コンテンツ取得部14は、指示受信部303が受信したユーザからの音声コンテンツの選択に係る指示に応じて、音声コンテンツを取得する。具体的には、音声コンテンツ取得部14の音声コンテンツ読出部141が、音声コンテンツ記憶部142に記憶されている複数の音声コンテンツの中から、ユーザ操作により選択された音声コンテンツを読み出すことによって音声コンテンツを取得する。 The audio content acquisition unit 14 of the content providing server device 300 acquires the audio content in response to the instruction received by the instruction receiving unit 303 from the user and related to the selection of the audio content. Specifically, the audio content reading unit 141 of the audio content acquisition unit 14 reads out the audio content selected by the user operation from the plurality of audio contents stored in the audio content storage unit 142, and To get.
 コンテンツ提供サーバ装置300の触質モード指定部13は、音声コンテンツ取得部14により取得された音声コンテンツの解析結果に応じた触質モードを指定する。「解析結果に応じた触質モードを指定する」というのは、第1の実施形態と同様に、コンテンツ提供サーバ装置300が音声コンテンツの選択に係る指示を受けたときに、触質モード指定部13が音声コンテ音声コンテンツ取得部14により取得された音声コンテンツを解析し、その解析結果に応じて触質モードを指定することはもちろん、触質モード指定部13があらかじめ解析しておいた対応情報に基づいて触質モード指定することも含む。 The tactile mode designating unit 13 of the content providing server device 300 designates a tactile mode according to the analysis result of the audio content acquired by the audio content acquiring unit 14. “Specifying the tactile mode according to the analysis result” means that, as in the first embodiment, when the content providing server device 300 receives an instruction related to the selection of audio content, the tactile mode specifying unit 13 analyzes the audio content acquired by the audio content acquisition unit 14 and designates a tactile mode in accordance with the analysis result. And specifying the tactile mode based on the
 すなわち、コンテンツ提供サーバ装置300では、コンテンツ取得装置200に提供する音声コンテンツを音声コンテンツ記憶部142にあらかじめ記憶している。したがって、ユーザからの音声コンテンツの選択に係る指示がなくても、音声コンテンツ記憶部142に記憶されている音声コンテンツの全てまたは一部について、第1の実施形態と同様の解析をあらかじめ行い、音声コンテンツごとに触質モードを特定しておくことが可能である。そして、その解析結果に基づいて、音声コンテンツと触質モードとの対応関係を示した対応情報(テーブル情報)を作成して記憶しておくことが可能である。このようなテーブル情報を作成した場合、触質モード指定部13は、指示受信部303が音声コンテンツの選択に係る指示を受信したときに、テーブル情報を参照し、その指示により選択された音声コンテンツに対応する触質モードを指定する。 That is, in the content providing server device 300, audio content to be provided to the content acquisition device 200 is stored in the audio content storage unit 142 in advance. Therefore, the same analysis as in the first embodiment is performed in advance for all or a part of the audio content stored in the audio content storage unit 142 even if there is no instruction from the user regarding the selection of the audio content. It is possible to specify the tactile mode for each content. Then, based on the analysis result, it is possible to create and store correspondence information (table information) indicating the correspondence between the audio content and the tactile mode. When such table information is created, the tactile-mode specifying unit 13 refers to the table information when the instruction receiving unit 303 receives an instruction related to audio content selection, and selects the audio content selected by the instruction. Specify the tactile mode corresponding to.
 触覚コンテンツ取得部11は、触質モード指定部13により指定された触質モードに応じた触覚コンテンツを取得する。この触覚コンテンツ取得部11の構成例としては、図6(a)(b)、図8(a)(b)、図14A~図14C、図18A~図18Cの何れの構成も適用することが可能である。 The haptic content acquisition unit 11 acquires haptic content according to the tactile mode specified by the tactile mode specification unit 13. As a configuration example of the haptic content acquisition unit 11, any of the configurations of FIGS. 6A and 8B, FIGS. 8A and 8B, FIGS. 14A to 14C, and FIGS. 18A to 18C can be applied. It is possible.
 触覚コンテンツ送信部301は、触覚コンテンツ取得部11により取得された触覚コンテンツをコンテンツ取得装置200に送信する。音声コンテンツ送信部302は、音声コンテンツ取得部14により取得された音声コンテンツをコンテンツ取得装置200に送信する。 The haptic content transmitting unit 301 transmits the haptic content acquired by the haptic content acquiring unit 11 to the content acquiring device 200. The audio content transmission unit 302 transmits the audio content acquired by the audio content acquisition unit 14 to the content acquisition device 200.
 コンテンツ取得装置200の触覚コンテンツ受信部201は、指示送信部205による指示に対する応答としてコンテンツ提供サーバ装置300の触覚コンテンツ送信部301により送信された触覚コンテンツを受信する。触覚コンテンツ保存部202は、触覚コンテンツ受信部201により受信された触覚コンテンツを保存する。 The haptic content receiving unit 201 of the content acquisition device 200 receives the haptic content transmitted by the haptic content transmitting unit 301 of the content providing server device 300 as a response to the instruction from the instruction transmitting unit 205. The haptic content storage unit 202 stores the haptic content received by the haptic content receiving unit 201.
 コンテンツ取得装置200の音声コンテンツ受信部203は、指示送信部205による指示に対する応答としてコンテンツ提供サーバ装置300の音声コンテンツ送信部302により送信された音声コンテンツを受信する。音声コンテンツ保存部204は、音声コンテンツ受信部203により受信された音声コンテンツを保存する。 The audio content receiving unit 203 of the content acquisition device 200 receives the audio content transmitted by the audio content transmitting unit 302 of the content providing server device 300 as a response to the instruction from the instruction transmitting unit 205. The audio content storage unit 204 stores the audio content received by the audio content reception unit 203.
 触覚コンテンツ保存部202に保存された触覚コンテンツおよび音声コンテンツ保存部204に保存された音声コンテンツは、コンテンツ利用機器500に供給することが可能である。また、コンテンツ取得装置200に保存された触覚コンテンツと音声コンテンツを、リムバール記憶媒体や通信ネットワークを介して他の端末に送信し、当該他の端末からコンテンツ利用機器500に供給することも可能である。 The haptic content stored in the haptic content storage unit 202 and the audio content stored in the audio content storage unit 204 can be supplied to the content use device 500. Further, the haptic content and the audio content stored in the content acquisition device 200 can be transmitted to another terminal via a removable storage medium or a communication network, and can be supplied from the other terminal to the content use device 500. .
 図28に示したコンテンツ提供システムの構成によれば、音声コンテンツおよび触覚コンテンツの両方をコンテンツ提供サーバ装置300からコンテンツ取得装置200にダウンロードして保存することが可能である。この場合、ユーザがダウンロードしたい音声コンテンツを上述した選択画面を通じて選択すれば、選択した音声コンテンツをダウンロードするとともに、選択した音声コンテンツの触質特徴量に基づき指定される触質モードに応じた触覚コンテンツ、すなわち、音声コンテンツの特徴に合った触覚コンテンツをダウンロードすることができる。 According to the configuration of the content providing system shown in FIG. 28, both the audio content and the tactile content can be downloaded from the content providing server device 300 to the content obtaining device 200 and stored. In this case, if the user selects the audio content to be downloaded through the selection screen described above, the selected audio content is downloaded, and the haptic content corresponding to the tactile mode specified based on the tactile feature amount of the selected audio content. That is, it is possible to download a tactile content that matches the characteristics of the audio content.
 なお、ここでは、ユーザが所望の音声コンテンツを選択するだけで触覚コンテンツもダウンロードされる構成について説明したが、第1の実施形態で説明したのと同様に、音声コンテンツの選択に係る指示とは別に、触覚コンテンツの取得に係る指示をコンテンツ取得装置200からコンテンツ提供サーバ装置300に送信した場合にのみ、触覚コンテンツをコンテンツ提供サーバ装置300からコンテンツ取得装置200に送信するようにしてもよい。 Here, the configuration in which the tactile content is downloaded only by the user selecting the desired audio content has been described. However, as described in the first embodiment, the instruction related to the selection of the audio content is Separately, the haptic content may be transmitted from the content providing server device 300 to the content obtaining device 200 only when the instruction relating to the acquisition of the haptic content is transmitted from the content obtaining device 200 to the content providing server device 300.
 音声コンテンツの選択操作と触覚コンテンツの取得指示操作とを別に行う場合において、音声コンテンツは触質モードを指定するための解析にのみ使用し、コンテンツ利用機器500には供給しないようにしてもよい。この場合、コンテンツ取得装置200の音声コンテンツ受信部203および音声コンテンツ保存部204と、コンテンツ提供サーバ装置300の音声コンテンツ送信部302とを省略してよい。 In the case where the operation of selecting the audio content and the operation of instructing the acquisition of the tactile content are performed separately, the audio content may be used only for the analysis for specifying the tactile mode, and may not be supplied to the content use device 500. In this case, the audio content receiving unit 203 and the audio content storage unit 204 of the content acquisition device 200 and the audio content transmitting unit 302 of the content providing server device 300 may be omitted.
 また、図28の構成において、触質モード指定部13に代えて、図25に示した触質モード指定部13Aまたは図26に示した触質モード指定部13Bを備えるようにして、音声コンテンツの解析結果に基づく触質モードの指定に加えてまたは代えて、ユーザ操作に応じて触質モードを指定できるようにしてもよい。この場合、指示送信部205は、触質モードの指定に係る指示をコンテンツ提供サーバ装置300に送信する。また、指示受信部303は、この指示を受信して触質モード指定部13に通知する。 In addition, in the configuration of FIG. 28, instead of the tactile mode designating section 13, a tactile mode designating section 13A shown in FIG. 25 or a tactile mode designating section 13B shown in FIG. In addition to or instead of specifying the tactile mode based on the analysis result, the tactile mode may be specified according to a user operation. In this case, the instruction transmitting unit 205 transmits an instruction relating to the specification of the touch mode to the content providing server device 300. The instruction receiving unit 303 receives the instruction and notifies the tactile-mode specifying unit 13.
<コンテンツ提供システムの第2構成例>
 図29は、第2構成例に係るコンテンツ提供システムの機能構成例を示すブロック図である。なお、この図29において、図27および図28に示した構成要素と同一の機能を有する構成要素には同一の符号を付している。
<Second configuration example of content providing system>
FIG. 29 is a block diagram illustrating a functional configuration example of a content providing system according to the second configuration example. In FIG. 29, components having the same functions as those shown in FIGS. 27 and 28 are denoted by the same reference numerals.
 図29に示すコンテンツ提供システムでは、音声コンテンツの取得に関する構成は備えていない。すなわち、触覚コンテンツの取得に関する構成のみを備え、触質モード指定部13Bによる触質モードの指定は、コンテンツ取得装置200のユーザからの触質モードの選択に係る指示に応じて行う。 コ ン テ ン ツ The content providing system shown in FIG. 29 does not include a configuration related to acquisition of audio content. That is, only the configuration relating to the acquisition of the tactile content is provided, and the specification of the tactile mode by the tactile mode designating unit 13B is performed in response to an instruction relating to the selection of the tactile mode from the user of the content acquisition device 200.
 すなわち、コンテンツ取得装置200の指示送信部205は、コンテンツ取得装置200の操作部またはグラフィカルユーザインタフェースを通じて行われるユーザからの触質モードの指定に係る指示をコンテンツ提供サーバ装置300に送信する。コンテンツ提供サーバ装置300の指示受信部303は、指示送信部205から送信された触質モードの指定に係る指示を受信する。触質モード指定部13Bは、指示受信部303が受信したユーザからの触質モードの選択に係る指示に応じて触質モードを指定する。 In other words, the instruction transmission unit 205 of the content acquisition device 200 transmits an instruction relating to the specification of the tactile mode from the user via the operation unit of the content acquisition device 200 or the graphical user interface to the content providing server device 300. The instruction receiving unit 303 of the content providing server device 300 receives the instruction related to the specification of the tactile mode transmitted from the instruction transmitting unit 205. The tactile mode designating unit 13B designates the tactile mode in accordance with the instruction received by the instruction receiving unit 303 and related to the selection of the tactile mode.
 触覚コンテンツ取得部11は、触質モード指定部13Bにより指定された触質モードに応じた触覚コンテンツを取得する。この触覚コンテンツ取得部11の構成例としては、図6(a)(b)、図14A、図18Aの何れかの構成を適用することが可能である。 The haptic content acquisition unit 11 acquires haptic content according to the haptic mode specified by the haptic mode specification unit 13B. As a configuration example of the haptic content acquisition unit 11, any one of the configurations of FIGS. 6A, 6B, 14A, and 18A can be applied.
<コンテンツ提供システムの第3構成例>
 図30は、第3構成例に係るコンテンツ提供システムの機能構成例を示すブロック図である。なお、この図30において、図28に示した構成要素と同一の機能を有する構成要素には同一の符号を付している。
<Third Configuration Example of Content Providing System>
FIG. 30 is a block diagram illustrating a functional configuration example of the content providing system according to the third configuration example. In FIG. 30, components having the same functions as the components shown in FIG. 28 are denoted by the same reference numerals.
 図30に示すように、コンテンツ取得装置200は、その機能構成として、触覚コンテンツ受信部201、触覚コンテンツ保存部202、音声コンテンツ送信部206および音声コンテンツ記憶部207を備えている。また、コンテンツ提供サーバ装置300は、その機能構成として、触覚コンテンツ取得部11、触質モード指定部13、触覚コンテンツ送信部301および音声コンテンツ受信部304を備えている。 As shown in FIG. 30, the content acquisition device 200 includes a haptic content reception unit 201, a haptic content storage unit 202, an audio content transmission unit 206, and an audio content storage unit 207 as its functional configuration. Further, the content providing server device 300 includes a haptic content acquisition unit 11, a haptic mode designation unit 13, a haptic content transmission unit 301, and an audio content reception unit 304 as its functional configuration.
 コンテンツ取得装置200の音声コンテンツ記憶部207は、1以上の音声コンテンツを記憶する。図示は省略しているが、この音声コンテンツ記憶部207には、外部装置から通信ネットワークを介してダウンロードした音声コンテンツを随時追加して記憶することが可能である。 The audio content storage unit 207 of the content acquisition device 200 stores one or more audio contents. Although not shown, the audio content storage unit 207 can additionally store audio content downloaded from an external device via a communication network as needed.
 音声コンテンツ送信部206は、音声コンテンツ記憶部207に記憶されている音声コンテンツの中からユーザにより選択された音声コンテンツをコンテンツ提供サーバ装置300に送信する。音声コンテンツの選択は、コンテンツ取得装置200の操作部あるいは所定のユーザインタフェースを通じて行われる。すなわち、ユーザは、グラフィカルユーザインタフェースを通じて提供される音声コンテンツの一覧の中から、音声の特徴に合わせた触覚コンテンツを取得したいと考える音声コンテンツを選択して送信の指示を行う。音声コンテンツ送信部206は、この送信指示に応じて、ユーザにより選択された音声コンテンツを音声コンテンツ記憶部207から読み出してコンテンツ提供サーバ装置300に送信する。 The audio content transmitting unit 206 transmits the audio content selected by the user from the audio contents stored in the audio content storage unit 207 to the content providing server device 300. The selection of the audio content is performed through the operation unit of the content acquisition device 200 or a predetermined user interface. That is, the user selects, from a list of audio contents provided through the graphical user interface, audio contents for which it is desired to obtain haptic contents matching the characteristics of the audio, and instructs transmission. In response to the transmission instruction, the audio content transmission unit 206 reads the audio content selected by the user from the audio content storage unit 207 and transmits the audio content to the content providing server device 300.
 コンテンツ提供サーバ装置300の音声コンテンツ受信部304は、コンテンツ取得装置200から送信された音声コンテンツを受信する。触質モード指定部13は、音声コンテンツ受信部304により受信された音声コンテンツを解析し、その解析結果に応じて触質モードを指定する。 The audio content receiving unit 304 of the content providing server device 300 receives the audio content transmitted from the content acquisition device 200. The tactile mode designating unit 13 analyzes the audio content received by the audio content receiving unit 304, and designates a tactile mode according to the analysis result.
 触覚コンテンツ取得部11は、触質モード指定部13により指定された触質モードに応じた触覚コンテンツを取得する。この触覚コンテンツ取得部11の構成例としては、図6(a)(b)、図8(a)(b)、図14A~図14C、図18A~図18Cの何れの構成も適用することが可能である。 The haptic content acquisition unit 11 acquires haptic content according to the tactile mode specified by the tactile mode specification unit 13. As a configuration example of the haptic content acquisition unit 11, any of the configurations of FIGS. 6A and 8B, FIGS. 8A and 8B, FIGS. 14A to 14C, and FIGS. 18A to 18C can be applied. It is possible.
 触覚コンテンツ送信部301は、触覚コンテンツ取得部11により取得された触覚コンテンツをコンテンツ取得装置200に送信する。コンテンツ取得装置200の触覚コンテンツ受信部201は、音声コンテンツ送信部305による音声コンテンツの送信に対する応答としてコンテンツ提供サーバ装置300の触覚コンテンツ送信部301により送信された触覚コンテンツを受信する。 The haptic content transmitting unit 301 transmits the haptic content acquired by the haptic content acquiring unit 11 to the content acquiring device 200. The haptic content receiving unit 201 of the content acquisition device 200 receives the haptic content transmitted by the haptic content transmitting unit 301 of the content providing server device 300 as a response to the transmission of the audio content by the audio content transmitting unit 305.
 図30に示した第3構成例に係るコンテンツ提供システムは、コンテンツ取得装置200に音声コンテンツがあらかじめ存在する場合に、その音声コンテンツに対応する触覚コンテンツだけをコンテンツ提供サーバ装置300から取得するのに好適な例である。
始まり
The content providing system according to the third configuration example shown in FIG. 30 is configured to acquire only the tactile content corresponding to the audio content from the content providing server device 300 when the audio content is present in the content acquisition device 200 in advance. This is a preferred example.
Beginning
 また、図30の構成においても、触質モード指定部13に代えて、図25に示した触質モード指定部13Aまたは図26に示した触質モード指定部13Bを備えるようにして、音声コンテンツの解析結果に基づく触質モードの指定に加えてまたは代えて、ユーザ操作に応じて触質モードを指定できるようにしてもよい。ここで、触覚コンテンツ取得部11の構成として図14Cまたは図18Cの構成を適用すれば、ユーザが選択した音声コンテンツの触質パラメータに応じた触覚コンテンツで、かつ、ユーザが選択した触質モードに応じた触覚コンテンツを得ることができる。 Also in the configuration of FIG. 30, instead of the tactile mode designating section 13, the tactile mode designating section 13 A shown in FIG. 25 or the tactile mode designating section 13 B shown in FIG. 26 is provided. In addition to or instead of specifying the tactile mode based on the analysis result, the tactile mode may be specified according to a user operation. Here, if the configuration of FIG. 14C or FIG. 18C is applied as the configuration of the haptic content acquisition unit 11, the haptic content according to the haptic parameter of the audio content selected by the user and the haptic mode selected by the user are set. The corresponding tactile content can be obtained.
<コンテンツ提供システムの第4構成例>
 図31は、第4構成例に係るコンテンツ提供システムの機能構成例を示すブロック図である。なお、この図31において、図30に示した構成要素と同一の機能を有する構成要素には同一の符号を付している。第4構成例は、第3構成例の変形例であり、コンテンツ提供サーバ装置300がコンテンツ取得装置200から受信した音声コンテンツを触覚コンテンツと共にコンテンツ取得装置200に返信するようにしたものである。
<Fourth configuration example of content providing system>
FIG. 31 is a block diagram illustrating a functional configuration example of a content providing system according to a fourth configuration example. In FIG. 31, components having the same functions as the components shown in FIG. 30 are denoted by the same reference numerals. The fourth configuration example is a modification of the third configuration example, in which the content providing server device 300 returns the audio content received from the content acquisition device 200 to the content acquisition device 200 together with the tactile content.
 図31に示すように、第4構成例に係るコンテンツ取得装置200は、図30に示した触覚コンテンツ受信部201および触覚コンテンツ保存部202に代えて音響コンテンツ受信部208および音響コンテンツ保存部209を備えている。また、コンテンツ提供サーバ装置300は、図30に示した触覚コンテンツ送信部301に代えて音響コンテンツ生成部305および音響コンテンツ送信部306を備えている。 As shown in FIG. 31, the content acquisition device 200 according to the fourth configuration example includes an audio content reception unit 208 and an audio content storage unit 209 instead of the haptic content reception unit 201 and the haptic content storage unit 202 shown in FIG. Have. Also, the content providing server device 300 includes an audio content generation unit 305 and an audio content transmission unit 306 instead of the haptic content transmission unit 301 shown in FIG.
 コンテンツ提供サーバ装置300の音響コンテンツ生成部305は、音声コンテンツ受信部304により受信された音声コンテンツ(コンテンツ取得装置200から送られた音声コンテンツ)と、触覚コンテンツ取得部11により取得された触覚コンテンツとの組み合わせにより音響コンテンツを生成する。例えば、音響コンテンツ生成部305は、音声コンテンツ受信部304により受信された音声コンテンツを第1チャネル情報とし、触覚コンテンツ取得部11により取得された触覚コンテンツを第2チャネル情報とする音響コンテンツを生成する。 The audio content generation unit 305 of the content providing server device 300 includes the audio content received by the audio content reception unit 304 (the audio content transmitted from the content acquisition device 200) and the haptic content acquired by the haptic content acquisition unit 11. To generate audio content. For example, the audio content generation unit 305 generates audio content using the audio content received by the audio content reception unit 304 as the first channel information and using the haptic content acquired by the haptic content acquisition unit 11 as the second channel information. .
 音響コンテンツ送信部306は、音響コンテンツ生成部305により生成された音響コンテンツをコンテンツ取得装置200に送信する。コンテンツ取得装置200の音響コンテンツ受信部208は、音声コンテンツ送信部206による音声コンテンツのコンテンツ提供サーバ装置300への送信に対する応答としてコンテンツ提供サーバ装置300の音響コンテンツ送信部306により送信された音響コンテンツを受信する。音響コンテンツ保存部209は、音響コンテンツ受信部208により受信された音響コンテンツを保存する。 The audio content transmission unit 306 transmits the audio content generated by the audio content generation unit 305 to the content acquisition device 200. The audio content receiving unit 208 of the content acquisition device 200 transmits the audio content transmitted by the audio content transmitting unit 306 of the content providing server device 300 in response to the transmission of the audio content to the content providing server device 300 by the audio content transmitting unit 206. Receive. The audio content storage unit 209 stores the audio content received by the audio content reception unit 208.
 図31のように構成すれば、コンテンツ取得装置200は、音声コンテンツと触覚コンテンツとを同期が取れた状態で取得することができ、利用がしやすいというメリットを有する。例えば、コンテンツ取得装置200からコンテンツ利用機器500に音声コンテンツと触覚コンテンツとを供給する際に、コンテンツ取得装置200に元々記憶されている音声コンテンツと、コンテンツ提供サーバ装置300から取得した触覚コンテンツとを個別に供給する形態ではなく、コンテンツ提供サーバ装置300から音響コンテンツとして取得した音声コンテンツと触覚コンテンツとを同期がとれた状態でコンテンツ利用機器500に供給することができる。 With the configuration shown in FIG. 31, the content acquisition device 200 can acquire the audio content and the tactile content in a synchronized state, and has an advantage that the content can be easily used. For example, when the audio content and the haptic content are supplied from the content acquisition device 200 to the content use device 500, the audio content originally stored in the content acquisition device 200 and the haptic content acquired from the content providing server device 300 are used. Instead of supplying the content individually, the audio content and the tactile content obtained as the audio content from the content providing server device 300 can be supplied to the content use device 500 in a synchronized state.
 なお、音声コンテンツと触覚コンテンツとを組み合わせて音響コンテンツを生成する構成は、図28に示した第1構成例にも適用することが可能である。 Note that the configuration in which audio content and tactile content are combined to generate audio content can also be applied to the first configuration example shown in FIG.
<コンテンツ提供システムの第5構成例>
 図32は、第5構成例に係るコンテンツ提供システムの機能構成例を示すブロック図である。なお、この図32において、図28および図31に示した構成要素と同一の機能を有する構成要素には同一の符号を付している。
<Fifth Configuration Example of Content Providing System>
FIG. 32 is a block diagram illustrating a functional configuration example of a content providing system according to a fifth configuration example. In FIG. 32, components having the same functions as those shown in FIGS. 28 and 31 are denoted by the same reference numerals.
 図32に示す第5構成例において、コンテンツ取得装置200は、指示送信部205、音響コンテンツ受信部208および音響コンテンツ保存部209を備えている。また、コンテンツ提供サーバ装置300は、触覚コンテンツ取得部11、触質モード指定部13、指示受信部303および音響コンテンツ送信部306を備えている。また、第5構成例において、触覚コンテンツ取得部11は、第1および第2の実施形態で説明した各種の構成の何れとも異なり、音響コンテンツ読出部181および音響コンテンツ記憶部182を備えている。 In the fifth configuration example shown in FIG. 32, the content acquisition device 200 includes an instruction transmission unit 205, an audio content reception unit 208, and an audio content storage unit 209. The content providing server device 300 includes a haptic content acquisition unit 11, a tactile mode designation unit 13, an instruction reception unit 303, and an audio content transmission unit 306. Further, in the fifth configuration example, the haptic content acquisition unit 11 is different from any of the various configurations described in the first and second embodiments, and includes an audio content reading unit 181 and an audio content storage unit 182.
 触覚コンテンツ取得部11の音響コンテンツ記憶部182は、触覚コンテンツおよび音声コンテンツを含む音響コンテンツであって、触質モードに応じた音響コンテンツを記憶する。音響コンテンツ記憶部182は、ハードディスク、半導体メモリ等の不揮発性の記憶媒体であり、ユーザが明示的に消去の指示をしなければ音響コンテンツを保存し続けることが可能である。 (4) The acoustic content storage unit 182 of the haptic content acquisition unit 11 stores acoustic content according to the tactile mode, which is audio content including haptic content and audio content. The audio content storage unit 182 is a non-volatile storage medium such as a hard disk or a semiconductor memory, and can continue to store audio content unless the user explicitly gives an instruction to delete.
 ここで言う音響コンテンツは、音声コンテンツと、その音声コンテンツの触質特徴量に応じた触質モードに対応する触覚コンテンツとを組み合わせて成るものであり、例えば音声コンテンツを第1チャネル情報とし、触覚コンテンツを第2チャネル情報とするコンテンツである。 The audio content referred to here is a combination of audio content and tactile content corresponding to a tactile mode corresponding to the tactile feature amount of the audio content. This is the content whose content is the second channel information.
 音響コンテンツ読出部181は、音響コンテンツ記憶部182に記憶されている1以上の音響コンテンツの中から、触質モード指定部13により指定された触質モードに応じた音響コンテンツを読み出す。図32の例において、触質モード指定部13による触質モードの指定は、図28に示した第1構成例と同様、コンテンツ取得装置200の指示送信部205からコンテンツ提供サーバ装置300の指示受信部303に送信した音声コンテンツの選択に係る指示に応じて行う。あるいは、コンテンツ取得装置200の指示送信部205からコンテンツ提供サーバ装置300の指示受信部303に送信したユーザによる触質モードの選択に係る指示に応じて触質モードを指定するようにしてもよい。これらの指示は何れも「触覚コンテンツの取得に関する指示」に相当する。 The audio content reading unit 181 reads the audio content corresponding to the tactile mode specified by the tactile mode specification unit 13 from one or more audio contents stored in the audio content storage unit 182. In the example of FIG. 32, the specification of the touch mode by the touch mode specifying unit 13 is performed by receiving the instruction of the content providing server device 300 from the instruction transmitting unit 205 of the content acquisition device 200, similarly to the first configuration example illustrated in FIG. 28. This is performed according to an instruction related to selection of audio content transmitted to unit 303. Alternatively, the tactile mode may be designated in accordance with the user's instruction related to the selection of the tactile mode transmitted from the instruction transmitting unit 205 of the content acquisition device 200 to the instruction receiving unit 303 of the content providing server device 300. All of these instructions correspond to “instructions regarding acquisition of tactile content”.
 音響コンテンツ送信部306は、触覚コンテンツ取得部11により取得された(すなわち、音響コンテンツ読出部181により音響コンテンツ記録部182から読み出された)音響コンテンツをコンテンツ取得装置200に送信する。コンテンツ取得装置200の音響コンテンツ受信部208は、コンテンツ提供サーバ装置300の音響コンテンツ送信部306により送信された音響コンテンツを受信する。音響コンテンツ保存部209は、音響コンテンツ受信部208により受信された音響コンテンツを保存する。 The audio content transmission unit 306 transmits the audio content acquired by the haptic content acquisition unit 11 (that is, read from the audio content recording unit 182 by the audio content reading unit 181) to the content acquisition device 200. The audio content receiving unit 208 of the content acquisition device 200 receives the audio content transmitted by the audio content transmitting unit 306 of the content providing server device 300. The audio content storage unit 209 stores the audio content received by the audio content reception unit 208.
 なお、図32に示す触覚コンテンツ取得部11の構成は、第1の実施形態および第2の実施形態に示したコンテンツ供給装置100にも適用することが可能である。例えば、図2A~図2Cに示した触覚コンテンツ取得部11の構成として図32の構成を採用し、音声コンテンツ取得部14および音声コンテンツ供給部15を省略するとともに、触覚コンテンツ供給部12に代えて音響コンテンツ供給部を設けるようにすることが可能である。 Note that the configuration of the haptic content acquisition unit 11 shown in FIG. 32 can be applied to the content supply device 100 shown in the first embodiment and the second embodiment. For example, the configuration of FIG. 32 is employed as the configuration of the haptic content acquisition unit 11 shown in FIGS. 2A to 2C, the audio content acquisition unit 14 and the audio content supply unit 15 are omitted, and the haptic content supply unit 12 is used instead. It is possible to provide an audio content supply unit.
 あるいは、図25および図26に示した触覚コンテンツ取得部11の構成として図32の構成を採用し、音声コンテンツ取得部14、音声コンテンツ供給部15および音声コンテンツ記録部16を省略するとともに、触覚コンテンツ供給部12に代えて音響コンテンツ供給部を設けるようにすることが可能である。あるいは、図27に示した触覚コンテンツ取得部11の構成として図32の構成を採用し、触覚コンテンツ供給部12に代えて音響コンテンツ供給部を設けるようにすることも可能である。 Alternatively, the configuration of FIG. 32 is adopted as the configuration of the haptic content acquisition unit 11 shown in FIGS. 25 and 26, and the audio content acquisition unit 14, the audio content supply unit 15, and the audio content recording unit 16 are omitted, and the haptic content acquisition unit 11 is omitted. It is possible to provide an audio content supply unit instead of the supply unit 12. Alternatively, the configuration of FIG. 32 may be adopted as the configuration of the haptic content acquisition unit 11 shown in FIG. 27, and an audio content supply unit may be provided instead of the haptic content supply unit 12.
 なお、上記第3の実施形態では、コンテンツ提供サーバ装置300に対してコンテンツ取得装置200を接続する構成を示したが、コンテンツ取得装置200は、コンテンツ提供サーバ装置300からコンテンツを取得して保存するのみならず、取得したコンテンツをコンテンツ利用機器500に供給する機能(例えば、コンテンツ提供サーバ装置300から取得したコンテンツをストリーミング的にコンテンツ利用機器500に供給する機能を含む)を更に備えてもよい。 In the third embodiment, the configuration in which the content obtaining apparatus 200 is connected to the content providing server apparatus 300 has been described. However, the content obtaining apparatus 200 obtains and stores the content from the content providing server apparatus 300. In addition, a function of supplying the acquired content to the content using device 500 (including, for example, a function of supplying the content acquired from the content providing server device 300 to the content using device 500 in a streaming manner) may be further provided.
(第4の実施形態)
 次に、本発明の第4の実施形態について説明する。図33は、第4の実施形態によるコンテンツ供給装置100の機能構成例を示すブロック図である。この図33において、図25に示した構成要素と同一の機能を有する構成要素には同一の符号を付している。なお、ここでは、図25に対する変形例として第4の実施形態を説明するが、音声コンテンツの記憶に関して図25とは異なる形態(図2Aおよび図2Cの形態)を適用することも可能である。また、第4の実施形態は、図26に対する変形例としても適用することが可能である。
(Fourth embodiment)
Next, a fourth embodiment of the present invention will be described. FIG. 33 is a block diagram illustrating a functional configuration example of a content supply device 100 according to the fourth embodiment. 33, components having the same functions as the components shown in FIG. 25 are denoted by the same reference numerals. Here, the fourth embodiment will be described as a modification to FIG. 25, but it is also possible to apply a mode (FIGS. 2A and 2C) different from that of FIG. Further, the fourth embodiment can be applied as a modification example of FIG.
 図33に示すように、第4の実施形態によるコンテンツ供給装置100は、その機能構成として、触覚コンテンツ取得部11、触質モード指定部13A、音声コンテンツ取得部14、音響コンテンツ生成部18、音響コンテンツ供給部19および情報提供部20を備えている。 As shown in FIG. 33, the content supply device 100 according to the fourth embodiment includes, as its functional components, a haptic content acquisition unit 11, a tactile mode designation unit 13A, an audio content acquisition unit 14, an audio content generation unit 18, an audio content generation unit 18, The content providing unit 19 and the information providing unit 20 are provided.
 触覚コンテンツ取得部11の構成としては、第1の実施形態で説明した各種の形態を何れも適用することが可能であるが、特に図14Cまたは図18Cに示す構成を適用するのが好ましい。この場合、触覚コンテンツ取得部11は、触質モード指定部13Aにより指定された触質モードに応じた触覚コンテンツであって、かつ、ユーザにより選択された音声コンテンツに関する触質パラメータに応じた触覚コンテンツを取得することになる。 As the configuration of the haptic content acquisition unit 11, any of the various forms described in the first embodiment can be applied, but it is particularly preferable to apply the configuration shown in FIG. 14C or FIG. 18C. In this case, the haptic content acquisition unit 11 is a haptic content corresponding to the haptic mode specified by the haptic mode specifying unit 13A, and a haptic content corresponding to the haptic parameter relating to the audio content selected by the user. You will get
 ここで、「触質モード指定部13Aにより指定された触質モードに応じた触覚コンテンツ」とは、ユーザにより選択された音声コンテンツの解析結果(触質特徴量)に基づいて指定された触質モードに応じた触覚コンテンツ、または、ユーザ操作により選択された触質モードに応じた触覚コンテンツを意味する。ユーザ操作により選択される触質モードは、音声コンテンツの触質特徴量とは無関係の触質を持った触質モードであることもある。 Here, “the tactile content according to the tactile mode specified by the tactile mode specifying unit 13A” is the tactile specified based on the analysis result (tactile feature amount) of the audio content selected by the user. The tactile content according to the mode or the tactile content according to the tactile mode selected by the user operation. The tactile mode selected by the user operation may be a tactile mode having a tactile property unrelated to the tactile feature value of the audio content.
 また、「ユーザにより選択された音声コンテンツに関する触質パラメータに応じた触覚コンテンツ」とは、ユーザにより選択された音声コンテンツを図14Cまたは図18Cの対象情報取得部1133’から取得した場合に触質パラメータ生成部1134により生成される触質パラメータに基づいて生成される触覚コンテンツを意味する。 The “tactile content according to the tactile parameter related to the audio content selected by the user” means that the tactile content is obtained when the audio content selected by the user is acquired from the target information acquisition unit 1133 ′ in FIG. 14C or 18C. The haptic content generated based on the tactile parameter generated by the parameter generating unit 1134.
 音響コンテンツ生成部18は、図31に示した音響コンテンツ生成部305と同様の機能を有する。すなわち、音響コンテンツ生成部18は、音声コンテンツ取得部14により取得された音声コンテンツと、触覚コンテンツ取得部11により取得された触覚コンテンツとの組み合わせにより音響コンテンツを生成する。例えば、音響コンテンツ生成部18は、音声コンテンツ取得部14により取得された音声コンテンツを第1チャネル情報とし、触覚コンテンツ取得部11により取得された触覚コンテンツを第2チャネル情報とする音響コンテンツを生成する。 The audio content generation unit 18 has the same function as the audio content generation unit 305 shown in FIG. That is, the audio content generation unit 18 generates an audio content by combining the audio content acquired by the audio content acquisition unit 14 and the haptic content acquired by the haptic content acquisition unit 11. For example, the audio content generation unit 18 generates audio content using the audio content acquired by the audio content acquisition unit 14 as first channel information and using the haptic content acquired by the haptic content acquisition unit 11 as second channel information. .
 音響コンテンツ供給部19は、音響コンテンツ取得部18により取得された音響コンテンツをコンテンツ利用機器500に供給する。なお、ここでは音響コンテンツをコンテンツ利用機器500に供給する構成を示しているが、図25と同様に触覚コンテンツ供給部12および音声コンテンツ供給部15を備え、触覚コンテンツと音声コンテンツとを個別にコンテンツ利用機器500に供給するようにしてもよい。 The audio content supply unit 19 supplies the audio content acquired by the audio content acquisition unit 18 to the content use device 500. Here, a configuration for supplying audio content to the content using device 500 is shown, but the haptic content supply unit 12 and the audio content supply unit 15 are provided similarly to FIG. You may make it supply to the use apparatus 500.
 情報提供部20は、触覚コンテンツ取得部11により取得される触覚コンテンツの振動をユーザに呈示した場合に期待される所定の身体的効果または心理的効果の情報をユーザに提供する。ここでいう身体的効果または心理的効果とは、上述した「ユーザにより選択された音声コンテンツに関する触質パラメータに応じた触覚コンテンツ」に起因して生じ得る効果である。 The information providing unit 20 provides the user with information on a predetermined physical effect or psychological effect expected when the vibration of the haptic content acquired by the haptic content acquiring unit 11 is presented to the user. Here, the physical effect or the psychological effect is an effect that can be caused by the “tactile content according to the tactile parameter related to the audio content selected by the user”.
 すなわち、音声コンテンツから生成される触質パラメータは、上述したように触感の一要素を表したものである。この触質パラメータに基づいて触質コンテンツ記憶部1132,1142から読み出される触質コンテンツから生成される触覚コンテンツも、所定の触感を表したものとなっている。そして、上述したように、触質パラメータにより表される触感は、<硬い-柔らかい>とか<粗い-滑らか>のような触質対に基づくものである。このため、例えば「硬い触感を持った振動情報」から成る触覚コンテンツに基づいて振動をユーザに呈示した場合に期待される身体的効果または心理的効果と、「柔らかい触感を持った振動情報」から成る触覚コンテンツに基づいて振動をユーザに呈示した場合に期待される身体的効果または心理的効果とは異なったものとなる。 That is, the tactile parameter generated from the audio content represents one element of the tactile sensation as described above. The tactile content generated from the tactile content read from the tactile content storage units 1132 and 1142 based on the tactile parameter also represents a predetermined tactile sensation. As described above, the tactile sensation represented by the tactile parameter is based on a tactile pair such as <hard-soft> or <rough-smooth>. For this reason, for example, a physical effect or a psychological effect expected when a vibration is presented to a user based on tactile content composed of “vibration information having a hard touch” and “vibration information having a soft touch” When the vibration is presented to the user based on the tactile content, the physical effect or the psychological effect expected is different.
 情報提供部20は、ユーザにより所望の音声コンテンツが選択されたときに(音声コンテンツ読出部141により音声コンテンツが読み出されたとき)、選択された音声コンテンツを触覚コンテンツ取得部11の対象情報取得部1133’が対象情報として入力して触覚コンテンツを生成した場合に当該触覚コンテンツから期待される所定の身体的効果または心理的効果の情報をユーザに提供する。情報の提示方法は任意であるが、コンテンツ供給装置100のディスプレイに情報を表示する形態が一例として考えられる。なお、どの音声コンテンツによってどのような効果が期待されるかについては、事前に行われた試験等の結果に基づいて作成されたテーブル情報を記憶しておき、情報提供部20がこのテーブル情報を参照することによって確認する。 When a desired audio content is selected by the user (when the audio content is read out by the audio content reading unit 141), the information providing unit 20 obtains the selected audio content as target information of the tactile content obtaining unit 11. When the unit 1133 'generates haptic content by inputting the target information, the unit 1133' provides the user with information on a predetermined physical effect or psychological effect expected from the haptic content. The method of presenting information is arbitrary, but a form in which information is displayed on the display of the content supply device 100 is considered as an example. As to what effect is expected by which audio content, table information created based on the results of a test or the like performed in advance is stored, and the information providing unit 20 stores the table information. Confirm by reference.
 図34は、情報提供部20によりコンテンツ供給装置100のディスプレイに提供される情報提供画面の一例を示す図である。図34に示す情報提供画面の例では、ユーザにより選択された音声コンテンツの名称と、触質モード指定部13により指定された触質モードと、ユーザにより選択された音声コンテンツを触覚コンテンツ取得部11が対象情報として利用して触覚コンテンツを生成した場合に期待される身体的効果または心理的効果(振動効果)とを属性情報として表示している。すなわち、ユーザにより選択された音声コンテンツの名称として「ABC」、触質モード指定部13により指定された触質モードとして「ふわふわモード」、ユーザにより選択された音声コンテンツを対象情報として生成される触覚コンテンツの振動効果として「安眠」が表示されている。 FIG. 34 is a diagram illustrating an example of an information providing screen provided by the information providing unit 20 to the display of the content supply device 100. In the example of the information providing screen shown in FIG. 34, the name of the audio content selected by the user, the tactile mode specified by the tactile mode specifying unit 13, and the audio content selected by the user are stored in the tactile content acquisition unit 11. Displays the physical effect or psychological effect (vibration effect) expected when the haptic content is generated using the object information as attribute information. That is, the name of the audio content selected by the user is “ABC”, the tactile mode specified by the tactile mode specifying unit 13 is “fluffy mode”, and the tactile sensation generated by the audio content selected by the user as the target information. “Sleep” is displayed as the content vibration effect.
 図34の例では、ユーザにより選択された音声コンテンツの触質パラメータを解析することによって指定された触質モードが表示されており、「ふわふわ」の触感を有し、かつ、「安眠」の振動効果を有する触覚コンテンツが触覚コンテンツ取得部11により取得されることを示している。これに対し、ユーザが所望の触質モード(例えば、「さらさらモード」)を指定すれば、「さらさら」の触感を有し、かつ、「安眠」の振動効果を有する触覚コンテンツが触覚コンテンツ取得部11により取得される。この場合、図34の情報提供画面における触質モードの表示は「さらさらモード」となる。 In the example of FIG. 34, the tactile mode designated by analyzing the tactile parameter of the audio content selected by the user is displayed, and has a “fluffy” tactile sensation and a “sleep” vibration. This indicates that the haptic content having an effect is acquired by the haptic content acquiring unit 11. On the other hand, if the user designates a desired tactile mode (for example, “smooth mode”), the tactile content having the “smooth” tactile sensation and the “sleeping” vibration effect is output to the tactile content acquisition unit. 11. In this case, the display of the tactile mode on the information provision screen of FIG. 34 is the “smooth mode”.
 このように、第4の実施形態によれば、触覚コンテンツ取得部11により取得される触覚コンテンツからどのような身体的効果または心理的効果が期待されるのかをユーザに提示することができる。また、図34のように触質モードの情報も併せて提示するようにすれば、ユーザは、触覚コンテンツ取得部11により取得される触覚コンテンツどのような触感を持ち、どのような身体的効果または心理的効果が期待されるものであるのかを把握することができる。これにより、ユーザは、所望の触覚コンテンツを取得しやすくなり、ユーザの利便性が向上する。 As described above, according to the fourth embodiment, it is possible to present to the user what physical effect or psychological effect is expected from the haptic content acquired by the haptic content acquiring unit 11. In addition, if the information on the tactile mode is also presented as shown in FIG. 34, the user has what tactile sensation acquired by the haptic content acquisition unit 11 and what physical effect or It is possible to grasp whether a psychological effect is expected. This makes it easier for the user to obtain the desired tactile content, thereby improving user convenience.
 なお、上記第4の実施形態では、情報提供部20をコンテンツ供給装置100が有する構成として説明したが、コンテンツ取得装置200が有する構成であってもよい。 In the fourth embodiment, the information providing unit 20 has been described as being included in the content supply device 100. However, the information providing unit 20 may be included in the content acquisition device 200.
 なお、上記第1~第4の実施形態では、n=2とし、2個の触質パラメータとして、情報の強度に関する第1の触質パラメータと、情報の分割区間の長さに関する第2の触質パラメータとを生成する例について説明したが、nは3以上であってもよい。なお、n≧3とする場合、図15のような2次元状のマトリクス空間ではなく、3階層以上のn次元階層空間として、n個の触質パラメータの組み合わせに対応する触質コンテンツをそれぞれ記憶することになる。 In the first to fourth embodiments, n = 2 and the two tactile parameters are the first tactile parameter relating to the intensity of the information and the second tactile parameter relating to the length of the divided section of the information. Although the example of generating the quality parameter has been described, n may be 3 or more. When n ≧ 3, the tactile content corresponding to the combination of n tactile parameters is stored as an n-dimensional hierarchical space of three or more layers instead of the two-dimensional matrix space as shown in FIG. Will do.
 また、上記記第1~第4の実施形態では、情報の強度に関する第1の触質パラメータと、情報の分割区間の長さに関する第2の触質パラメータとの両方を生成する例について説明したが、何れか一方のみとしてもよい。 Further, in the first to fourth embodiments, examples have been described in which both the first tactile parameter relating to the intensity of the information and the second tactile parameter relating to the length of the divided section of the information are generated. However, only one of them may be used.
 すなわち、触質パラメータ生成部1134は、対象情報取得部1133により取得された対象情報を複数に分割し、それぞれの分割区間から、情報の強度に関する第1の触質パラメータおよび分割区間の長さに関する第2の触質パラメータの少なくとも一方を用いて、n個(n≧2)の触質パラメータの組み合わせを生成することが可能である。 That is, the tactile parameter generation unit 1134 divides the target information acquired by the target information acquiring unit 1133 into a plurality of pieces, and from each of the divided sections, relates to the first tactile parameter relating to the intensity of the information and the length of the divided section. Using at least one of the second tactile parameters, it is possible to generate n (n ≧ 2) tactile parameter combinations.
 例えば、n=3とする場合、第1の触質パラメータを1個または2個生成するとともに、第2の触質パラメータを2個または1個生成するといったことが可能である。あるいは、第1の触質パラメータとして異なるものを3個生成するようにしてもよいし、第2の触質パラメータとして異なるものを3個生成するようにしてもよい。 For example, when n = 3, it is possible to generate one or two first tactile parameters and generate two or one second tactile parameter. Alternatively, three different tactile parameters may be generated, or three different tactile parameters may be generated.
 情報の強度に関する第1の触質パラメータだけでn個の触質パラメータを生成する場合、例えば、対象情報取得部1133によりn種の対象情報を入力するようにする。そして、触質パラメータ生成部1134は、入力されたn種の対象情報をそれぞれ複数に分割し、n種の対象情報のそれぞれの分割区間から、第1の触質パラメータを1個ずつ特定することにより、n個の第1の触質パラメータの組み合わせを生成する。 場合 When generating n tactile parameters using only the first tactile parameter relating to the intensity of information, for example, the target information acquisition unit 1133 inputs n types of target information. Then, the tactile parameter generation unit 1134 divides the input n types of target information into a plurality of pieces, and specifies the first tactile parameters one by one from each of the divided sections of the n types of target information. Generates a combination of n first tactile parameters.
 一例として、対象情報取得部1133が、対象情報として、心拍、加速度(身体の動き)、血流量の3種の情報に関して以下のようなデジタル値を入力したとする。
心拍 :79,60,79,75,74,79,75
加速度:40,10,30,40,35,40,20
血流量:80,60,40,60,80,60,80
As an example, it is assumed that the target information acquisition unit 1133 has input the following digital values for the three types of information of heart rate, acceleration (body movement), and blood flow as target information.
Heart rate: 79, 60, 79, 75, 74, 79, 75
Acceleration: 40, 10, 30, 40, 35, 40, 20
Blood flow: 80, 60, 40, 60, 80, 60, 80
 この場合、触質パラメータ生成部1134は、入力された3種の対象情報をそれぞれ入力値ごとに分割し、3種の対象情報のそれぞれの分割区間から、第1の触質パラメータを特定することにより、3個の第1の触質パラメータの組み合わせを以下のように生成する。
{79,40,80},{60,10,60},{79,30,40},・・・
In this case, the tactile parameter generation unit 1134 divides each of the three types of input target information for each input value, and specifies the first tactile parameter from each divided section of the three types of target information. Thus, a combination of three first tactile parameters is generated as follows.
{79,40,80}, {60,10,60}, {79,30,40}, ...
 この場合、触質コンテンツ読出部1131,1141は、このように生成された第1の触質パラメータの組み合わせを指定して、{79,40,80}の組み合わせに対応する触質コンテンツ、{60,10,60}の組み合わせに対応する触質コンテンツ、{79,30,40}の組み合わせに対応する触質コンテンツ、・・・を触質コンテンツ記憶部1132,1142から読み出す。 In this case, the tactile content reading units 1131 and 1141 specify the combination of the first tactile parameters generated in this manner, and specify the tactile content corresponding to the combination of {79, 40, 80}, and {60} , 10, 60}, the tactile content corresponding to the combination of {79, 30, 40},... Are read from the tactile content storage units 1132, 1142.
 また、情報の分割区間の長さに関する第2の触質パラメータだけでn個の触質パラメータを生成する場合も、例えば、対象情報取得部1133によりn種の対象情報を取得するようにする。そして、触質パラメータ生成部1134は、取得されたn種の対象情報をそれぞれ複数に分割し、n種の対象情報のそれぞれの分割区間から、第2の触質パラメータを1個ずつ特定することにより、n個の第2の触質パラメータの組み合わせを生成する。 Also, in a case where n tactile parameters are generated using only the second tactile parameter relating to the length of the information division section, for example, the target information acquisition unit 1133 acquires n types of target information. Then, the tactile parameter generation unit 1134 divides each of the obtained n types of target information into a plurality of pieces, and specifies the second tactile parameter one by one from each divided section of the n types of target information. Generates a combination of n second tactile parameters.
 一例として、対象情報取得部1133が、心拍、加速度、血流量の3種の情報に関して、上記と同様のデジタル値を入力したとする。この場合、触質パラメータ生成部1134は、例えば、同じ値が入力されるまでを単位として3種の対象情報をそれぞれ分割し、3種の対象情報のそれぞれの分割区間から、第2の触質パラメータを特定することにより、3個の第2の触質パラメータの組み合わせを生成する。 と し て As an example, it is assumed that the target information acquisition unit 1133 has input the same digital value as the above with respect to three types of information of heart rate, acceleration, and blood flow. In this case, for example, the tactile parameter generation unit 1134 divides each of the three types of target information into units until the same value is input, and divides each of the three types of target information into the second tactile information. By specifying the parameters, a combination of three second tactile parameters is generated.
 上記の例の場合、心拍に関して、最初の“79”と同じ値が次に現れるのは2つ後、その次に同じ値が現れるのは更に3つ後なので、分割区間の長さは2,3となる。加速度に関して、最初の“40” と同じ値が次に現れるのは3つ後、その次に同じ値が現れるのは更に2つ後なので、分割区間の長さは3,2となる。血流量に関して、最初の“80”と同じ値が次に現れるのは4つ後、その次に同じ値が現れるのは更に2つ後なので、分割区間の長さは4,2となる。 In the case of the above example, regarding the heartbeat, since the same value as the first "79" appears next two times, and the next same value appears three more times later, the length of the divided section is 2, It becomes 3. Regarding the acceleration, the value of the first “40” appears next three times, and the same value appears next two times later, so that the length of the divided section is 3,2. Regarding the blood flow, the same value as the first “80” appears next four times, and the next same value appears two more times later, so the length of the divided section is 4,2.
 この場合、触質パラメータ生成部1134は、第2の触質パラメータの組み合わせを{2,3,4},{3,2,2}のように生成する。また、触質コンテンツ読出部1131,1141は、このように生成された第2の触質パラメータの組み合わせを指定して、{2,3,4}の組み合わせに対応する触質コンテンツ、{3,2,2}の組み合わせに対応する触質コンテンツを触覚コンテンツ記憶部1132,1142から読み出す。 {In this case, the tactile parameter generation unit 1134 generates a combination of the second tactile parameters as {2, 3, 4}, {3, 2, 2}. Also, the tactile content reading units 1131 and 1141 specify the combination of the second tactile parameters generated in this way, and specify the tactile content corresponding to the combination of {2, 3, 4}, {3, The tactile content corresponding to the combination of 2,2} is read from the tactile content storage units 1132 and 1142.
 なお、ここでは、複数種類の対象情報としてデジタル値を入力する例について説明したが、アナログ信号を入力するようにしてもよいことは言うまでもない。この場合、強度に関する触質パラメータおよび分割区間の長さに関する触質パラメータの生成法は、上記実施形態で説明した方法を適用することが可能である。 Here, an example in which digital values are input as a plurality of types of target information has been described, but it goes without saying that analog signals may be input. In this case, the method described in the above embodiment can be applied to a method for generating the tactile parameter relating to the strength and the tactile parameter relating to the length of the divided section.
 また、ここでは、強度に関する触質パラメータ、あるいは分割区間の長さに関する触質パラメータの何れか一方のみを、複数種類の対象情報から生成する例について説明したが、1種類の対象情報から生成するようにしてもよい。例えば、上記実施形態と同様にして1種類の対象情報を複数の区間に分割し、それぞれの分割区間から、強度に関する触質パラメータを複数生成するようにしてもよい(例えば、強度の最大値と最小値をそれぞれ触質パラメータとするなど)。また、1種類の対象情報を複数の区間に分割する際に、異なる方法に従って複数の区間に分割し、それぞれの方法で分割した分割区間の長さを触質パラメータとするようにしてもよい。 Further, here, an example has been described in which only one of the tactile parameter relating to the intensity and the tactile parameter relating to the length of the divided section is generated from a plurality of types of target information, but is generated from one type of target information. You may do so. For example, in the same manner as in the above embodiment, one type of target information may be divided into a plurality of sections, and a plurality of tactile parameters relating to strength may be generated from each of the divided sections (for example, the maximum value of strength and the tactile parameter). The minimum value is used as the tactile parameter.) When one type of target information is divided into a plurality of sections, the target information may be divided into a plurality of sections according to different methods, and the length of the divided section divided by each method may be used as the tactile parameter.
 また、ここでは、複数種類の対象情報から、強度に関する触質パラメータだけ、あるいは分割区間の長さに関する触質パラメータだけを生成する例について説明したが、本発明はこれに限定されない。例えば、複数種類の対象情報から、強度に関する触質パラメータおよび分割区間の長さに関する触質パラメータの両方を組み合わせて生成するようにしてもよい。 Also, here, an example has been described in which only the tactile parameter relating to the strength or only the tactile parameter relating to the length of the divided section is generated from a plurality of types of target information, but the present invention is not limited to this. For example, from a plurality of types of target information, both the tactile parameter relating to the intensity and the tactile parameter relating to the length of the divided section may be combined and generated.
 また、上記実施形態では、触質パラメータの差分値を計算することによって触質差分パラメータを生成する例について説明したが、さらに、この触質差分パラメータの差分値を計算するようにしてもよい。すなわち、触質差分パラメータは、触質パラメータの1階差分情報であってもよいし、m階(m≧2)差分情報であってもよい。 In the above embodiment, the example in which the tactile difference parameter is generated by calculating the tactile parameter difference value has been described. However, the tactile difference parameter difference value may be calculated. That is, the tactile difference parameter may be first-order difference information of the tactile parameter or m-th (m ≧ 2) difference information.
 また、上記実施形態では、複数の分割区間ごとにn個の四則演算値(hi/tiの値)を算出し、同じ四則演算値が出現する区間の長さを第1の触質特徴量P1として算出する例について説明したが、本発明はこれに限定されない。例えば、それぞれの分割区間ごとにn個の触質パラメータを用いた四則演算値を算出し、当該分割区間ごとに算出した複数の四則演算値のm階差分値(m≧1)の平均値または代表値(最大値、最小値または中央値など)を第1の触質特徴量P1としてもよい。具体例として、それぞれの分割区間ごとにn個の四則演算値(hi/tiの値)を算出し、当該分割区間ごとに算出した複数の四則演算値の1階差分値{(h2/t2-h1/t1),(h3/t3-h2/t2),・・・}の平均値を第1の触質特徴量P1とすることが考えられる。 Further, in the above embodiment, n arithmetic operation values (values of hi / ti) are calculated for each of the plurality of divided sections, and the length of the section where the same arithmetic operation value appears is determined by the first tactile feature amount P1. Has been described, but the present invention is not limited to this. For example, four arithmetic operations using n tactile parameters are calculated for each of the divided sections, and an average value of m-order difference values (m ≧ 1) of the four arithmetic operations calculated for each of the divided sections or A representative value (such as a maximum value, a minimum value, or a median value) may be used as the first tactile feature amount P1. As a specific example, n four arithmetic operation values (hi / ti values) are calculated for each of the divided sections, and the first-order difference value の (h2 / t2- (h1 / t1), (h3 / t3-h2 / t2),...} may be used as the first tactile feature amount P1.
 また、上記実施形態では、複数の分割区間ごとに算出した複数の四則演算値(hi/tiの値)の分散を多様度(第2の触質特徴量P2)の一例として算出する例について説明したが、本発明はこれに限定されない。例えば、分割区間ごとに算出した複数の四則演算値の最小値から最大値までのレンジ、または当該レンジと中央値との組を第2の触質特徴量P2として算出するようにしてもよい。あるいは、分割区間ごとに算出した複数の四則演算値の情報量を第2の触質特徴量P2として算出するようにしてもよい。ここで、情報量の一例としては、次式により算出されるエントロピーH(シャノンの平均情報量)とすることが可能である。ここでp(ei)は、各四則演算値の生起確率を示す。
  H=-Σp(ei)log2p(ei) (i=1~n)
Further, in the above-described embodiment, an example will be described in which the variance of a plurality of four arithmetic operation values (hi / ti values) calculated for each of a plurality of divided sections is calculated as an example of the diversity (second tactile feature amount P2). However, the present invention is not limited to this. For example, a range from a minimum value to a maximum value of a plurality of four arithmetic operation values calculated for each divided section, or a set of the range and a median value may be calculated as the second tactile feature amount P2. Alternatively, the information amount of a plurality of four arithmetic operation values calculated for each divided section may be calculated as the second tactile feature amount P2. Here, an example of the information amount can be entropy H (the average information amount of Shannon) calculated by the following equation. Here, p (e i ) indicates the occurrence probability of each of the four arithmetic operations.
H = −Σp (e i ) log 2 p (e i ) (i = 1 to n)
 例えば、複数の分割区間ごとに算出した複数の四則演算値(hi/tiの値)が以下の通りであったとする。
  20,18,1,9,11,1,1,1,38,38,1,16
この場合、分散は191.8、レンジは37、中央値は16、エントロピーは0.48となる。触質特徴量算出部132は、このように算出される分散、レンジと中央値との組、またはエントロピーを、四則演算値の多様度を表す第2の触質特徴量P2として用いることが可能である。
For example, it is assumed that a plurality of four arithmetic operation values (hi / ti values) calculated for a plurality of divided sections are as follows.
20,18,1,9,11,1,1,1,38,38,1,16
In this case, the variance is 191.8, the range is 37, the median is 16, and the entropy is 0.48. The tactile feature value calculation unit 132 can use the variance, the set of the range and the median, or the entropy calculated in this way as the second tactile feature value P2 representing the diversity of the four arithmetic operations. It is.
 なお、レンジと中央値との組を第2の触質特徴量P2として用いる場合、第2の触質特徴量P2として2つの値が存在することになる。第1の触質特徴量P1を合わせると、3つの値が存在することになる。この場合は、3つの触質特徴量に基づいて触質モードを指定するようにしてよい。あるいは、レンジと中央値とを用いて四則演算を行うことによって第2の触質特徴量P2を1つの値に置換するようにしてもよい。 用 い る When a pair of a range and a median is used as the second tactile feature value P2, there are two values as the second tactile feature value P2. When the first tactile feature amount P1 is combined, there are three values. In this case, the tactile mode may be specified based on the three tactile feature amounts. Alternatively, the second tactile feature value P2 may be replaced with one value by performing four arithmetic operations using the range and the median value.
 また、上記実施形態では、四則演算値の多様度を第2の触質特徴量として算出する例について説明したが、本発明はこれに限定されない。例えば、触質特徴量算出部13は、分割区間ごとに算出した複数の四則演算値のm階差分値(m≧1)を更に算出し、上述した四則演算値に代えてm階差分値を用いるようにしてもよい。すなわち、同じm階差分値が出現する区間の長さを第1の触質特徴量P1として算出するとともに、m階差分値の多様度を第2の触質特徴量P2として算出するようにしてもよい。 Also, in the above-described embodiment, an example has been described in which the diversity of the four arithmetic operation values is calculated as the second tactile feature value, but the present invention is not limited to this. For example, the tactile feature value calculation unit 13 further calculates an m-th difference value (m ≧ 1) of a plurality of four arithmetic operations calculated for each divided section, and substitutes the m-th difference value for the above-described four arithmetic operations. It may be used. That is, the length of the section where the same m-th difference value appears is calculated as the first tactile feature value P1, and the diversity of the m-th difference value is calculated as the second tactile feature value P2. Is also good.
 例えば、複数の分割区間ごとに算出した複数の四則演算値(hi/tiの値)が以下の通りであったとする。
  20,18,1,9,11,1,1,1,38,38,1,16
この場合、1階差分値(m=1)の絶対値は以下の通りとなる。
  2,17,8,2,10,0,0,37,0,37,15
また、2階差分値(m=2)の絶対値は以下の通りとなる。
  15,9,6,8,10,0,37,37,37,22
触質特徴量算出部132は、このように算出される複数のm階差分値の多様度を第2の触質特徴量P2として用いてもよい。m階差分値の多様度を第2の触質特徴量P2として算出する場合も、多様度として、複数のm階差分値の分散、レンジ、レンジと中央値との組、またはエントロピーを用いることが可能である。
For example, it is assumed that a plurality of four arithmetic operation values (hi / ti values) calculated for a plurality of divided sections are as follows.
20,18,1,9,11,1,1,1,38,38,1,16
In this case, the absolute value of the first-order difference value (m = 1) is as follows.
2,17,8,2,10,0,0,37,0,37,15
The absolute value of the second-order difference value (m = 2) is as follows.
15,9,6,8,10,0,37,37,37,22
The tactile feature value calculation unit 132 may use the diversity of the plurality of m-th order difference values calculated in this way as the second tactile feature value P2. Also in the case where the diversity of the m-th order difference value is calculated as the second tactile feature value P2, the variance, the range, the set of the range and the median, or the entropy of the plurality of m-th order differences are used as the diversity. Is possible.
 このように、m階差分値を用いるのは、触質パラメータの四則演算値の変化の仕方が触質に影響するからである。例えば、m階差分値に大きな値が含まれる場合は、触質に大きな変化があり、触質は硬くなることを意味する。一方、m階差分値に小さな値が含まれる場合は、触質に小さな変化があり、触質は柔らかくなることを意味する。 The reason why the m-th order difference value is used is that the manner of changing the four arithmetic operations of the tactile parameter affects the tactile characteristic. For example, when a large value is included in the mth-order difference value, it means that there is a large change in the texture and the texture becomes hard. On the other hand, when a small value is included in the m-th order difference value, it means that there is a small change in the texture, and the texture becomes soft.
 また、上記実施形態では、2種類の触質特徴量の組み合わせを算出する例について説明したが、3種類以上の触質特徴量の組み合わせを算出するようにしてもよい。3種類目の触質特徴量としては、例えば、分割区間の長さの平均値(最小値または最大値であってもよい)を用いることが可能である。この分割区間の長さの平均値等は、対象情報が潜在的に持っている触感のテンポを表していると言える。 In the above-described embodiment, an example has been described in which a combination of two types of tactile feature amounts is calculated. However, a combination of three or more types of tactile feature amounts may be calculated. As the third type of tactile feature quantity, for example, it is possible to use an average value (which may be a minimum value or a maximum value) of the lengths of the divided sections. It can be said that the average value or the like of the lengths of the divided sections indicates the tempo of the tactile sensation that the target information has potentially.
 または、触質特徴量算出部132は、上述したように、分割区間ごとに算出した複数の四則演算値のm階差分値(m≧1)を更に算出し、m階差分値の多様度を第3の触質特徴量として更に算出するようにしてもよい。すなわち、同じ四則演算値が出現する区間の長さを第1の触質特徴量とし、四則演算値の多様度を第2の触質特徴量とし、m階差分値の多様度を第3の触質特徴量として用いるようにしてもよい。m階差分値の多様度を第3の触質特徴量として算出する場合も、多様度として、複数のm階差分値の分散、レンジ、レンジと中央値との組、またはエントロピーを用いることが可能である。 Alternatively, as described above, the tactile feature value calculation unit 132 further calculates the m-th difference value (m ≧ 1) of the plurality of four arithmetic operations calculated for each divided section, and calculates the diversity of the m-th difference value. The third tactile feature quantity may be further calculated. That is, the length of the section where the same four arithmetic operation values appear is defined as the first tactile feature amount, the diversity of the four arithmetic operation values is defined as the second tactile feature amount, and the diversity of the m-th order difference value is defined as the third tactile feature amount. It may be used as a tactile feature value. Also in the case where the diversity of the m-th order difference value is calculated as the third tactile feature value, the variance, range, set of range and median, or entropy of the plurality of m-th order difference values may be used as the diversity. It is possible.
 例えば、ある2つの対象情報1,2について複数の分割区間ごとに算出した複数の四則演算値(hi/tiの値)が、それぞれ以下の通りであったとする。
  対象情報1):1,2,100,1,2,100
  対象情報2):1,2,3,1,2,3
この場合、同じ四則演算値が出現するまでの区間数を第1の触質特徴量P1、四則演算値のエントロピーを第2の触質特徴量P2とすると、対象情報1,2の何れもP1=3、P2=log23(=-3×(1/3)log2 (1/3))となる。
For example, it is assumed that a plurality of four arithmetic operation values (values of hi / ti) calculated for each of a plurality of target sections 1 and 2 for each of a plurality of divided sections are as follows.
Target information 1): 1, 2, 100, 1, 2, 100
Target information 2): 1, 2, 3, 1, 2, 3
In this case, assuming that the number of sections until the same four arithmetic operation values appear is the first tactile feature amount P1, and the entropy of the four arithmetic operation values is the second tactile feature amount P2, both target information 1 and 2 are P1 = 3, P2 = log 2 3 (= −3 × (1/3) log 2 (1/3)).
 これに対して、四則演算値の1階差分値を更に算出し、当該1階差分値のレンジを第3の触質特徴量P3として算出すると、対象情報1,2における第3の触質特徴量P3はそれぞれ以下のようになる。
  対象情報1):P3=98
   (1階階差分値の絶対値:1,98,99,1,98)
  対象情報2:P3=1
   (1階階差分値の絶対値:1,1,2,1,1)
On the other hand, when the first-order difference value of the four arithmetic operations is further calculated and the range of the first-order difference value is calculated as the third tactile feature amount P3, the third tactile feature in the target information 1 and 2 is obtained. The quantities P3 are respectively as follows.
Target information 1): P3 = 98
(Absolute value of first floor difference value: 1,98,99,1,98)
Target information 2: P3 = 1
(Absolute value of first-order difference value: 1, 1, 2, 1, 1)
 このように、第1の触質特徴量P1および第2の触質特徴量P2が共に同じ値となる対象情報どうしであっても、第3の触質特徴量P3を加えることによって、触質特徴量に差を出すことが可能となる。 As described above, even if the first tactile feature value P1 and the second tactile feature value P2 are both target information having the same value, by adding the third tactile feature value P3, the tactile feature is added. It is possible to make a difference in the feature amount.
 また、上記実施形態では、触質特徴量算出部132は、それぞれの分割区間ごとにn個の触質パラメータを用いた四則演算値を算出し、この四則演算値を用いて触質特徴量を算出する例について説明したが、本発明はこれに限定されない。例えば、触質特徴量算出部132は、第1の触質パラメータと第2の触質パラメータとの組み合わせで同じものが現れる区間の長さを第1の触質特徴量として算出するとともに、第1の触質パラメータと第2の触質パラメータとの組み合わせの多様度を第2の触質特徴量として算出するようにしてもよい。 Further, in the above-described embodiment, the tactile feature amount calculation unit 132 calculates four arithmetic operations using n tactile parameters for each divided section, and calculates the tactile feature using the four arithmetic operations. Although an example of calculation has been described, the present invention is not limited to this. For example, the tactile feature amount calculation unit 132 calculates, as the first tactile feature amount, the length of a section where the same one appears in the combination of the first tactile parameter and the second tactile parameter. The diversity of the combination of the first tactile parameter and the second tactile parameter may be calculated as the second tactile feature amount.
 また、以上に述べた触質特徴量に関する種々の変形例は、図3(a)のように、触質特徴量算出部132が、触質パラメータ生成部131により生成された2組以上の触質パラメータに基づいて触質特徴量を算出する場合に適用される。これに対し、図3(b)のように、触質特徴量算出部132’が、触質差分パラメータ生成部134により生成された2組以上の触質差分パラメータに基づいて触質特徴量を算出する場合にも同様に上記種々の変形例を適用することが可能である。 3A, the tactile feature amount calculation unit 132 determines whether the tactile feature amount calculation unit 132 generates two or more sets of tactile characteristics generated by the tactile parameter generation unit 131. This is applied when the tactile feature amount is calculated based on the quality parameter. On the other hand, as shown in FIG. 3B, the tactile feature amount calculation unit 132 ′ calculates a tactile feature amount based on two or more sets of tactile difference parameters generated by the tactile difference parameter generation unit 134. The above-described various modified examples can be similarly applied to the calculation.
 その他、上記第1~第4の実施形態は、何れも本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその要旨、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。 In addition, each of the first to fourth embodiments described above is merely an example of a specific embodiment for carrying out the present invention, and the technical scope of the present invention should not be interpreted in a limited manner. It must not be. That is, the present invention can be implemented in various forms without departing from the gist or the main features thereof.
 11 触覚コンテンツ取得部
 12 触覚コンテンツ供給部
 13,13A,13B 触質モード指定部
 14 音声コンテンツ取得部
 15 音声コンテンツ供給部
 17 触覚コンテンツ記録部
 17’ 触質コンテンツ記録部
 18 音響コンテンツ生成部
 19 音響コンテンツ供給部
 20 情報提供部
 100 コンテンツ供給装置
 131 触質パラメータ生成部
 132,132’ 触質特徴量算出部
 133 モード指定部
 134 触質差分パラメータ生成部
 200 コンテンツ取得装置
 201 触覚コンテンツ受信部
 202 触覚コンテンツ保存部
 203 音声コンテンツ受信部
 204 音声コンテンツ保存部
 205 指示送信部
 206 音声コンテンツ送信部
 207 音声コンテンツ記憶部
 208 音響コンテンツ受信部
 209 音響コンテンツ保存部
 300 コンテンツ提供サーバ装置
 301 触覚コンテンツ送信部
 302 音声コンテンツ送信部
 303 指示受信部
 304 音声コンテンツ受信部
 305 音声コンテンツ送信部
 306 音響コンテンツ生成部
 307 音響コンテンツ供給部
 1111,1111’ 触覚コンテンツ読出部
 1112,1112’ 触覚コンテンツ記憶部
 1121,1121’ 触覚コンテンツ読出部
 1122,1122’ 触覚コンテンツ記憶部
 1123 振動波形加工部
 1133,1133’ 対象情報取得部
 1134 触質パラメータ生成部
 1131,1141 触覚コンテンツ読出部
 1132,1142 触覚コンテンツ記憶部
 1145 繰り返し抽出部
 
DESCRIPTION OF SYMBOLS 11 Tactile content acquisition part 12 Tactile content supply part 13, 13A, 13B Tactile mode designation part 14 Audio content acquisition part 15 Audio content supply part 17 Tactile content recording part 17 'Tactile content recording part 18 Audio content generation part 19 Audio content Supply unit 20 Information providing unit 100 Content supply device 131 Tactile parameter generation unit 132, 132 'Tactile feature amount calculation unit 133 Mode designation unit 134 Tactile difference parameter generation unit 200 Content acquisition device 201 Tactile content reception unit 202 Tactile content storage Unit 203 audio content reception unit 204 audio content storage unit 205 instruction transmission unit 206 audio content transmission unit 207 audio content storage unit 208 audio content reception unit 209 audio content storage unit 300 content Server providing device 301 haptic content transmitting unit 302 audio content transmitting unit 303 instruction receiving unit 304 audio content receiving unit 305 audio content transmitting unit 306 audio content generating unit 307 audio content supplying unit 1111, 1111 ′ haptic content reading unit 1112, 1112 ′ Tactile content storage unit 1121, 1121 'Tactile content reading unit 1122, 1122' Tactile content storage unit 1123 Vibration waveform processing unit 1133, 1133 'Target information acquisition unit 1134 Tactile parameter generation unit 1131, 1141 Tactile content reading unit 1132, 1142 Tactile Content storage unit 1145 Iterative extraction unit

Claims (48)

  1.  触覚に関する感覚の性質が異なる複数の触質モードのうち何れかを指定する触質モード指定部と、
     触覚に関する所定の感覚をユーザにイメージさせるように生成された振動情報である触覚コンテンツであって、上記触質モード指定部により指定された上記触質モードに応じた触覚コンテンツを取得する触覚コンテンツ取得部と、
     上記触覚コンテンツ取得部により取得された上記触覚コンテンツをコンテンツ利用機器に供給する触覚コンテンツ供給部とを備えたことを特徴とするコンテンツ供給装置。
    A tactile mode designating unit that designates one of a plurality of tactile modes having different sensational sensation properties;
    Tactile content acquisition that is tactile content that is vibration information generated so as to cause a user to image a predetermined tactile sensation, and that acquires tactile content according to the tactile mode specified by the tactile mode specifying unit. Department and
    A haptic content supply unit for supplying the haptic content acquired by the haptic content acquisition unit to a content utilization device.
  2.  上記ユーザからの音声コンテンツの選択に係る指示に応じて、上記音声コンテンツを取得する音声コンテンツ取得部とを更に備え、
     上記触質モード指定部は、上記音声コンテンツ取得部により取得された上記音声コンテンツの解析結果に応じた上記触質モードを指定するように構成したことを特徴とする請求項1に記載のコンテンツ供給装置。
    An audio content acquisition unit that acquires the audio content in response to an instruction related to selection of audio content from the user,
    2. The content supply according to claim 1, wherein the tactile mode designating unit is configured to designate the tactile mode according to an analysis result of the audio content acquired by the audio content acquiring unit. 3. apparatus.
  3.  上記触質モード指定部は、
     上記音声コンテンツ取得部により取得された上記音声コンテンツの波形情報から、それぞれが触感の一要素を表したn個(n≧2)の触質パラメータの組み合わせを生成する触質パラメータ生成部と、
     上記触質パラメータ生成部により生成された触質パラメータに基づいて、上記音声コンテンツの波形情報に関する触質特徴量を算出する触質特徴量算出部と、
     上記触質特徴量算出部により算出された上記触質特徴量に応じた上記触質モードを指定するモード指定部と備えたことを特徴とする請求項2に記載のコンテンツ供給装置。
    The tactile mode designating section,
    A tactile parameter generation unit configured to generate a combination of n (n ≧ 2) tactile parameters each representing one element of a tactile sensation from the waveform information of the audio content acquired by the audio content acquisition unit;
    Based on the tactile parameters generated by the tactile parameter generation unit, a tactile feature amount calculation unit that calculates a tactile feature amount related to the waveform information of the audio content,
    The content supply device according to claim 2, further comprising: a mode designation unit that designates the tactile mode according to the tactile feature amount calculated by the tactile feature amount calculation unit.
  4.  上記触質モード指定部は、
     上記音声コンテンツ取得部により取得された上記音声コンテンツの波形情報から、それぞれが触感の一要素を表したn個(n≧2)の触質パラメータの組み合わせを生成する触質パラメータ生成部と、
     上記触質パラメータ生成部により生成された触質パラメータの組み合わせについて、2つの組間で上記触質パラメータの差分値をそれぞれ計算することにより、n個の触質差分パラメータの組み合わせを生成する触質差分パラメータ生成部と、
     上記触質差分パラメータ生成部により生成された触質差分パラメータに基づいて、上記音声コンテンツの波形情報に関する触質特徴量を算出する触質特徴量算出部と、
     上記触質特徴量算出部により算出された上記触質特徴量に応じた上記触質モードを指定するモード指定部と備えたことを特徴とする請求項2に記載のコンテンツ供給装置。
    The tactile mode designating section,
    A tactile parameter generation unit configured to generate a combination of n (n ≧ 2) tactile parameters each representing one element of a tactile sensation from the waveform information of the audio content acquired by the audio content acquisition unit;
    For the combination of tactile parameters generated by the tactile parameter generation unit, a difference value of the tactile parameters is calculated between the two sets, thereby generating a combination of n tactile difference parameters. A difference parameter generator,
    Based on the tactile difference parameter generated by the tactile difference parameter generation unit, a tactile feature amount calculation unit that calculates a tactile feature amount related to the waveform information of the audio content,
    The content supply device according to claim 2, further comprising: a mode designation unit that designates the tactile mode according to the tactile feature amount calculated by the tactile feature amount calculation unit.
  5.  上記触質モード指定部は、
     音声コンテンツ記憶部に記憶されている音声コンテンツと、当該記憶されている音声コンテンツの解析によって得られる上記触質特徴量に基づき特定される触質モードとの対応関係を示す対応情報を記憶し、
     上記音声コンテンツ取得部により取得された上記音声コンテンツに対応する触質モードを上記対応情報から取得して指定することを特徴とする請求項3または4に記載のコンテンツ供給装置。
    The tactile mode designating section,
    Audio content stored in the audio content storage unit, storing the corresponding information indicating the corresponding relationship between the tactile mode specified based on the tactile feature amount obtained by analysis of the stored audio content,
    The content supply device according to claim 3, wherein a tactile mode corresponding to the audio content acquired by the audio content acquisition unit is designated by acquiring from the correspondence information.
  6.  上記触覚コンテンツ取得部は、上記触質モード指定部により指定された上記触質モードに応じた触覚コンテンツを、複数の触質モードにそれぞれ対応した複数の触覚コンテンツを記憶する触覚コンテンツ記憶部から読み出す触覚コンテンツ読出部により構成されることを特徴とする請求項2に記載のコンテンツ供給装置。 The haptic content acquisition unit reads a haptic content corresponding to the haptic mode specified by the haptic mode specifying unit from a haptic content storage unit that stores a plurality of haptic contents respectively corresponding to the plurality of haptic modes. 3. The content supply device according to claim 2, comprising a tactile content reading unit.
  7.  上記触覚コンテンツ取得部は、
     上記触覚コンテンツを触覚コンテンツ記憶部から読み出す触覚コンテンツ読出部と、
     上記触覚コンテンツ読出部により読み出された触覚コンテンツの振動情報に対する重み情報であって、上記触質モード指定部により指定された上記触質モードに応じた重み情報を生成し、生成した重み情報によって上記触覚コンテンツの振動情報を加工する振動波形加工部とを備えたことを特徴とする請求項2に記載のコンテンツ供給装置。
    The haptic content acquisition unit includes:
    A haptic content reading unit that reads the haptic content from the haptic content storage unit;
    Weight information for the vibration information of the haptic content read by the haptic content reading unit is generated, and weight information corresponding to the tactile mode specified by the tactile mode specifying unit is generated. The content supply device according to claim 2, further comprising: a vibration waveform processing unit configured to process vibration information of the haptic content.
  8.  上記触覚コンテンツ記憶部は、複数の触質モードにそれぞれ対応した複数の触覚コンテンツを記憶し、
     上記触覚コンテンツ読出部は、上記触質モード指定部により指定された上記触質モードに応じた触覚コンテンツを上記触覚コンテンツ記憶部から読み出すことを特徴とする請求項7に記載のコンテンツ供給装置。
    The haptic content storage unit stores a plurality of haptic contents respectively corresponding to a plurality of haptic modes,
    The content supply device according to claim 7, wherein the haptic content reading unit reads haptic content corresponding to the tactile mode specified by the tactile mode specifying unit from the haptic content storage unit.
  9.  上記触覚コンテンツ取得部は、
     上記触覚コンテンツの生成元とする対象情報を取得する対象情報取得部と、
     上記対象情報取得部により取得された対象情報から、それぞれが触感の一要素を表したn個(n≧2)の触質パラメータの組み合わせを生成する触質パラメータ生成部と、
     上記n個の触質パラメータにより特定される固有の触覚効果を持った触質コンテンツであって、複数の触質モードにそれぞれ対応した複数の触質コンテンツを、上記n個の触質パラメータの組み合わせおよび上記触質モードに対応付けて記憶する触質コンテンツ記憶部と、
     上記触質パラメータ生成部により生成された上記n個の触質パラメータの組み合わせを指定して、当該指定した触質パラメータの組み合わせおよび上記触質モードに対応する触質コンテンツを上記触質コンテンツ記憶部から読み出す触質コンテンツ読出部とを備え、
     上記触質コンテンツ読出部により読み出された触質コンテンツを上記触覚コンテンツとすることを特徴とする請求項2に記載のコンテンツ供給装置。
    The haptic content acquisition unit includes:
    A target information acquisition unit for acquiring target information as a source of the haptic content,
    A tactile parameter generation unit configured to generate a combination of n (n ≧ 2) tactile parameters each representing one element of a tactile sensation from the target information acquired by the target information acquisition unit;
    A plurality of tactile contents each having a unique tactile effect specified by the n tactile parameters, the plurality of tactile contents respectively corresponding to a plurality of tactile modes, and a combination of the n tactile parameters And a tactile content storage unit that stores the tactile content in association with the tactile mode,
    The combination of the n tactile parameters generated by the tactile parameter generation unit is specified, and the tactile content corresponding to the specified tactile parameter combination and the tactile mode is stored in the tactile content storage unit. And a tactile content reading unit for reading from
    The content supply device according to claim 2, wherein the tactile content read by the tactile content reading unit is the tactile content.
  10.  上記触覚コンテンツ取得部は、
     上記触覚コンテンツの生成元とする対象情報を取得する対象情報取得部と、
     上記対象情報取得部により取得された対象情報から、それぞれが触感の一要素を表したn個(n≧2)の触質パラメータの組み合わせを生成する触質パラメータ生成部と、
     上記触質パラメータ生成部により生成された触質パラメータの組み合わせについて、2つの組間で上記触質パラメータの差分値をそれぞれ計算することにより、n個の触質差分パラメータの組み合わせを生成する触質差分パラメータ生成部と、
     上記n個の触質差分パラメータにより特定される固有の触覚効果を持った触質コンテンツであって、複数の触質モードにそれぞれ対応した複数の触質コンテンツを、上記n個の触質差分パラメータの組み合わせおよび上記触質モードに対応付けて記憶する触質コンテンツ記憶部と、
     上記触質差分パラメータ生成部により生成された上記n個の触質差分パラメータの組み合わせを指定して、当該指定した触質パラメータの組み合わせおよび上記触質モードに対応する触質コンテンツを上記触質コンテンツ記憶部から読み出す触質コンテンツ読出部とを備え、
     上記触質コンテンツ読出部により読み出された触質コンテンツを上記触覚コンテンツとすることを特徴とする請求項2に記載のコンテンツ供給装置。
    The haptic content acquisition unit includes:
    A target information acquisition unit for acquiring target information as a source of the haptic content,
    A tactile parameter generation unit configured to generate a combination of n (n ≧ 2) tactile parameters each representing one element of a tactile sensation from the target information acquired by the target information acquisition unit;
    For the combination of tactile parameters generated by the tactile parameter generation unit, a difference value of the tactile parameters is calculated between the two sets, thereby generating a combination of n tactile difference parameters. A difference parameter generator,
    A plurality of tactile contents each having a unique tactile effect specified by the n tactile difference parameters and corresponding to a plurality of tactile modes, respectively, A tactile content storage unit that stores the combination of the tactile content and the tactile mode,
    The combination of the n tactile difference parameters generated by the tactile difference parameter generation unit is specified, and the tactile content corresponding to the specified combination of tactile parameters and the tactile mode is set to the tactile content. A touch content reading unit that reads from the storage unit;
    The content supply device according to claim 2, wherein the tactile content read by the tactile content reading unit is the tactile content.
  11.  上記触覚コンテンツ取得部は、上記触質コンテンツ読出部により順に読み出された複数の触質コンテンツが、2つ以上の異なる触質コンテンツの組み合わせから成るパターンの繰り返しを有するか否かを判定し、繰り返しを構成している触質コンテンツ群の少なくとも1サイクル分を抽出し、これを触覚コンテンツとして生成する繰り返し抽出部を更に備えたことを特徴とする請求項9または10に記載のコンテンツ供給装置。 The haptic content acquisition unit determines whether the plurality of haptic contents sequentially read by the haptic content reading unit have a repetition of a pattern composed of a combination of two or more different haptic contents, The content supply device according to claim 9, further comprising: a repetition extraction unit that extracts at least one cycle of the tactile content group forming the repetition and generates the tactile content as tactile content.
  12.  上記触覚コンテンツ取得部は、
     上記触覚コンテンツの生成元とする対象情報を取得する対象情報取得部と、
     上記対象情報取得部により取得された対象情報から、それぞれが触感の一要素を表したn個(n≧2)の触質パラメータの組み合わせを生成する触質パラメータ生成部と、
     上記n個の触質パラメータにより特定される固有の触覚効果を持った触質コンテンツを、上記n個の触質パラメータの組み合わせに対応付けて記憶する触質コンテンツ記憶部と、
     上記触質パラメータ生成部により生成された上記n個の触質パラメータの組み合わせを指定して、当該指定した触質パラメータの組み合わせに対応する触質コンテンツを上記触質コンテンツ記憶部から読み出す触質コンテンツ読出部と、
     上記触質コンテンツ読出部により読み出された触質コンテンツの振動情報に対する重み情報であって、上記触質モード指定部により指定された上記触質モードに応じた重み情報を生成し、生成した重み情報によって上記触質コンテンツの振動情報を加工する振動波形加工部とを備え、
     上記振動波形加工部により加工された触質コンテンツを上記触覚コンテンツとすることを特徴とする請求項2に記載のコンテンツ供給装置。
    The haptic content acquisition unit includes:
    A target information acquisition unit for acquiring target information as a source of the haptic content,
    A tactile parameter generation unit configured to generate a combination of n (n ≧ 2) tactile parameters each representing one element of a tactile sensation from the target information acquired by the target information acquisition unit;
    A tactile content storage unit that stores tactile content having a unique haptic effect specified by the n tactile parameters in association with the combination of the n tactile parameters;
    A tactile content that specifies a combination of the n tactile parameters generated by the tactile parameter generation unit and reads a tactile content corresponding to the specified combination of tactile parameters from the tactile content storage unit. A reading unit;
    Weight information for the vibration information of the tactile content read by the tactile content reading unit, and weight information corresponding to the tactile mode specified by the tactile mode designating unit is generated. A vibration waveform processing unit that processes vibration information of the tactile content according to information,
    The content supply device according to claim 2, wherein the tactile content processed by the vibration waveform processing unit is the tactile content.
  13.  上記触覚コンテンツ取得部は、
     上記触覚コンテンツの生成元とする対象情報を取得する対象情報取得部と、
     上記対象情報取得部により取得された対象情報から、それぞれが触感の一要素を表したn個(n≧2)の触質パラメータの組み合わせを生成する触質パラメータ生成部と、
     上記触質パラメータ生成部により生成された触質パラメータの組み合わせについて、2つの組間で上記触質パラメータの差分値をそれぞれ計算することにより、n個の触質差分パラメータの組み合わせを生成する触質差分パラメータ生成部と、
     上記n個の触質差分パラメータにより特定される固有の触覚効果を持った触質コンテンツを、上記n個の触質差分パラメータの組み合わせに対応付けて記憶する触質コンテンツ記憶部と、
     上記触質差分パラメータ生成部により生成された上記n個の触質差分パラメータの組み合わせを指定して、当該指定した触質パラメータの組み合わせに対応する触質コンテンツを上記触質コンテンツ記憶部から読み出す触質コンテンツ読出部と、
     上記触質コンテンツ読出部により読み出された触質コンテンツの振動情報に対する重み情報であって、上記触質モード指定部により指定された上記触質モードに応じた重み情報を生成し、生成した重み情報によって上記触質コンテンツの振動情報を加工する振動波形加工部とを備え、
     上記振動波形加工部により加工された触質コンテンツを上記触覚コンテンツとすることを特徴とする請求項2に記載のコンテンツ供給装置。
    The haptic content acquisition unit includes:
    A target information acquisition unit for acquiring target information as a source of the haptic content,
    A tactile parameter generation unit configured to generate a combination of n (n ≧ 2) tactile parameters each representing one element of a tactile sensation from the target information acquired by the target information acquisition unit;
    For the combination of tactile parameters generated by the tactile parameter generation unit, a difference value of the tactile parameters is calculated between the two sets, thereby generating a combination of n tactile difference parameters. A difference parameter generator,
    A tactile content storage unit that stores tactile content having a unique haptic effect specified by the n tactile difference parameters in association with a combination of the n tactile difference parameters;
    A combination of the n tactile difference parameters generated by the tactile difference parameter generation unit is specified, and a tactile content corresponding to the specified tactile parameter combination is read from the tactile content storage unit. Quality content reading unit;
    Weight information for the vibration information of the tactile content read by the tactile content reading unit, and weight information corresponding to the tactile mode specified by the tactile mode designating unit is generated. A vibration waveform processing unit that processes vibration information of the tactile content according to information,
    The content supply device according to claim 2, wherein the tactile content processed by the vibration waveform processing unit is the tactile content.
  14.  上記触覚コンテンツ取得部は、上記触質コンテンツ読出部により順に読み出された複数の触質コンテンツが、2つ以上の異なる触質コンテンツの組み合わせから成るパターンの繰り返しを有するか否かを判定し、繰り返しを構成している触質コンテンツ群の少なくとも1サイクル分を抽出し、これを触覚コンテンツとして生成する繰り返し抽出部を更に備え、
     上記振動波形加工部は、上記繰り返し抽出部により生成された触覚コンテンツの振動情報に対する重み情報であって、上記触質モード指定部により指定された上記触質モードに応じた重み情報を生成し、生成した重み情報によって上記触覚コンテンツの振動情報を加工することを特徴とする請求項12または13に記載のコンテンツ供給装置。
    The haptic content acquisition unit determines whether the plurality of haptic contents sequentially read by the haptic content reading unit have a repetition of a pattern composed of a combination of two or more different haptic contents, The apparatus further includes a repetition extraction unit that extracts at least one cycle of the tactile content group forming the repetition and generates the tactile content as tactile content
    The vibration waveform processing unit is weight information for the vibration information of the haptic content generated by the repetitive extraction unit, and generates weight information according to the tactile mode specified by the tactile mode specification unit, 14. The content supply device according to claim 12, wherein the vibration information of the haptic content is processed by the generated weight information.
  15.  上記触質コンテンツ記憶部は、複数の触質モードにそれぞれ対応した複数の触質コンテンツを記憶し、
     上記触質コンテンツ読出部は、上記触質モード指定部により指定された上記触質モードに応じた触質コンテンツを上記触質コンテンツ記憶部から読み出すことを特徴とする請求項12~14の何れか1項に記載のコンテンツ供給装置。
    The tactile content storage unit stores a plurality of tactile contents respectively corresponding to a plurality of tactile modes,
    15. The tactile content reading unit according to claim 12, wherein the tactile content reading unit reads a tactile content corresponding to the tactile mode specified by the tactile mode designating unit from the tactile content storage unit. 2. The content supply device according to claim 1.
  16.  上記対象情報取得部は、上記音声コンテンツ取得部により取得された上記音声コンテンツを上記対象情報として取得することを特徴とする請求項9~15の何れか1項に記載のコンテンツ供給装置。 The content supply device according to any one of claims 9 to 15, wherein the target information obtaining unit obtains the audio content obtained by the audio content obtaining unit as the target information.
  17.  上記対象情報取得部は、上記音声コンテンツ取得部により取得された上記音声コンテンツとは異なる情報を上記対象情報として取得することを特徴とする請求項9~15の何れか1項に記載のコンテンツ供給装置。 The content supply according to any one of claims 9 to 15, wherein the target information acquisition unit acquires information different from the audio content acquired by the audio content acquisition unit as the target information. apparatus.
  18.  上記振動波形加工部は、
     上記音声コンテンツの波形情報において、他の箇所と区別し得る複数の特徴箇所を抽出する特徴抽出部と、
     上記特徴抽出部により抽出された複数の特徴箇所に基づいて、特徴箇所間の時間区間において経時的に値が変化する上記重み情報を生成する重み情報生成部と、
     上記触覚コンテンツの振動情報を、上記重み情報生成部により生成された上記重み情報によって加工する重み加工部とを備え、
     上記振動波形加工部は、上記触質モード指定部により指定された上記触質モードに応じた処理によって上記重み情報を生成することを特徴とする請求項7,8,12~15の何れか1項に記載のコンテンツ供給装置。
    The vibration waveform processing section,
    In the waveform information of the audio content, a feature extraction unit that extracts a plurality of feature locations that can be distinguished from other locations,
    A weight information generation unit that generates the weight information whose value changes over time in a time section between the characteristic locations based on the plurality of characteristic locations extracted by the feature extraction unit;
    A weight processing unit that processes the vibration information of the haptic content with the weight information generated by the weight information generation unit;
    16. The vibration waveform processing unit according to claim 7, wherein the weight information is generated by a process corresponding to the tactile mode specified by the tactile mode specifying unit. A content supply device according to any one of the preceding claims.
  19.  上記振動波形加工部は、上記触質モード指定部により指定された触質モードに応じて、上記特徴抽出部による上記特徴箇所の抽出内容、および、上記重み情報生成部による上記重み情報の生成内容の少なくとも一方を変えることを特徴とする請求項18に記載のコンテンツ供給装置。 The vibration waveform processing unit, in accordance with the tactile mode specified by the tactile mode designating unit, the content of the feature portion extracted by the feature extracting unit, and the content of the weight information generated by the weight information generating unit 19. The content supply device according to claim 18, wherein at least one of the content supply device is changed.
  20.  外部装置から通信ネットワークを介して上記触覚コンテンツを受信して上記触覚コンテンツ記憶部に記憶させる触覚コンテンツ記録部を更に備えたことを特徴とする請求項2~8の何れか1項に記載のコンテンツ供給装置。 The content according to any one of claims 2 to 8, further comprising a haptic content recording unit that receives the haptic content from an external device via a communication network and stores the haptic content in the haptic content storage unit. Feeding device.
  21.  上記触覚コンテンツ記憶部は、上記触覚コンテンツ記録部により受信された上記触覚コンテンツを一時的に記憶するものであり、
     上記触覚コンテンツ供給部は、上記触覚コンテンツ記録部により受信されて上記触覚コンテンツ記憶部に一時的に記憶された上記触覚コンテンツを上記コンテンツ利用機器に供給する処理を、上記触覚コンテンツ記憶部に対する上記触覚コンテンツの記録処理と一連に行うことを特徴とする請求項20に記載のコンテンツ供給装置。
    The haptic content storage unit is for temporarily storing the haptic content received by the haptic content recording unit,
    The haptic content supply unit performs a process of supplying the haptic content received by the haptic content recording unit and temporarily stored in the haptic content storage unit to the content use device, to the haptic content storage unit. 21. The content supply device according to claim 20, wherein the content supply process is performed in a series with the content recording process.
  22.  外部装置から通信ネットワークを介して上記触質コンテンツを受信して上記触質コンテンツ記憶部に記憶させる触質コンテンツ記録部を更に備えたことを特徴とする請求項9~17の何れか1項に記載のコンテンツ供給装置。 The tactile content recording unit for receiving the tactile content from an external device via a communication network and storing the tactile content in the tactile content storage unit, according to any one of claims 9 to 17, further comprising: The content supply device according to the above.
  23.  上記触質コンテンツ記憶部は、上記触質コンテンツ記録部により受信された上記触質コンテンツを一時的に記憶するものであり、
     上記触覚コンテンツ供給部は、上記触質コンテンツ記録部により受信されて上記触質コンテンツ記憶部に一時的に記憶された上記触質コンテンツに基づいて生成された触覚コンテンツを上記コンテンツ利用機器に供給する処理を、上記触質コンテンツ記憶部に対する上記触質コンテンツの記録処理と一連に行うことを特徴とする請求項22に記載のコンテンツ供給装置。
    The tactile content storage unit is to temporarily store the tactile content received by the tactile content recording unit,
    The tactile content supply unit supplies the tactile content generated based on the tactile content received by the tactile content recording unit and temporarily stored in the tactile content storage unit to the content using device. 23. The content supply device according to claim 22, wherein the processing is performed in a series with the recording processing of the tactile content in the tactile content storage unit.
  24.  上記触質モード指定部は、上記ユーザからの上記触質モードの選択に係る指示に応じて上記触質モードを指定するように構成したことを特徴とする請求項1に記載のコンテンツ供給装置。 2. The content supply device according to claim 1, wherein the tactile mode designating unit is configured to designate the tactile mode in response to an instruction from the user regarding the selection of the tactile mode. 3.
  25.  上記触覚コンテンツ取得部は、上記触質モード指定部により指定された上記触質モードに応じた触覚コンテンツを、複数の触質モードにそれぞれ対応した複数の触覚コンテンツを記憶する触覚コンテンツ記憶部から読み出す触覚コンテンツ読出部により構成されることを特徴とする請求項24に記載のコンテンツ供給装置。 The haptic content acquisition unit reads a haptic content corresponding to the haptic mode specified by the haptic mode specifying unit from a haptic content storage unit that stores a plurality of haptic contents respectively corresponding to the plurality of haptic modes. 25. The content supply device according to claim 24, comprising a haptic content reading unit.
  26.  上記触質モード指定部は、上記ユーザからの上記触質モードの選択に係る指示に応じて上記触質モードを指定する機能を更に備え、
     上記触質モード指定部は、上記音声コンテンツ取得部により取得された上記音声コンテンツの解析結果に応じて上記触質モードを指定する状態をデフォルトとして、上記ユーザからの上記触質モードの選択に係る指示が行われた場合には、当該ユーザからの指示に応じて上記触質モードを指定する状態に変更することを特徴とする請求項2に記載のコンテンツ供給装置。
    The tactile mode designation unit further includes a function of designating the tactile mode according to an instruction related to selection of the tactile mode from the user,
    The tactile mode designating unit is configured to set a state of designating the tactile mode according to the analysis result of the audio content acquired by the audio content acquiring unit as a default, and to select the tactile mode from the user. The content supply device according to claim 2, wherein when an instruction is issued, the state is changed to a state in which the tactile mode is designated according to the instruction from the user.
  27.  上記触覚コンテンツ取得部は、上記触質モード指定部により指定された上記触質モードに応じた触覚コンテンツであって、かつ、上記ユーザからの指示に基づいて選択される音声コンテンツに関する触質パラメータに応じた触覚コンテンツを取得することを特徴とする請求項16および請求項24~26の何れか1項に記載のコンテンツ供給装置。 The tactile content acquisition unit is a tactile content according to the tactile mode specified by the tactile mode specifying unit, and includes a tactile parameter related to audio content selected based on an instruction from the user. The content supply device according to any one of claims 16 and 24 to 26, wherein a tactile content according to the content is acquired.
  28.  上記触覚コンテンツ取得部により取得される触覚コンテンツの振動をユーザに呈示した場合に期待される所定の身体的効果または心理的効果の情報を上記ユーザに提供する情報提供部を更に備えたことを特徴とする請求項27に記載のコンテンツ供給装置。 The apparatus further includes an information providing unit that provides the user with information on a predetermined physical effect or psychological effect expected when the vibration of the haptic content acquired by the haptic content acquiring unit is presented to the user. 28. The content supply device according to claim 27, wherein:
  29.  触覚に関する所定の感覚をユーザにイメージさせるように生成された振動情報である触覚コンテンツを取得するコンテンツ取得装置と、当該コンテンツ取得装置に通信ネットワークを介して接続されたコンテンツ提供サーバ装置とを備えて成るコンテンツ提供システムであって、
     上記コンテンツ提供サーバ装置は、
     触覚に関する感覚の性質が異なる複数の触質モードのうち何れかを指定する触質モード指定部と、
     上記触質モード指定部により指定された上記触質モードに応じた触覚コンテンツを取得する触覚コンテンツ取得部と、
     上記触覚コンテンツ取得部により取得された触覚コンテンツを上記コンテンツ取得装置に送信する触覚コンテンツ送信部とを備え、
     上記コンテンツ取得装置は、
     上記触覚コンテンツ送信部により送信された上記触覚コンテンツを受信する触覚コンテンツ受信部を備えたことを特徴とするコンテンツ提供システム。
    A content acquisition device that acquires tactile content, which is vibration information generated so as to cause a user to image a predetermined tactile sensation; and a content providing server device connected to the content acquisition device via a communication network. A content providing system comprising:
    The content providing server device includes:
    A tactile mode designating unit that designates one of a plurality of tactile modes having different sensational sensation properties;
    A haptic content acquisition unit that acquires haptic content according to the tactile mode specified by the tactile mode specification unit,
    A haptic content transmission unit that transmits the haptic content acquired by the haptic content acquisition unit to the content acquisition device,
    The content acquisition device includes:
    A content providing system, comprising: a haptic content receiving unit that receives the haptic content transmitted by the haptic content transmitting unit.
  30.  上記触質モード指定部は、上記コンテンツ取得装置を利用するユーザからの音声コンテンツの選択に係る指示に応じて、選択された音声コンテンツの解析結果に応じた触質モードを指定するように構成したことを特徴とする請求項29に記載のコンテンツ提供システム。 The tactile mode designation unit is configured to designate a tactile mode according to an analysis result of the selected audio content in response to an instruction related to selection of audio content from a user using the content acquisition device. The content providing system according to claim 29, wherein:
  31.  上記コンテンツ提供サーバ装置は、
     上記音声コンテンツを記憶する音声コンテンツ記憶部と、
     上記ユーザからの音声コンテンツの選択に係る指示に応じて、上記音声コンテンツを取得する音声コンテンツ取得部と、
     上記音声コンテンツ取得部により取得された音声コンテンツを上記コンテンツ取得装置に送信する音声コンテンツ送信部とを更に備え、
     上記コンテンツ取得装置は、
     上記音声コンテンツ送信部により送信された上記音声コンテンツを受信する音声コンテンツ受信部を更に備え、
     上記触質モード指定部は、上記音声コンテンツ取得部により取得された上記音声コンテンツの解析結果に応じた触質モードを指定するように構成したことを特徴とする請求項29に記載のコンテンツ提供システム。
    The content providing server device includes:
    An audio content storage unit that stores the audio content,
    In response to an instruction related to selection of audio content from the user, an audio content acquisition unit that acquires the audio content,
    An audio content transmission unit that transmits the audio content acquired by the audio content acquisition unit to the content acquisition device,
    The content acquisition device includes:
    Further comprising an audio content receiving unit that receives the audio content transmitted by the audio content transmitting unit,
    30. The content providing system according to claim 29, wherein the tactile mode designating unit is configured to designate a tactile mode according to an analysis result of the audio content acquired by the audio content acquiring unit. .
  32.  上記コンテンツ提供サーバ装置は、
     上記コンテンツ取得装置から送信された音声コンテンツを受信する音声コンテンツ受信部を更に備え、
     上記触質モード指定部は、上記音声コンテンツ受信部により受信された上記音声コンテンツを解析し、その解析結果に応じて触質モードを指定するように構成したことを特徴とする請求項29に記載のコンテンツ提供システム。
    The content providing server device includes:
    Further comprising an audio content receiving unit that receives the audio content transmitted from the content acquisition device,
    30. The tactile-mode designating unit configured to analyze the audio content received by the audio-content receiving unit and designate a tactile mode according to the analysis result. Content providing system.
  33.  上記コンテンツ提供サーバ装置は、
     上記触覚コンテンツ取得部により取得された触覚コンテンツと、上記音声コンテンツ受信部により受信された音声コンテンツとを含む音響コンテンツを生成する音響コンテンツ生成部を更に備え、
     上記音響コンテンツ生成部により生成された上記音響コンテンツを上記コンテンツ取得装置に送信する音響コンテンツ送信部を、上記触覚コンテンツ送信部および上記音声コンテンツ送信部に代えて備え、
     上記コンテンツ取得装置は、
     上記音響コンテンツ送信部により送信された上記音響コンテンツを受信する音響コンテンツ受信部を、上記触覚コンテンツ受信部および上記音声コンテンツ受信部に代えて備えたことを特徴とする請求項32に記載のコンテンツ提供システム。
    The content providing server device includes:
    A haptic content acquired by the haptic content acquisition unit, and an audio content generation unit that generates audio content including audio content received by the audio content reception unit,
    An audio content transmission unit that transmits the audio content generated by the audio content generation unit to the content acquisition device, in place of the haptic content transmission unit and the audio content transmission unit,
    The content acquisition device includes:
    33. The content providing device according to claim 32, wherein an audio content receiving unit that receives the audio content transmitted by the audio content transmitting unit is provided instead of the haptic content receiving unit and the audio content receiving unit. system.
  34.  上記触覚コンテンツ取得部は、触覚コンテンツおよび音声コンテンツを含む音響コンテンツであって、上記触質モード指定部により指定された上記触質モードに応じた音響コンテンツを取得し、
     上記触覚コンテンツ取得部により取得された音響コンテンツを上記コンテンツ取得装置に送信する音響コンテンツ送信部を上記触覚コンテンツ送信部に代えて備え、
     上記コンテンツ取得装置は、
     上記音響コンテンツ送信部により送信された上記音響コンテンツを受信する音響コンテンツ受信部を上記触覚コンテンツ受信部に代えて備えたことを特徴とする請求項29に記載のコンテンツ提供システム。
    The haptic content acquisition unit is audio content including haptic content and audio content, and acquires audio content according to the tactile mode specified by the tactile mode specification unit,
    An audio content transmission unit that transmits the audio content acquired by the haptic content acquisition unit to the content acquisition device, instead of the haptic content transmission unit,
    The content acquisition device includes:
    30. The content providing system according to claim 29, further comprising an audio content receiving unit that receives the audio content transmitted by the audio content transmitting unit, instead of the haptic content receiving unit.
  35.  触覚に関する所定の感覚をユーザにイメージさせるように生成された振動情報である触覚コンテンツを取得するコンテンツ取得装置に対して通信ネットワークを介して接続されたコンテンツ提供サーバ装置であって、
     触覚に関する感覚の性質が異なる複数の触質モードのうち何れかを指定する触質モード指定部と、
     上記触質モード指定部により指定された上記触質モードに応じた触覚コンテンツを取得する触覚コンテンツ取得部と、
     上記触覚コンテンツ取得部により取得された触覚コンテンツを上記コンテンツ取得装置に送信する触覚コンテンツ送信部とを備えたことを特徴とするコンテンツ提供サーバ装置。
    A content providing server device connected via a communication network to a content acquisition device that acquires tactile content that is vibration information generated to cause a user to image a predetermined tactile sensation,
    A tactile mode designating unit that designates one of a plurality of tactile modes having different sensational sensation properties;
    A haptic content acquisition unit that acquires haptic content according to the tactile mode specified by the tactile mode specification unit,
    A content providing server device, comprising: a haptic content transmitting unit configured to transmit the haptic content acquired by the haptic content acquiring unit to the content acquiring device.
  36.  上記触質モード指定部は、上記コンテンツ取得装置を利用するユーザからの音声コンテンツの選択に係る指示に応じて、選択された音声コンテンツの解析結果に応じた触質モードを指定するように構成したことを特徴とする請求項35に記載のコンテンツ提供サーバ装置。 The tactile mode designation unit is configured to designate a tactile mode according to an analysis result of the selected audio content in response to an instruction related to selection of audio content from a user using the content acquisition device. The content providing server device according to claim 35, wherein:
  37.  上記コンテンツ取得装置から送信された音声コンテンツを受信する音声コンテンツ受信部を更に備え、
     上記触質モード指定部は、上記音声コンテンツ受信部により受信された上記音声コンテンツの解析結果に応じた触質モードを指定するように構成したことを特徴とする請求項35に記載のコンテンツ提供サーバ装置。
    Further comprising an audio content receiving unit that receives the audio content transmitted from the content acquisition device,
    36. The content providing server according to claim 35, wherein the tactile mode designating unit is configured to designate a tactile mode according to an analysis result of the audio content received by the audio content receiving unit. apparatus.
  38.  上記触覚コンテンツ取得部は、上記触質モード指定部により指定された上記触質モードに応じた触覚コンテンツおよび音声コンテンツを含む音響コンテンツを取得するようになされ、
     上記触覚コンテンツ取得部により取得された上記音響コンテンツを上記コンテンツ取得装置に送信する音響コンテンツ送信部を上記触覚コンテンツ送信部に代えて備えたことを特徴とする請求項35に記載のコンテンツ提供サーバ装置。
    The haptic content acquisition unit is configured to acquire audio content including haptic content and audio content according to the tactile mode specified by the tactile mode specification unit,
    36. The content providing server device according to claim 35, further comprising an audio content transmission unit that transmits the audio content acquired by the haptic content acquisition unit to the content acquisition device, instead of the haptic content transmission unit. .
  39.  請求項35または36の何れか1項に記載のコンテンツ提供サーバ装置に対して通信ネットワークを介して接続されたコンテンツ取得装置であって、
     上記触覚コンテンツの取得に関する指示を上記コンテンツ提供サーバ装置に送信する指示送信部と、
     上記指示送信部による指示に対する応答として上記コンテンツ提供サーバ装置の触覚コンテンツ送信部により送信された上記触覚コンテンツを受信する触覚コンテンツ受信部とを備えたことを特徴とするコンテンツ取得装置。
    A content acquisition device connected via a communication network to the content providing server device according to any one of claims 35 and 36,
    An instruction transmitting unit that transmits an instruction regarding the acquisition of the haptic content to the content providing server device;
    A content acquisition device, comprising: a haptic content receiving unit that receives the haptic content transmitted by the haptic content transmitting unit of the content providing server device as a response to an instruction from the instruction transmitting unit.
  40.  請求項37に記載のコンテンツ提供サーバ装置に対して通信ネットワークを介して接続されたコンテンツ取得装置であって、
     音声コンテンツを上記コンテンツ提供サーバ装置に送信する音声コンテンツ送信部と、
     上記音声コンテンツ送信部による上記音声コンテンツの送信に対する応答として上記コンテンツ提供サーバ装置の触覚コンテンツ送信部により送信された上記触覚コンテンツを受信する触覚コンテンツ受信部とを備えたことを特徴とするコンテンツ取得装置。
    A content acquisition device connected to the content providing server device according to claim 37 via a communication network,
    An audio content transmitting unit that transmits audio content to the content providing server device,
    A content providing device, comprising: a haptic content receiving unit that receives the haptic content transmitted by the haptic content transmitting unit of the content providing server device in response to the transmission of the audio content by the audio content transmitting unit. .
  41.  請求項38に記載のコンテンツ提供サーバ装置に対して通信ネットワークを介して接続されたコンテンツ取得装置であって、
     上記触覚コンテンツの取得に関する指示を上記コンテンツ提供サーバ装置に送信する指示送信部と、
     上記指示送信部による指示に対する応答として上記コンテンツ提供サーバ装置の音響コンテンツ送信部により送信された上記音響コンテンツを受信する音響コンテンツ受信部とを備えたことを特徴とするコンテンツ取得装置。
    A content acquisition device connected to the content providing server device according to claim 38 via a communication network,
    An instruction transmitting unit that transmits an instruction regarding the acquisition of the haptic content to the content providing server device;
    A content acquisition device, comprising: an audio content receiving unit that receives the audio content transmitted by the audio content transmission unit of the content providing server device as a response to an instruction from the instruction transmission unit.
  42.  触覚に関する感覚の性質が異なる複数の触質モードのうち何れかを指定する触質モード指定部と、
     触覚に関する所定の感覚をユーザにイメージさせるように生成された振動情報である触覚コンテンツであって、上記触質モード指定部により指定された上記触質モードに応じた触覚コンテンツを取得する触覚コンテンツ取得部とを備えたことを特徴とするコンテンツ取得装置。
    A tactile mode designating unit that designates one of a plurality of tactile modes having different sensational sensation properties;
    Tactile content acquisition that is tactile content that is vibration information generated so as to cause a user to image a predetermined tactile sensation, and that acquires tactile content according to the tactile mode specified by the tactile mode specifying unit. A content acquisition device, comprising:
  43.  上記触覚コンテンツ取得部は、上記触質モード指定部により指定された上記触質モードに応じた触覚コンテンツであって、かつ、上記ユーザからの指示に基づいて選択される音声コンテンツに関する触質パラメータに応じた触覚コンテンツを取得するようになされ、
     上記触質パラメータは、上記音声コンテンツの波形情報から特定される、それぞれが触感の一要素を表したn個(n≧2)の触質パラメータの組み合わせであることを特徴とする請求項42に記載のコンテンツ取得装置。
    The tactile content acquisition unit is a tactile content according to the tactile mode specified by the tactile mode specifying unit, and includes a tactile parameter related to audio content selected based on an instruction from the user. To obtain the corresponding haptic content,
    43. The tactile parameter according to claim 42, wherein the tactile parameter is a combination of n (n ≧ 2) tactile parameters each representing one element of the tactile sensation specified from the waveform information of the audio content. Content acquisition device according to the description.
  44.  上記触覚コンテンツ取得部により取得される触覚コンテンツの振動をユーザに呈示した場合に期待される所定の身体的効果または心理的効果の情報を上記ユーザに提供する情報提供部を更に備えたことを特徴とする請求項43に記載のコンテンツ取得装置。 An information providing unit for providing the user with information of a predetermined physical effect or psychological effect expected when the vibration of the haptic content acquired by the haptic content acquiring unit is presented to the user. The content acquisition device according to claim 43.
  45.  コンテンツ供給装置の触質モード指定部が、触覚に関する感覚の性質が異なる複数の触質モードのうち何れかを指定する第1のステップと、
     上記コンテンツ供給装置の触覚コンテンツ取得部が、ユーザからの指示に応じて、触覚に関する所定の感覚をユーザにイメージさせるように生成された振動情報である触覚コンテンツであって、上記触質モード指定部により指定された上記触質モードに応じた触覚コンテンツを取得する第2のステップと、
     上記コンテンツ供給装置の触覚コンテンツ供給部が、上記触覚コンテンツ取得部により取得された上記触覚コンテンツをコンテンツ利用機器に供給する第3のステップとを有することを特徴とするコンテンツ提供方法。
    A first step in which the tactile mode designating unit of the content supply device designates any one of a plurality of tactile modes having different sensational sensation properties;
    A haptic content acquisition unit of the content supply device, the haptic content being vibration information generated so as to cause the user to image a predetermined sensation related to a haptic responsive to an instruction from the user; A second step of acquiring a haptic content corresponding to the tactile mode specified by
    A third step in which the haptic content supply unit of the content supply device supplies the haptic content acquired by the haptic content acquisition unit to a content utilization device.
  46.  コンテンツ提供サーバ装置の触質モード指定部が、触覚に関する感覚の性質が異なる複数の触質モードのうち何れかを指定する第1のステップと、
     上記コンテンツ提供サーバ装置の触覚コンテンツ取得部が、触覚に関する所定の感覚をユーザにイメージさせるように生成された振動情報である触覚コンテンツであって、上記触質モード指定部により指定された上記触質モードに応じた触覚コンテンツを取得する第2のステップと、
     上記コンテンツ提供サーバ装置の触覚コンテンツ送信部が、上記触覚コンテンツ取得部により取得された触覚コンテンツをコンテンツ取得装置に対して通信ネットワークを介して送信する第3のステップとを有することを特徴とするコンテンツ提供方法。
    A first step in which the tactile mode designating unit of the content providing server device designates any one of a plurality of tactile modes having different sensational sensation properties;
    The haptic content acquisition unit of the content providing server device is haptic content that is vibration information generated to cause a user to image a predetermined sensation related to haptics, and the haptic content specified by the haptic mode designating unit. A second step of acquiring haptic content according to the mode,
    A third step in which the haptic content transmitting unit of the content providing server device transmits the haptic content acquired by the haptic content acquiring unit to the content acquiring device via a communication network. Delivery method.
  47.  触覚に関する感覚の性質が異なる複数の触質モードのうち何れかを指定する触質モード指定手段、
     ユーザからの指示に応じて、触覚に関する所定の感覚をユーザにイメージさせるように生成された振動情報である触覚コンテンツであって、上記触質モード指定手段により指定された上記触質モードに応じた触覚コンテンツを取得する触覚コンテンツ取得手段、および
     上記触覚コンテンツ取得手段により取得された上記触覚コンテンツをコンテンツ利用機器に供給する触覚コンテンツ供給手段
    としてコンピュータを機能させるためのコンテンツ提供用プログラム。
    Tactile mode designating means for designating any one of a plurality of tactile modes having different sensational sensation properties;
    A tactile content, which is vibration information generated to cause the user to image a predetermined tactile sensation in response to an instruction from the user, the tactile content corresponding to the tactile mode specified by the tactile mode specifying means. A haptic content acquisition unit that acquires a haptic content, and a content providing program for causing a computer to function as a haptic content supply unit that supplies the haptic content acquired by the haptic content acquisition unit to a content utilization device.
  48.  触覚に関する感覚の性質が異なる複数の触質モードのうち何れかを指定する触質モード指定手段、
     ユーザからの指示に応じて、触覚に関する所定の感覚をユーザにイメージさせるように生成された振動情報である触覚コンテンツであって、上記触質モード指定手段により指定された上記触質モードに応じた触覚コンテンツを取得する触覚コンテンツ取得手段、および
     上記触覚コンテンツ取得手段により取得された触覚コンテンツをコンテンツ取得装置に対して通信ネットワークを介して送信する触覚コンテンツ送信手段
    としてコンピュータを機能させるためのコンテンツ提供用プログラム。
    Tactile mode designating means for designating any one of a plurality of tactile modes having different sensational sensation properties;
    A tactile content, which is vibration information generated to cause the user to image a predetermined tactile sensation in response to an instruction from the user, the tactile content corresponding to the tactile mode specified by the tactile mode specifying means. Tactile content acquisition means for acquiring tactile content, and content providing for causing a computer to function as tactile content transmission means for transmitting the tactile content acquired by the tactile content acquisition means to a content acquisition device via a communication network program.
PCT/JP2018/033125 2018-09-07 2018-09-07 Content supplying device, content providing system, content providing server device, content acquiring device, content providing method, and content providing program WO2020049705A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019557643A JP6644293B1 (en) 2018-09-07 2018-09-07 Content supply device, content providing system, content providing server device, content providing method, and content providing program
PCT/JP2018/033125 WO2020049705A1 (en) 2018-09-07 2018-09-07 Content supplying device, content providing system, content providing server device, content acquiring device, content providing method, and content providing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/033125 WO2020049705A1 (en) 2018-09-07 2018-09-07 Content supplying device, content providing system, content providing server device, content acquiring device, content providing method, and content providing program

Publications (1)

Publication Number Publication Date
WO2020049705A1 true WO2020049705A1 (en) 2020-03-12

Family

ID=69412175

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/033125 WO2020049705A1 (en) 2018-09-07 2018-09-07 Content supplying device, content providing system, content providing server device, content acquiring device, content providing method, and content providing program

Country Status (2)

Country Link
JP (1) JP6644293B1 (en)
WO (1) WO2020049705A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015053054A (en) * 2013-09-06 2015-03-19 イマージョン コーポレーションImmersion Corporation Systems and methods for generating haptic effects associated with audio signals
JP2015053049A (en) * 2013-09-06 2015-03-19 イマージョン コーポレーションImmersion Corporation Systems and methods for visual processing of spectrograms to generate haptic effects
WO2018139150A1 (en) * 2017-01-26 2018-08-02 株式会社ファセテラピー Mask-type vibration massaging machine

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015053054A (en) * 2013-09-06 2015-03-19 イマージョン コーポレーションImmersion Corporation Systems and methods for generating haptic effects associated with audio signals
JP2015053049A (en) * 2013-09-06 2015-03-19 イマージョン コーポレーションImmersion Corporation Systems and methods for visual processing of spectrograms to generate haptic effects
WO2018139150A1 (en) * 2017-01-26 2018-08-02 株式会社ファセテラピー Mask-type vibration massaging machine

Also Published As

Publication number Publication date
JP6644293B1 (en) 2020-02-12
JPWO2020049705A1 (en) 2020-09-24

Similar Documents

Publication Publication Date Title
US10410392B2 (en) Data structure for computer graphics, information processing device, information processing method and information processing system
TWI486904B (en) Method for rhythm visualization, system, and computer-readable memory
US10049483B2 (en) Apparatus and method for generating animation
Birringer et al. The sound of movement wearables: Performing UKIYO
KR20170024374A (en) Stage Image Displaying Apparatus Capable of Interaction of Performance Condition and Audience Participation and Displaying Method Using the Same
US11120633B2 (en) Interactive virtual reality system for experiencing sound
JP6322780B1 (en) Haptic content generation device, acoustic content generation device, acoustic playback device, tactile content generation method, and acoustic content generation method
JP6644293B1 (en) Content supply device, content providing system, content providing server device, content providing method, and content providing program
US20030110026A1 (en) Systems and methods for communicating through computer animated images
WO2018139150A1 (en) Mask-type vibration massaging machine
Ujitoko et al. Gan-based fine-tuning of vibrotactile signals to render material surfaces
CN107248406A (en) A kind of method and device for automatically generating terrible domestic animals song
WO2020157978A1 (en) Information processing device
JP2020078446A (en) Vibration device
JP6660637B2 (en) Tactile information processing apparatus and tactile information processing method
Kim et al. Perceptually motivated automatic dance motion generation for music
JP6401758B2 (en) Tactile content generating device, tactile content generating method, and tactile content using device
JP6383765B2 (en) Haptic content generation device, tactile content generation method, and tactile content use device
JP4580812B2 (en) Video generation method, stand-alone video playback device, and network distribution video playback system
Lee et al. Data-driven rendering of motion effects for walking sensations in different gaits
Jiang et al. Real-time Sound Visualization with Touch OSC: Stimulating Sensibility through rhythm in nature, 5
JP2723070B2 (en) User interface device with human image display
JP2019126516A (en) Vibration device
JP3521635B2 (en) Video generation method and video generation system
JP2016080908A (en) Signal processing device

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2019557643

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18932730

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18932730

Country of ref document: EP

Kind code of ref document: A1