WO2004056153A1 - 音声情報支援システム - Google Patents

音声情報支援システム Download PDF

Info

Publication number
WO2004056153A1
WO2004056153A1 PCT/JP2003/016110 JP0316110W WO2004056153A1 WO 2004056153 A1 WO2004056153 A1 WO 2004056153A1 JP 0316110 W JP0316110 W JP 0316110W WO 2004056153 A1 WO2004056153 A1 WO 2004056153A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
support system
information support
audio
electromagnetic wave
Prior art date
Application number
PCT/JP2003/016110
Other languages
English (en)
French (fr)
Inventor
Takuichi Nishimura
Hideyuki Nakashima
Ikuko Yairi
Seiji Igi
Original Assignee
National Institute Of Advanced Industrial Science And Technology
National Institute Of Information And Communications Technology, Incorporated Administrative Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute Of Advanced Industrial Science And Technology, National Institute Of Information And Communications Technology, Incorporated Administrative Agency filed Critical National Institute Of Advanced Industrial Science And Technology
Priority to EP03780790A priority Critical patent/EP1583392A4/en
Priority to AU2003289362A priority patent/AU2003289362A1/en
Priority to US10/539,350 priority patent/US8073155B2/en
Publication of WO2004056153A1 publication Critical patent/WO2004056153A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/12Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/403Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers loud-speakers

Definitions

  • the invention of this application relates to a voice information support system. More specifically, the invention of this application relates to a new voice information support system that can realize voice information support individually corresponding to each user who is viewing an image displayed on a screen or the like.
  • Patent Document 1 Conventionally, there has been known an information system in which a screen is mounted on a table top and a video is projected by a projector from a lower rear portion thereof (see Patent Document 1). According to this information system, many users will be able to watch images simultaneously around the table.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2000-1 75773
  • each user can only watch the video projected on the table, and each user can control the sound (voice, music, signal sound, etc .; the same applies hereinafter) related to the video. You can't listen to your favorite audio information when you want.
  • a mode in which audio is output together with video is also proposed in Patent Document 1, but audio information is sent from speakers to all users surrounding the table, and all users always hear the same audio. It just becomes.
  • an image display device (1) for displaying an image an image display device (1) as shown in FIG.
  • An audio output device (2) that outputs an electromagnetic wave modulated based on audio information toward one or more positions in the image displayed by the device, and receives the electromagnetic wave at a position in the image.
  • a sound reproducing terminal (3) having a converting means (31) for converting the electric signal into an electric signal; and a sound reproducing means (32) for sound reproducing the electric signal obtained by the converting means (31).
  • a voice information support system is provided.
  • an image display device (1) that displays an image, and one or more positions in the image displayed by the image display device (1), as illustrated in the functional block diagram of FIG.
  • An audio output device (2) that outputs an electromagnetic wave modulated based on audio information; a conversion unit (31) that receives the electromagnetic wave at a position in the image and converts the electromagnetic wave into an electric signal; 31)
  • An audio reproduction terminal (3) having an audio reproduction means (32) for reproducing the electric signal obtained by the above-mentioned method and an ID transmission means (33) for transmitting an ID, and an audio reproduction terminal (3).
  • a voice information support system comprising an ID detection device (4) for detecting an ID transmitted by ID transmission means (33).
  • an image display device (1) that displays an image, and one or more positions in the image displayed by the image display device (1), as illustrated in the functional block diagram of FIG.
  • An audio output device (2) that outputs an electromagnetic wave modulated based on audio information; a conversion unit (31) that receives the electromagnetic wave at a position in the image and converts the electromagnetic wave into an electric signal; 31) a sound reproducing terminal (3) having a sound reproducing means (32) for reproducing the electric signal obtained by (31), and a position detecting device (5) for detecting the position of the sound reproducing terminal (3);
  • a voice information support system that features provide.
  • an image display device (1) that displays an image, and one or more positions in the image displayed by the image display device (1), as illustrated in the functional block diagram of FIG.
  • An audio output device that outputs an electromagnetic wave modulated based on audio information (2); a conversion unit (31) that receives the electromagnetic wave at a position in the image and converts the electromagnetic wave into an electric signal; 31.
  • An audio reproduction terminal (3) having an audio reproduction means (32) for reproducing the electric signal obtained by the above-mentioned method and an ID transmission means (33) for transmitting an ID, and an ID transmission of the audio reproduction terminal (3).
  • the voice characterized by comprising an ID detection device (4) for detecting the ID transmitted by the means (33), and a position detection device (5) for detecting the position of the audio reproduction terminal (3).
  • the image display device (1) includes a screen means (11) for displaying an image, and an image projected on the screen means.
  • a voice information support system comprising: an image projection means; (12) a sixth aspect of the present invention, wherein the screen means (11) has a flat, curved, or uneven surface having an image display surface.
  • the screen means (11) is a voice information support system characterized in that its image display surface is translucent.
  • the image projection means (12) projects an image from the image display surface side to the screen means (11).
  • the image projection means (12) Audio information support system and the image display surface with respect to emissions means (11), characterized in that projects an image from the opposite facing side.
  • a tenth aspect is the audio information support system, wherein the image display device (1) is a cathode ray tube display.
  • the flat panel display is a liquid crystal display, a plasma display, an electroluminescence display, a light emitting diode display, a fluorescent display tube.
  • a voice information support system is provided, which is one of a display and a field emission display.
  • the audio output device (2) as exemplified in a functional block diagram in FIG.
  • the electromagnetic wave irradiating means comprises: (22) A sound information reporting system characterized by having an electromagnetic wave source that outputs an electromagnetic wave.
  • the electromagnetic wave source is provided corresponding to each of a plurality of positions in the image.
  • the audio information support system is characterized in that the electromagnetic wave source is capable of changing an irradiation direction toward a plurality of positions in the image.
  • Speech information support system specializing in multiple A seventeenth aspect, wherein the electromagnetic wave source is a light source that outputs a light as an electromagnetic wave, and a eighteenth aspect, wherein the light source is a light emitting diode or a laser.
  • a nineteenth aspect of the present invention provides a voice information support system characterized by irradiating light from the light source to a position in the image through an optical cable.
  • the conversion means (31) of the audio reproduction terminal (3) is a photoelectric conversion means for receiving light from the light source of the electromagnetic wave irradiation means and performing photoelectric conversion.
  • An audio information support system 21.
  • the audio information support system, wherein the photoelectric conversion means is a solar cell.
  • the conversion means (31) of the audio reproduction terminal (3). Is a voice information support system characterized in that it can be worn on a part of the body of the terminal user. 23. The part of the body is a hand or a foot.
  • a twenty-fourth aspect of the present invention is characterized in that the conversion means (31) of the audio reproduction terminal (3) can be mounted on or incorporated in a pointing rod held by a terminal user.
  • the audio information support system The audio reproducing means (32) of the terminal (3) is an audio information support system characterized by being an earphone, a headphone or a speaker. 26th, the audio reproducing terminal (3) is a separate Provided is a voice information support system characterized by being a powerless terminal that does not require a drive power supply. In addition, 27th, the audio reproduction as shown in FIG.
  • the ID transmitting means (33) of the raw terminal (3) is an RFID tag (34), and the ID detection device (4) performs ID authentication communication with the RF ID tag (34).
  • a voice information support system characterized by being a reader / writer (41).
  • the ID transmitting means (33) of the voice reproduction terminal (3) as exemplified in a functional block diagram in FIG.
  • An optical ID tag (35) and the ID detection device (4) is an infrared sensor (42) that receives the infrared light for ID emitted by the optical ID tag (35) and outputs the ID data.
  • the ninth ninth feature is that the optical ID tag (35) is an infrared light source (35a) for ID infrared light as exemplified in a functional block diagram in FIG. ), An ID storage means (35b) for storing ID data, and a modulating means (35c) for modulating infrared light for ID in accordance with the ID data.
  • the line sensor (42) provides an audio information support system characterized in that the line sensor (42) receives ID infrared light modulated and transmitted by the optical ID tag (35) and outputs ID data. .
  • the position detecting device (5) includes an infrared light source (51) for position infrared light, and the sound reproducing terminal (3).
  • a position detecting means (53) for detecting a position, wherein the sound reproducing terminal. (3) is a reflecting means (5) for reflecting the position infrared light transmitted by the position detecting device (5).
  • the audio information support system comprising: a touch panel provided on an image display surface of the image display device (1);
  • the position of the audio playback terminal (3) is determined based on the position of the evening panel that the terminal user has been eroded. That it has a position detecting means for exiting providing audio information support system to Toku ⁇ a.
  • FIG. 1 is a functional block diagram for explaining the invention of this application.
  • FIG. 2 is a functional block diagram for explaining the invention of this application.
  • FIG. 3 is a functional block diagram for explaining the invention of this application.
  • FIG. 4 is a functional block diagram for explaining the invention of this application.
  • FIG. 5 is a functional block diagram for explaining the invention of this application.
  • FIG. 6 is a functional block diagram for explaining the invention of this application.
  • FIG. 7 is a functional block diagram for explaining the invention of this application.
  • FIG. 8 is a functional block diagram for explaining the invention of this application.
  • FIG. 9 is a functional block diagram for explaining the invention of this application.
  • FIG. 10 is a functional block diagram for explaining the invention of this application.
  • FIG. 11 is a schematic diagram showing an embodiment of the invention of this application.
  • FIG. 12 is a schematic diagram showing another embodiment of the invention of this application.
  • FIG. 13 is a schematic diagram showing an embodiment of the invention of the present application when performing ID authentication.
  • FIG. 14 is a schematic diagram showing another embodiment of the invention of this application when performing ID authentication.
  • FIG. 15 is a schematic diagram showing an embodiment of the invention of this application when performing location authentication.
  • FIG. 16 is a schematic diagram showing an embodiment of the invention of this application when performing ID authentication and location authentication.
  • FIG. 17 is a diagram for explaining the embodiment in FIG.
  • FIG. 18 is a schematic diagram showing another embodiment of the invention of this application when performing ID authentication and location authentication.
  • FIG. 19 is a schematic diagram showing still another embodiment of the invention of this application that performs location authentication.
  • FIG. 20 is a schematic diagram showing an example of a case where a spherical screen body is used.
  • FIG. 21 is a schematic diagram showing an example when a CRT display is used.
  • FIG. 22 is a schematic diagram showing an example when a liquid crystal display is used.
  • FIG. 23 is a schematic diagram showing an example of a case where a plasma display is used.
  • FIG. 24 is a schematic diagram showing an example of a case where an electroluminescent display is used.
  • FIGS. 25 (a) and 25 (b) are schematic diagrams each showing an example in the case of using a flat body and a faceted light emitting diode display.
  • FIG. 26 is a schematic diagram showing an example of a case where an infrared light source is arranged above a top screen unit.
  • FIG. 27 is a schematic diagram showing another example in which the infrared light source is disposed above the top screen unit.
  • FIG. 28 is a schematic diagram illustrating an example of the pointing rod.
  • FIG. 29 is a schematic diagram illustrating an example of the image display surface.
  • FIG. 30 is a schematic diagram showing another embodiment of the location authentication.
  • FIG. 31 is a schematic diagram showing an example of a three-dimensional screen body. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 11 and FIG. 12 show an embodiment of the invention of this application.
  • the image display device (1) corresponds to a table-like body (100) corresponding to the screen means (11) and the image projection means (12).
  • a projector device (102) is provided.
  • the table-like body (100) has a flat and translucent top screen part (101), and the projector device (102) has an image of the top screen part (101). It is installed below the top screen (101) so that images are projected from the back side opposite to the display surface.
  • one projector device (102) is used to project an image on the top screen (101)-surface.
  • two projector devices (102) are arranged.
  • the top screen section (101) is divided into two screens and images are projected on each screen.
  • the projector device (102) in FIG. 3) and an optical system (104) such as a mirror that refracts the projected image upward and guides it to the back of the top screen unit (101).
  • a plurality of infrared light sources (201) corresponding to the electromagnetic wave irradiating means (22) and an infrared light source array (200) composed of a plurality of infrared light sources (201) are arranged below the top screen unit (101).
  • a voice control unit (202) having a function corresponding to the modulation means (1).
  • each infrared light source (201) of the infrared light source array (200) is arranged in an array corresponding to each of a plurality of positions in the image displayed on the top screen (101).
  • the infrared light modulated based on the audio information by the audio control unit (202) is emitted from the back of the top screen unit (101) to each position in the image.
  • a 6 x 16 spot position is set for the two images divided and displayed on the top screen (101), and a 6 x 16 infrared light source (201) corresponding to each of these spot positions is set. And arrange them.
  • the projection area is kept free so as not to hinder the projector device (102) (projector body (103) and optical system (104)) from projecting an image on the top screen (101).
  • the infrared light emitted from the infrared light source (201) is modulated based on audio information to be output by the audio control unit (202). More specifically, for example, the intensity of the emitted infrared light may be modulated and controlled by changing the driving voltage of the infrared light source (20.1) according to the voltage level of the audio signal.
  • the sound modulated infrared light of the infrared light source array (200) is radiated to a plurality of spot positions in the image.
  • the conversion means (31) and the sound reproduction means (32) see FIG. 1) of the sound reproduction terminal (3), the sound modulation infrared light was received and photoelectrically converted to obtain Electric signals can be reproduced as audio.
  • a solar cell (302) corresponding to the conversion means (31) is provided.
  • the finger-mounted terminal unit (301) is attached to the finger of the terminal user (600), and connected to the solar battery (302) via a cable (not shown) or the like. (300) is attached to the terminal user's ear.
  • the solar cell (600) 302) receives the above-mentioned voice-modulated infrared light applied to the spot position and performs photoelectric conversion.
  • the electric signal obtained by photoelectric conversion is sent to the earphone (300) and output as it is, and the terminal user (600) hears the sound.
  • This sound is, of course, the same as the original sound information.
  • a plurality of terminal users (600) can not only see images projected on the top screen (101) of the table-like body (100), but also Terminal users (600) —Each person can listen to favorite audio information related to the image at any time. In other words, voice information support has been realized for each terminal user (600).
  • the system in order to further promote individualization of voice information support for each user (which can also be called personalization), the system also provides voice information support based on the ID and location of the terminal user or terminal itself. Configuration.
  • FIG. 13 shows an embodiment of voice information support based on ID.
  • (301) see the enlarged conceptual diagram in the figure
  • the table-like body (100) has the image display on the top plate screen (101) on the top plate.
  • Reader / writers (401) are arranged at the four corners that do not disturb, and the output of each reader / writer (401) is connected to the ID authentication unit (400).
  • the reader / writer (401) and the ID authentication unit (400) correspond to the ID detection device (4) (see FIGS. 2 and 7).
  • the solar cell (302) converts the voice-modulated infrared light emitted from the back of the top screen section (101) by the infrared light source array (200) into the top screen section (10).
  • the light receiving surface is oriented downward, and the RF ID tag (303) can communicate with the reader / writer (401) by ID authentication communication
  • the terminal user (600) may turn the finger-mounted terminal (301) upside down on the reader / writer (401).
  • the terminal user (600) approaches the RF ID tag (303) to the reader / writer (401) with the finger-mounted terminal section (301) attached to the finger, the RFID tag (303) and the reader / writer Necessary data communication is performed with (401), and the ID data read by the reader / writer (401) is sent to the ID authentication unit (400). Then, based on the ID data authenticated by the ID authentication unit (400), it is possible to automatically determine what terminal user (600) is currently viewing the image, etc. Voice information suitable for the terminal user (600) can be transmitted via the control unit (202).
  • a voice information database storing voice information corresponding to predetermined ID data, and voice information searching and selecting voice information corresponding to the ID data authenticated by the ID authentication unit (400) from the voice information database. If the selection means is constructed, individual support using voice information can be realized only for terminal users (600) who have the ID data.
  • FIG. 14 shows another embodiment of voice information support based on ID.
  • the finger-mounted terminal section (301) is a part of the RF ID tag (303).
  • the optical ID tag (304) is integrated with the solar cell (302) (see the enlarged conceptual diagram in the figure).
  • the optical ID tag (304) includes an infrared light source (35a) such as an infrared LED beacon that emits infrared light for ID as shown in FIG. 9 and ID storage means such as an ID memory for storing ID data. (35b) and modulation means (35c) such as a modulation circuit for modulating the infrared light for ID according to the ID data.
  • a plurality of infrared sensors (402) that receive infrared light for ID from the optical ID tag (304) and output ID data are arranged at appropriate positions.
  • the output of each infrared sensor (402) is connected to an ID authentication unit (400).
  • the optical ID tag (304) modulates the ID according to its own ID data stored in the optical ID tag (304).
  • the infrared sensor (42) receives it, demodulates it, and extracts the ID bit string.
  • the ID authentication unit (400) receiving the ID bit string authenticates the ID data, and voice information suitable only for the terminal user (600) having the ID data is provided. Originated via voice control (202).
  • FIG. 15 shows an embodiment of voice information support based on position.
  • the finger-mounted terminal section (301) is configured such that a retroreflective sheet (305) corresponding to the reflecting means (36) (see FIG. 10) is disposed integrally with the solar cell (302). (See the enlarged conceptual diagram in the figure).
  • a device integrally including an infrared LED (502) and an infrared camera (501) is disposed at an appropriate position.
  • the infrared LED (502) corresponds to the infrared light source (51) (see FIG. 10) that emits infrared light for position
  • the infrared camera (501) is a reflection sheet (305) of the finger-mounted terminal (301). This corresponds to the infrared imaging means (52) (see FIG. 10) for imaging the position infrared light reflected and returned by.
  • the output of the infrared camera (501) is output to the position detection means (53) (see FIG. 10) for detecting the position of the audio reproduction terminal (3) based on the position infrared light image picked up by the infrared camera (501).
  • the position authentication unit (500) may be incorporated in an integrated housing of the infrared camera (501) and the infrared LED (502), or may be provided as an external unit.
  • the infrared LED (502) constantly emits infrared light for position to almost the entire surface of the top screen (101), and the finger-mounted terminal (301) enters this emission area.
  • the retroreflective sheet (305) is used for positioning. It receives infrared light and reflects it in almost the same direction as the incident direction. This reflected infrared light returns to the infrared camera (501).
  • the infrared camera (501) captures the position infrared light as a bright point through the visible light cut filter, and the position authentication unit (500) that receives this image data detects the camera relative position of the bright point from the frame coordinates by image processing. I do.
  • This detected position is authenticated as the position of the finger-mounted terminal (301) on the top screen (101), and it is automatically determined at which position in the current image the finger-mounted terminal (301) is located. be able to.
  • the coordinates of the position on the top screen (101) where the infrared light source array (200) is irradiating the voice-modulated infrared light are stored in advance in the voice control unit (202).
  • the terminal user (600) By selecting an irradiation position that matches the position coordinates of the finger-mounted terminal section (301) and irradiating the selected irradiation position with the voice-modulated infrared light, the terminal user (600) ) Can transmit voice information to the finger-mounted terminal (301), that is, to the position in the image pointed to by the user's finger.
  • the retroreflective sheet (305) can be composed of, for example, a plurality of recursive corner cubes arranged in a sheet, as described above.
  • the light source array (200) is arranged on the opposite side to the solar cell (302) which emits the voice-modulated infrared light from below, that is, so that the light receiving / reflecting surface faces upward.
  • this voice information support system even more excellent individual voice information support can be realized by combining the voice information support based on the ID and the voice information support based on the position.
  • FIG. 16 shows an embodiment in which the voice information support based on both the ID and the position is performed by combining the embodiments of FIG. 13 and FIG.
  • FIG. 17 is a conceptual diagram for further describing the present embodiment, and will be appropriately referred to in the following description.
  • the infrared light for position is constantly emitted from the infrared LED (502), and the infrared light for position is emitted by the reflection sheet (305) of the finger-mounted terminal section (301) on the top screen section (101).
  • the image is retroreflected to the infrared camera (501) and imaged.
  • the position authentication unit (500) performs position authentication based on the imaged data. In other words, as long as the retroreflected position infrared light is imaged, the finger-mounted terminal (301) can be tracked, that is, tracked (see Fig. 17).
  • ID authentication is performed as described above.
  • the position coordinates of the finger-mounted terminal unit (301) detected and authenticated by the infrared camera (501) and the position authentication unit (500) match the position coordinates of the reader / writer (401). If the location coordinates of (401) are stored in advance, it is possible to automatically determine which reader / writer (401) has performed ID authentication, and to track the finger-mounted terminal (301) and the ID data. (See Fig. 17).
  • the terminal user who has the ID data (600) can transmit voice information suitable only for the terminal user (600) to the position in the image where the user is interested, and the individual voice information support is transmitted to the finger-mounted terminal unit.
  • voice information suitable only for the terminal user (600) to the position in the image where the user is interested, and the individual voice information support is transmitted to the finger-mounted terminal unit.
  • FIG. 18 shows an embodiment in which the voice information support based on both the ID and the position is performed by combining the embodiments of FIGS. 14 and 15 described above.
  • the finger-mounted terminal section (301) intermittently emits infrared light for ID from the optical ID tag (304) at a preset time interval.
  • This ID infrared light reaches two different sensors via separate paths: the infrared sensor (402) and the infrared camera (501).
  • the infrared sensor (402) demodulates the infrared light for ID to extract an ID bit string, and the ID authentication unit (400) performs ID authentication.
  • the infrared camera (501) captures the ID infrared light as a bright spot through a visible light cut filter, and the position authentication unit (500) performs position authentication.
  • the output timing can be known from the change in the luminescent spot. That is, it is possible to synchronize the output of the infrared sensor (402) with the camera image of the infrared camera (501).
  • the infrared LED (502) constantly emits infrared light for position, and this is reflected on the reflection sheet (305) of the finger-mounted terminal section (301) on the top screen (101). ) Is retro-reflected to the infrared camera (501), and its imaging data
  • the location authentication is performed by the location authentication unit (500) based on.
  • the bright spot of the position infrared light, that is, the reflection sheet (305) is unlikely to be lost, unlike the infrared light for ID, so the position of the reflection sheet (305), that is, the position of the finger mounting terminal section (301) is reduced. The position can always be tracked.
  • the ID authenticated by the infrared sensor (402) and the ID authentication unit (400) is converted to the infrared ray.
  • the position can be associated with the position authenticated by the camera (501) and the position authentication unit (500).
  • audio information corresponding to the authenticated ID data is searched and selected, and the infrared light modulated based on the information is moved to a position in the image that matches the authenticated position coordinates of the finger-mounted terminal unit (301).
  • the terminal user (600) having the ID data can transmit sound information suitable only to the terminal user (600) to the position in the image where the user is interested, and This individual voice information support can always be accurately performed during tracking of the finger-mounted terminal section (301).
  • FIG. 19 shows an embodiment in which voice information support is performed based on location authentication using the touch panel.
  • the evening touch panel (503) is provided on the top screen portion (101) of the table-like body (100).
  • the touch panel (503) is transparent so that the image displayed on the top screen (101) can be seen by the terminal user (600) through the evening touch panel (503). In this case, when the terminal user (600) touches the touch panel (503), the position is detected as the position of the finger-mounted terminal section (301).
  • a table-like body (101) having a planar top plate screen portion (101) (although 100) is used, a curved screen portion can be used.
  • a form in which an image is projected from a back surface onto a screen body such as a spherical surface or a hemispherical surface can be considered.
  • FIG. 20 shows an example of a translucent spherical screen body (700) and a projector device (701).
  • a plurality of projection devices (701) are arranged inside a 360-degree spherical screen body (700), and each projector device (701) projects an image on a spherical area assigned to each. I have.
  • an appropriate number of the infrared light sources (201) may be arranged at appropriate positions so that the ⁇ spot position in the image can be irradiated with the voice-modulated infrared light.
  • FIG. 21 shows an example of a CRT display (801) and an infrared light source (800).
  • the infrared light source (800) passes through the phosphor screen (802) of the cathode ray tube display (801) and moves to an appropriate spot position in the image.
  • An appropriate number may be arranged at a position 3 ⁇ 4 ⁇ outside the cathode ray tube (803) so that the voice modulated infrared light can be irradiated.
  • the cathode ray tube (803) is usually provided with an outer coating and an inner coating, for example, the coating on a portion through which infrared light is to be transmitted is cut off, or a material that transmits infrared light is used. However, it is necessary to ensure that infrared light can sufficiently pass through both coatings.
  • the present invention is not limited to the example shown in FIG.
  • FIG. 22 shows an example of a transmissive liquid crystal display (805) and an infrared light source (804).
  • (806) is a backlight light source
  • (807) is a polarizing filter
  • (808) is a glass substrate
  • (809) is a transparent electrode
  • (810) is a liquid crystal layer
  • (811) is a color filter
  • (812) is a glass substrate
  • (813) is a polarizing filter
  • (814) is a display surface.
  • an appropriate number of infrared light sources (804) may be arranged at appropriate positions so as to transmit sound modulation infrared light to appropriate spot positions on the display surface (814) through each layer. Just fine.
  • a material that transmits infrared light may be used at an appropriate portion of each layer.
  • the present invention is not limited to the example shown in FIG.
  • FIG. 23 shows an example of a plasma display (816) and an infrared light source (815).
  • (817) is a glass substrate on the back
  • (818) is an address electrode (also referred to as a data electrode)
  • (819) is a phosphor
  • (820) is a partition
  • (822) is a display electrode (scanning electrode).
  • (822) a dielectric layer
  • (823) a front glass substrate.
  • an appropriate number of infrared light sources (815) are arranged at appropriate positions so that sound modulation infrared light can be transmitted through each layer and applied to appropriate spot positions on the glass substrate (823) on which images are displayed. You should let it.
  • a material that transmits infrared light may be used for the Ml portion of each layer.
  • the present invention is not limited to the example shown in FIG.
  • FIG. 24 shows an example of a transparent electroluminescent display (825) and an infrared light source (824).
  • (826) is a glass substrate
  • (827) is a transparent electrode
  • (828) is a fiber layer
  • (829) is a light emitting layer
  • (830) is a fiber layer
  • (831) is a glass substrate.
  • the infrared light source (824) An appropriate number may be disposed at an appropriate position so that sound-modulated infrared light can be applied to an appropriate spot position on the glass substrate (831) through the layer.
  • a material that transmits infrared light may be used at an appropriate position in each layer.
  • the present invention is not limited to the example shown in FIG.
  • FIG. 25 (a) and (b) show a flat and spherical light-emitting diode display (833) with multiple light-emitting diode panels (834) and an infrared light source (832), respectively.
  • FIG. The light emitting diode panel (834) is a panel body having a plurality of small LEDs (835) in an array, and a plurality of these are connected in series to form a flat or spherical light emitting diode display (834). 3) is configured.
  • the infrared light source (832) may be installed in each light emitting diode panel (834) itself together with other small LEDs, or may be installed in the gap between the light emitting diode panels (8324). It is sufficient if the position can be irradiated with voice-modulated infrared light.
  • the present invention is not limited to the example shown in FIG.
  • infrared light sources may be provided at appropriate positions so that sound-modulated infrared light can be applied to appropriate spot positions on the image display surface.
  • a plurality of infrared light sources (800), (804), (815) and (824) are separately arranged.
  • a surface-emitting light source typified by may be provided at the position 3 ⁇ 4g.
  • each infrared light source is arranged in the same number as each position in the image to be irradiated, but the irradiation direction of each infrared light should be directed to each position in the image. If change control is possible, the number of irradiation positions in the image and the number of light sources may not be the same, and the number of light sources may be smaller than the number of positions or may be only one light source.
  • the sound modulation infrared light is emitted from the back side of the image display surface, that is, the side opposite to the image display surface.
  • the sound modulation infrared light may be emitted from the image display surface side.
  • FIG. 26 and FIG. 27 each show an example of this case, and an infrared light source (201) is arranged above the top plate screen (101).
  • Fig. 26 shows the same number of light sources as the number of irradiation positions.
  • Fig. 27 shows that each infrared light source (201) can control the irradiation direction by pan-tilt drive as described above. The number of light sources is smaller than the number of positions.
  • each infrared light source (201) itself can be a collection of multiple infrared LEDs .
  • the electromagnetic wave irradiation means (22) of the audio output device (2) in addition to the infrared light source (201), various light sources that output other light such as visible light may be used.
  • LEDs not only LEDs but also lasers can be used as the light source, and further, a mode in which light from these is irradiated to each spot position in the image through an optical cable such as an optical fiber can be considered.
  • the finger-mounted terminal section (301) including the sun (302), the RF ID tag (303), the optical ID tag (304), and the reflection sheet (305) ) Can be worn on the finger of the terminal user (600), but may be a body-worn terminal that can be worn on a part of the body, such as a hand or foot, instead of the finger. Anything that can touch or approach the spot position in the displayed image can be used. Therefore, not only the object that can be attached to a part of the body as described above, but also an object that can be attached to the pointing rod (900) of the terminal user (600) as shown in FIG. Can be considered.
  • a rod-mounted terminal (901) is attached to the tip of an extendable pointing rod (900) so that it can be attached and detached, and this rod-mounted terminal (901) is attached to the pointing rod (9).
  • an audio playback terminal (903) such as an earphone, headphone, or speaker via a conducting wire (902) (which may pass outside) through the inside, and from a solar cell (not shown). Is reproduced as audio.
  • earphones or headphones as the sound reproduction terminal unit (903) can be worn on the ears of the terminal user (600), and speakers can be carried by the terminal user (600).
  • This voice information support system can also be applied as a voice guide system for the visually impaired.
  • a small hole (1000) should be provided at each irradiation position on the image display surface, as shown in Fig. 29, for example. It may be. According to this, a visually impaired person can know the irradiation position by touching the hole (1000), and can receive voice information support appropriately.
  • a bit string indicating that the person is visually impaired is embedded in the ID data, it can be determined at the time of ID authentication, and voice information suitable for the visually impaired can be provided according to the determination.
  • voice information suitable for the visually impaired can be provided according to the determination.
  • the direction of the finger or the pointing stick from the irradiation position in the image or the hole (1000) above to determine the next irradiation position or hole (1000) You can also navigate around. For example, you will be able to give voice instructions such as "The next hole is slightly to the right of it.” "There is a hole a little ahead of it. Of course, this navigation can be applied to healthy people.
  • the infrared camera (501) and the infrared LED (502) for performing position authentication are disposed above the top screen unit (101).
  • the reflection sheet (305) is provided on the same side as the solar cell (301) so as to receive and retroreflect the position infrared light from below (see the enlarged view in the figure).
  • the image display device (1) What is equivalent to the clean means (11) (table (100) or spherical screen (700) having the top plate screen (101)) is a clean flat or curved image without any irregularities. Although it has a display surface, it is also possible to use a screen means (11) having an uneven image display surface formed by combining flat surfaces and curved surfaces. FIG. 31 shows an example of this case. A three-dimensional map is displayed by projecting an image from a projector device (1101) onto a three-dimensional screen body (1100) having an uneven image display surface and displaying the three-dimensional map. A sound-modulated infrared light is emitted from an infrared light source (1102) to an appropriate position inside.
  • the image display device (1) is not limited to the one including the various screen means (11) and the image projection means (12) as in the above embodiment, but displays an image. Any device can be used. For example, a device in which an image is applied or printed on the screen itself and which can transmit the electromagnetic wave represented by the infrared light can be used as the audio information support system of the invention of this application. Can be applied to Industrial applicability
  • the user can point to or touch the position by simply pointing to or touching the position.
  • a completely new voice information support system that can easily hear voice information and realize voice information support individually corresponding to each user watching an image is provided.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Optical Communication System (AREA)
  • User Interface Of Digital Computer (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Headphones And Earphones (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)

Abstract

画像を表示する画像表示装置(1)、画像表示装置(1)により表示されている画像中の任意位置に向けて、音声情報を基に変調した電磁波を出力する音声出力装置(2)、および前記画像中の位置にて前記電磁波を受信して電気信号に変換し、当該電気信号を音声再生する音声再生端末(3)を具備し、映像を見ているユーザ一人一人に個別に対応した音声情報支援を実現することのできる音声情報支援システムを提供する。

Description

明細書 音声情報支援システム 技術分野
この出願の発明は、 音声情報支援システムに関するものである。 さらに詳しく は、 この出願の発明は、 スクリーン等に表示されている画像を見ているユーザー 人一人に個別に対応した音声情報支援を実現することのできる、 新しい音声情報 支援システムに関するものである。
従来、 テーブル天板部にスクリーンを組み込み、 その背面下方からプロジェク タにより映像を投射するようにした情報システムが知られている (特許文献 1参 照)。この情報システムによれば、テーブルを囲んで多くのユーザが同時に映像を 見ることが可能になるとしている。
特許文献 1 :特開 2 0 0 1— 7 5 7 3 3号公報
しかしながら、 上記特許文献 1記載の情報システムでは、 ユーザはテーブル上 に映し出される映像を見ることができるだけで、 その映像に関連した音声 (声や 音楽、 信号音など。 以下同じ) については各ユーザが個別に好きなときに好きな 音声情報を聞けるようにはなっていない。 もちろん映像とともに音声を出力する 態様も上記特許文献 1では提案されているが、 テ一ブルを囲んだユーザ全員に対 して音声情報をスピーカから流しており、 常に全員が同じ音声を聞くことになる だけである。
すなわち、 映像を見ているユーザ一人一人が 「いま、 ここで、 私が」 欲しい音 声情報を取得できるといった、 各ユーザに個別に対応した音声情報支援は実現さ れていないのである。 発明の開示 そこで、 この出願の発明は、 以上のとおりの事情に鑑み、 スクリーンや各種デ イスプレイ上の画像 (静止画および動画を問わない。 以下同じ) を見ているュ一 ザ一人一人に個別に対応した音声情報支援を実現することのできる、 全く新しい 音声情報支援システムを提供することを課題としている。
この出願の発明は、 上記の課題を解決するものとして、 第 1には、 図 1にその 機能ブロック図を例示したような、画像を表示する画像表示装置(1)、画像表示 装置 (1) により表示されている画像中の 1つまたは複数の位置に向けて、 音声 情報を基に変調した電磁波を出力する音声出力装置(2)、および、前記画像中の 位置にて前記電磁波を受信し電気信号に変換する変換手段 (31) と、 当該変換 手段 (31) により得られた電気信号を音声再生する音声再生手段 (32) とを 有する音声再生端末(3)、を備えたことを特徴とする音声情報支援システムを提 供する。
第 2には、 図 2にその機能ブロック図を例示したような、 画像を表示する画像 表示装置(1)、画像表示装置(1)により表示されている画像中の 1つまたは複 数の位置に向けて、 音声情報を基に変調した電磁波を出力する音声出力装置 (2 )、前記画像中の位置にて前記電磁波を受信し電気信号に変換する変換手段 (31 ) と、 当該変換手段 (31) により得られた電気信号を音声再生する音声再生手 段 (32) と、 IDを発信する ID発信手段 (33) とを有する音声再生端末 ( 3)、 および、音声再生端末 (3) の ID発信手段(33) により発信された ID を検出する I D検出装置(4)、を備えたことを特徴とする音声情報支援システム を提供する。
第 3には、 図 3にその機能ブロック図を例示したような、 画像を表示する画像 表示装置(1)、画像表示装置 (1)により表示されている画像中の 1つまたは複 数の位置に向けて、 音声情報を基に変調した電磁波を出力する音声出力装置 (2 )、前記画像中の位置にて前記電磁波を受信し電気信号に変換する変換手段 ( 31 ) と、 当該変換手段 (31) により得られた電気信号を音声再生する音声再生手 段(32) とを有する音声再生端末(3)、 および'、 音声再生端末 (3)の位置を 検出する位置検出装置(5)、を備えたことを特徵とする音声情報支援システムを 提供する。
第 4には、 図 4にその機能ブロック図を例示したような、 画像を表示する画像 表示装置(1)、画像表示装置 (1)により表示されている画像中の 1つまたは複 数の位置に向けて、 音声情報を基に変調した電磁波を出力する音声出力装置 (2 )、前記画像中の位置にて前記電磁波を受信し電気信号に変換する変換手段 (31 ) と、 当該変換手段 (31) により得られた電気信号を音声再生する音声再生手 段 (32) と、 IDを発信する ID発信手段 (33) とを有する音声再生端末 ( 3)、音声再生端末 (3)の ID発信手段(33)により発信された IDを検出す る I D検出装置(4)、 および、音声再生端末 (3)の位置を検出する位置検出装 置 (5)、 を備えたことを特徵とする音声情報支援システムを提供する。
また、 第 5には、 図 5にその機能ブロック図を例示したような、 前記画像表示 装置 (1) は、 画像を表示するスクリーン手段 (11) と、 当該スクリーン手段 に対して画像を投射する画像投射手段 (12) とを有していることを特徴とする 音声情報支援システム、 第 6には、 前記スクリーン手段 (11) は、 その画像表 示面が平面状、 曲面状または凹凸面状のものであることを特徵とする音声情報支 援システム、 第 7には、 前記スクリーン手段 (11) は、 その画像表示面が透光 性のものであることを特徵とする音声情報支援システム、 第 8には、 前記画像投 射手段 (12) は、 前記スクリーン手段 (11) に対してその画像表示面側から 画像を投射することを特徴とする音声情報支援システム、 第 9には、 前記画像投 射手段 (12) は、 前記スクリーン手段 (11) に対してその画像表示面とは反 対面側から画像を投射することを特徴とする音声情報支援システム。
また、 第 10には、 前記画像表示装置 (1) は、 ブラウン管ディスプレイであ ることを特徴とする音声情報支援システム、 第 11には、 前記画像表示装置 (1
) は、 フラットパネルディスプレイであることを特徴とする音声情報支援システ ム、 第 12には、 前記フラットパネルディスプレイは、 液晶ディスプレイ、 ブラ ズマディスプレイ、 エレクトロルミネセンスディスプレイ、 発光ダイオードディ スプレイ、 蛍光表示管ディスプレイ、 電解放出ディスプレイのいずれかであるこ とを特徴とする音声情報支援システムを提供する。 また、 第 13には、 図 6にその機能ブロック図を例示したような、 前記音声出 力装置 (2) は、 音声情報を基に電磁波を変調する変調手段 (21) と、 変調手 段 (21) により変調された電磁波を前記画像中の位置に向けて照射する電磁波 照射手段 (22) とを有していることを特徵とする音声情報支援システム、 第 1 4には、 前記電磁波照射手段 (22) は、 電磁波を出力する電磁波源を有してい ることを特徵とする音声倩報支援システム、 第 15には、 前記電磁波源は、 前記 画像中の複数位置それぞれに対応して配設されている複数のものであることを特 徵とする音声情報支援システム、 第 16には、 前記電磁波源は、 前記画像中の複 数位置に向けて照射方向を変更することのできる 1つまたは複数のものであるこ とを特徵とする音声情報支援システム、 第 17には、 前記電磁波源は、 電磁波と しての光を出力する光源であることを特徵とする音声情報支援システム、 第 18 には、 前記光源は、 発光ダイオードまたはレーザであることを特徴とする音声情 報支援システム、 第 19には、 前記光源からの光を光ケーブルを通して前記画像 中の位置に照射することを特徵とする音声情報支援システムを提供する。
また、 第 20には、 前記音声再生端末 (3) の前記変換手段 (31) は、 前記 電磁波照射手段の前記光源からの光を受光して光電変換する光電変換手段である ことを特徴とする音声情報支援システム、 第 21には、 前記光電変換手段は、 太 陽電池であることを特徴とする音声情報支援システム、 第 22には、 前記音声再 生端末 (3) の前記変換手段 (31) は、 端末ュ一ザの身体の一部に装着可能と なっていることを特徵とする音声情報支援システム、 第 23には、 前記身体の一 部が手または足であることを特徴とする音声情報支援システム、 第 24には、 前 記音声再生端末 (3) の前記変換手段 (31) は、 端末ユーザが持つ指示棒に装 着可能となっているまたは組み込まれていることを特徵とする音声情報支援シス テム、 第 25には、 前記音声再生端末 (3) の前記音声再生手段 (32) は、 ィ ャホンもしくはへッドホンまたはスピーカであることを特徵とする音声情報支援 システム、 第 26には、 前記音声再生端末 (3) は、 別体の駆動電源を必要とし ない無電源端末であることを特徴とする音声情報支援システムを提供する。 また、 第 27には、 図 7にその機能ブロック図を例示したような、 前記音声再 生端末 (3) の前記 ID発信手段 (33) は、 RFIDタグ (34) であり、 前 記 ID検出装置 (4) は、 当該 RF IDタグ (34) との間で I D認証通信を行 うリーダライタ (41) であることを特徴とする音声情報支援システム、 第 28 には、 図 8にその機能ブロック図を例示したような、 前記音声再生端末 (3) の ID発信手段 (33) は、 光 IDタグ (35) であり、 前記 I D検出装置 (4) は、 当該光 IDタグ (35) が発する ID用赤外光を受光して IDデ一夕を出力 する赤外線センサ (42) であることを特徴とする音声情報支援システム、 第 2 9には、 図 9にその機能ブロック図を例示したような、 前記光 IDタグ (35) は、 ID用赤外光の赤外線光源 (35 a) と、 IDデータを記憶する ID記憶手 段 (35 b) と、 I Dデータに応じて I D用赤外光を変調する変調手段 (35c ) とを有しており、 前記赤外線センサ (42) は、 当該光 IDタグ (35) によ り変調されて発信された I D用赤外光を受光して I Dデータを出力する、 ことを 特徵とする音声情報支援システムを提供する。
そして、 第 30には、 図 10にその機能ブロック図を例示したような、 前記位 置検出装置 (5) は、 位置用赤外光の赤外線光源 (51) と、 前記音声再生端末 (3) により反射されて戻されてきた位置用赤外光を撮像する赤外線撮像手段 ( 52) と、 赤外線撮像手段 (52) により撮像された位置用赤外光像に基づいて 音声再生端末 (3) の位置を検出する位置検出手段 (53) とを有しており、 前 記音声再生端末. (3) は、 前記位置検出装置 (5) により発信された位置用赤外 光を反射させる反射手段 (36) を有している、 ことを特徴とする音声情報支援 システム、 第 31には、 前記位置検出装置 (5) は、 前記画像表示装置 (1) の 画像表示面に設けられたタッチパネルと、 端末ユーザが蝕れた当該夕ッチパネル の位置に基づいて前記音声再生端末 (3) の位置を検出する位置検出手段とを有 していることを特徵とする音声情報支援システムを提供する。 図面の簡単な説明
図 1は、 この出願の発明を説明するための機能ブロック図である。
図 2は、 この出願の発明を説明するための機能ブロック図である。 図 3は、 この出願の発明を説明するための機能ブロック図である。
図 4は、 この出願の発明を説明するための機能プロック図である。
図 5は、 この出願の発明を説明するための機能ブロック図である。
図 6は、 この出願の発明を説明するための機能プロック図である。
図 7は、 この出願の発明を説明するための機能ブロック図である。
図 8は、 この出願の発明を説萌するための機能プロック図である。
図 9は、 この出願の発明を説明するための機能プロック図である。
図 1 0は、 この出願の発明を説明するための機能ブロック図である。
図 1 1は、 この出願の発明の一実施形態を示した模式図である。
図 1 2は、 この出願の発明の別の一実施形態を示した模式図である。
図 1 3は、 I D認証を行う場合のこの出願の発明の一実施形態を示した模式図 である。
図 1 4は、 I D認証を行う場合のこの出願の発明の別の一実施形態を示した模 式図である。
図 1 5は、 位置認証を行う場合のこの出願の発明の一実施形態を示した模式図 である。
図 1 6は、 I D認証および位置認証を行う場合のこの出願の発明の一実施形態 を示した模式図である。
図 1 7は、 図 1 6の実施形態を説明するための図である。
図 1 8は、 I D認証および位置認証を行う場合のこの出願の発明の別の一実施 形態を示した模式図である。
図 1 9は、 位置認証を行うこの出願の発明のさらに別の一実施形態を示した模 式図である。
図 2 0は、 球面スクリーン体を用いる場合の一例を示した模式図である。 図 2 1は、 ブラウン管ディスプレイを用いる場合の一例を示した模式図である 図 2 2は、 液晶ディスプレイを用いる場合の一例を示した模式図である。 図 2 3は、 プラズマディスプレイを用いる場合の一例を示した模式図である。 図 24は、 エレクトロルミネセントディスプレイを用いる場合の一例を示した 模式図である。
図 25 (a) (b) は、 各々、 平面体および求面体発光ダイオードディスプレイ を用いる場合の一例を示した模式図である。
図 26は、 赤外線光源を天板スクリーン部の上方に配設した場合の一例を示し た模式図である。
図 27は、 赤外線光源を天板スクリーン部の上方に配設した場合の別の一例を 示した模式図である。
図 28は、 指示棒の一例を示した模式図である。
図 29は、 画像表示面の一例を示した模式図である。
図 30は、 位置認証の別の一実施形態を示した模式図である。
図 31は、 立体スクリーン体の一例を示した模式図である。 発明を実施するための最良の形態
[第 1の実施形態]
図 11および図 12はこの出願の発明の一実施形態を示したものである。
これら図 11および図 12に示した実施形態では、 まず、 前記画像表示装置 ( 1) として、 前記スクリーン手段 (11) に相当するテーブル状体 (100) と 前記画像投射手段 (12) に相当するプロジェクタ装置 (102) とを備えてい る。
より具体的には、 テーブル状体 (100) は平面で且つ透光性の天板スクリ一 ン部 (101) を有し、 プロジェクタ装置 (102) は、 この天板スクリーン部 (101) の画像表示面とは反対の背面側から画像を投射するように、 天板スク リーン部 (101) の下方に設置されている。 図 11では、 プロジェクタ装置 ( 102) を一つ用いて、 天板スクリーン部 (101) —面に画像を投射するもの となっており、 図 12では、 プロジェクタ装置 (102) を二つ配設し、 天板ス クリーン部 (101) を二画面に分割してそれぞれに画像投射するものとなって いる。 図 12におけるプロジェクタ装置 (102) は、 プロジェクタ本体 (10 3) およびそれからの投射画像を上方へ屈折させて天板スクリーン部 (101) 背面へ導く鏡等の光学系 (104) を有している。
次いで、 前記音声出力装置 (2) としては、 前記電磁波照射手段 (22) に相 当する複数の赤外線光源 (201) 力^なる赤外線光源アレイ (200) を、 天 板スクリーン部 (101) の下方に備え、 また前記変調手段 ( 1) に相当する 機能を有する音声コントロール部 (202) を備えている。
より具体的には、 赤外線光源アレイ (200) の各赤外線光源 (201) は、 天板スクリーン部 (101) に表示されている画像中の複数の位置それぞれに対 応してアレイ状に配設されており、 天板スクリーン部 (101) の背面から画像 中の各位置へ、 音声コントロール部 (202) により音声情報を基に変調された 赤外線を照射するようになっている。 図 12では、 天板スクリーン部 (101) に分割表示されている二つの画像合わせて 6 X 16のスポット位置を設定して、 これら各スポット位置に対応させた 6 X 16の赤外線光源 (201) を配設して レる。 また、 プロジェクタ装置 (102) (プロジェクタ本体 (103) および光 学系(104)) による天板スクリーン部(101)への画像投射の邪魔にならな いように、 投射領域を空けている。
このような赤外線光源 (201) から出射される赤外光は、 音声コントロール 部 (202) によって出力すべき音声情報を基に変調されたものとなっている。 より具体的には、 たとえば、 音声信号の電圧レベルに応じて赤外線光源 (20.1 ). の駆動電圧を変化させることにより、 出射赤外光の強度を変調制御すればよい さて、 以上のように天板スクリーン部 (101) にプロジェクタ装置 (102 ) からの投射画像が表示され、 且つその画像中の複数スポット位置に赤外線光源 アレイ (200) 力らの音声変調赤外光が照射されている状態において、 前記音 声再生端末 (3) の前記変換手段(31)および前記音声再生手段(32) (図 1 参照) を用いることで、 音声変調赤外光を受信して光電変換し、 得られた電気信 号を音声として再生できるようになる。
本実施形態では、 この変換手段 (31) に相当する太陽電池 (302) を備え た指装着端末部 (301) を端末ユーザ (600) の指に装着させ、 その太陽電 池 (302) にケーブル (図示なし) 等を介して結線させた音声再生手段 (32 ) に相当するイヤホン (300) を端末ユーザの耳に装着させるようにしている 。 これにおいて、 端末ユーザ (600) が自分の指を画像中の任意のスポット位 置に近づける、 より具体的には指に装着している太陽電池 (302) をスポット 位置に近づけると、 太陽電池 (302) がそのスポット位置に照射されている上 記音声変調赤外光を受光して光電変換する。 光電変換により得られた電気信号は イヤホン (300) に送られてそのまま音声出力され、 端末ユーザ (600) は その音声を聞くことになる。 この音声は、 当然元の音声情報と同じものである。 以上の本実施形態の音声情報支援システムによれば、 複数の端末ユーザ (60 0) がテーブル状体 (100) の天板スクリーン部 (101) 上に映し出される 画像を見ることができるだけでなく、 端末ユーザ (600) —人一人がその画像 に関連した好きな音声情報を好きなときに聞くことができるようになる。 すなわ ち、 各端末ユーザ (600) に個別に対応した音声情報支援が実現されているの である。
[第 2の実施形態]
この音声情報支援システムにおいては、 各ユーザに対する音声情報支援の個別 化 (プライベート化とも呼べる) をさらに推し進めるべく、 端末ユーザまたは端 末自体の I Dおよび位置に基づいた音声情報支援を行うようにもシステム構成で さる。
まず、 図 13は、 IDに基づく音声情報支援についての一実施形態を示したも のである。
この図 13の実施形態では、 上記太陽電池 (302) と前記 ID発信手段 (3 3) (図 2、 7参照) に相当する RF IDタグ(303) とが一体配置された指装 着端末部(301) (図中の拡大概念図を参照)が用いられており、一方でテ一ブ ル状体 (100) には、 その天板上の天板スクリーン部 (101) での画像表示 の邪魔にならない 4隅部にリーダライタ (401) が配設されており、 且つ各リ 一ダライタ (401) の出力は ID認証部 (400) に結線されている。 本実施 形態ではこれらリーダライタ (401) および ID認証部 (400) が前記 ID 検出装置 (4) (図 2、 7参照) に相当する。 指装着端末部 (301) において、 太陽電池 (302) は、 上記赤外線光源アレイ (200) によって天板スクリー ン部 (101) の背面から照射される音声変調赤外光を天板スクリーン部 (10 1) 上にて受光するために、 受光面が下方を向くように配置されていることが好 ましく、 また RF I Dタグ (303) は、 リ一ダライタ (401) との I D認証 通信が可能であればよいので、 たとえば太陽電池 (302) とは反対側に設けら れていても同じ側に設けられていてもよい(図中の拡大概念図を参照)。反対側配 置の場合、 端末ユーザ (600) はリーダライタ (401) 上で指装着端末部 ( 301) を裏返せばよい。
これにおいて、 端末ユーザ (600) が、 指装着端末部 (301) を指に装着 した状態でその RF IDタグ (303) をリ一ダライタ (401) に近づけると 、 RFIDタグ (303) とリーダライタ (401) との間で必要なデータ通信 が行われて、 リーダライタ (401) で読み取られた IDデ一夕が ID認証部 ( 400) に送られる。 そして、 ID認証部 (400) で認証された IDデータに 基づいて、 現在どのような端末ユーザ (600) が画像を見ているのかなどを自 動判別することができ、 さらにはその判別に従って音声コントロール部 (202 ) を介して端末ユーザ (600) に適した音声情報を発信するようにすることも できる。
このとき、 たとえば、 所定の IDデータに対応させた音声情報を記憶した音声 情報データベースと、 ID認証部 (400) により認証された IDデータに対応 した音声情報を音声情報データベースから検索選出する音声情報選出手段とを構 築しておけば、 その IDデータを持つ端末ユーザ (600) にのみ対応した音声 情報による個別支援を実現できる。
[第 3の実施形態]
図 14は、 IDに基づく音声情報支援についての別の一実施形態を示したもの である。
本実施形態では、 指装着端末部 (301) は、 上記 RF IDタグ (303) の 代わりに、 光 IDタグ (304) が太陽電池 (302) と一体配置されたものと なっている (図中の拡大概念図を参照)。 この光 I Dタグ(304) は、前記図 9 に示したように I D用赤外光を発する赤外線 LEDビーコン等の赤外線光源 (3 5 a) と、 IDデータを記憶する IDメモリ等の ID記憶手段 (35 b) と、 I Dデ一夕に応じて I D用赤外光を変調する変調回路等の変調手段 (35 c) とを 有している。 一方、 テーブル状体 (100) の上方には、 光 IDタグ (304) からの ID用赤外光を受光して IDデータを出力する赤外線センサ (402) 複 数が適宜位置に配設されており、 且つ各赤外線センサ (402) の出力は ID認 証部 (400) に結線されている。
これにおいては、 端末ユーザ (600) が指装着端末部 (301) を指に装着 した状態にて、 その光 IDタグ (304) が記憶している自己の IDデータに応 じて変調した ID用赤外光を発光すると、 赤外線センサ (42) がそれを受光し 復調して I Dビット列を取り出す。 後は上記図 13の実施形態と同様に、 この I Dビット列を受けた ID認証部 (400) が IDデータを認証し、 この IDデ一 夕を持つ端末ユーザ (600) にのみ適した音声情報が音声コントロール部 ( 2 02) を介して発信される。
[第 4の実施形態]
続いて、 図 15は、 位置に基づく音声情報支援についての一実施形態を示した ものである。
本実施形態においては、指装着端末部(301) は、 前記反射手段 (36) (図 10参照) に相当する再帰型の反射シート (305) が太陽電池 (302) と一 体配置されたものとなっている (図中の拡大概念図を参照)。
一方、 テープレ状体 (100) の上方には、 赤外線 LED (502) および赤 外線カメラ (501) を一体に備えたものが適宜位置に配設されている。 赤外線 LED (502) は位置用赤外光を発光する前記赤外線光源( 51 ) (図 10参照 ) に相当し、 赤外線カメラ (501) は上記指装着端末部 (301) の反射シー ト (305) により反射されて戻されてきた位置用赤外光を撮像する前記赤外線 撮像手段(52) (図 10参照) に相当するものである。再帰型の反射シート (3 05) は受光した光を入射方向と同方向に反射するものであるので、 反射されて 戻されてきた赤外光を的確に撮像するために赤外線カメラ (501) と赤外線 L ED (502) とは近接配置させて一体構成〖こしている。 そして赤外線カメラ ( 501) の出力は、 赤外線カメラ (501) により撮像された位置用赤外光像に 基づいて音声再生端末 (3)の位置を検出する前記位置検出手段(53) (図 10 参照) に相当する位置認証部 (500) に結線されている。 位置認証部 (500 ) は、 赤外線カメラ (501) と赤外線 LED (502) の一体型筐体の中に組 み込まれていても、 外部別体として設けられていてもよい。
これにおいて、 赤外線 LED (502) からは位置用赤外光が天板スクリーン 部 (101) の略全面に対して常時出射されており、 この出射領域内に指装着端 末部 (301) が入ると、 つまり端末ユーザ (600) が自己の指に装着した指 装着端末部 (301) を天板スクリーン部 (101) 上に持っていくと、 その再 帰型の反射シート (305) が位置用赤外光を受光して入射方向とほぼ同方向に 反射する。 この反射赤外光は赤外線カメラ (501) に再帰する。 赤外線カメラ (501) は可視光カツトフィルタを通して位置用赤外光を輝点として撮像し、 この画像データを受けた位置認証部 (500) がフレーム座標から輝点のカメラ 相対位置を画像処理により検出する。 この検出位置が天板スクリーン部 (101 ) 上での指装着端末部 (301) の位置として認証されて、 現在画像中のどの位 置に指装着端末部 (301) があるかを自動判別することができる。 そして、 赤 外線光源アレイ (200) が音声変調赤外光を照射している天板スクリーン部 ( 101) 上の位置の座標を予め音声コント口一ル部 (202) に記憶させておき 、 その照射位置の中から上記指装着端末部 (301) の位置座標と一致するもの を選択し、 選択した照射位置に対して音声変調赤外光を照射するようにすれば、 端末ュ一ザ (600) がその指装着端末部 (301) でつまり自分の指で指し示 している画像中の位置に対して音声情報を発信できるようになる。
なお、 再帰型の反射シート (305) については、 たとえば、 再帰型コーナー キューブをシ一ト状に複数配置したもので構成することができ、 上記のとおり赤 外線 LED (502) による上方からの位置用赤外光を受光するために、 赤外線 光源アレイ (200) による下方からの音声変調赤外光を する太陽電池 (3 02) とは反対側に、 つまり受光反射面が上方を向くように、 配置されているこ とが好ましい。
[第 5の実施形態]
この音声情報支援システムではさらに、 上記 IDに基づく音声情報支援および 位置に基づく音声情報支援を組み合わせることで、 より一層優れた個別音声情報 支援を実現することもできる。
図 16は、 上記図 13および図 15の実施形態を組み合わせて、 I Dおよび位 置の両方に基づく音声情報支援を行う一実施形態を示したものである。 なお図 1 7は本実施形態をさらに説明するための概念図であり、 下記説明にて適宜参照す る。
本実施形態では、 まず、 赤外線 LED (502) から位置用赤外光が常時出射 されており、 それが天板スクリーン部 (101) 上の指装着端末部 (301) の 反射シート (305) により赤外線カメラ (501) へ再帰反射されて撮像され 、 位置認証部 (500) にてその撮像データに基づいた位置認証が行われる。 す なわち、 再帰反射された位置用赤外光を撮像している限り、 指装着端末部 (30 1) を追跡つまりトラッキングできるのである (図 17参照)。
一方、 端末ユーザ (600) が指装着端末部 (301) の RF I Dタグ (30 3) を天板上のある一つのリーダライタ (401) に近づけると、 上記のとおり に ID認証が行われる。 このとき、 赤外線カメラ (501) および位置認証部 ( 500) により検出認証された指装着端末部 (301) の位置座標はリーダライ 夕 (401) の位置座標と一致することになるので、 各リーダライタ (401) の配設位置座標を予め記憶させておけば、 どのリーダライタ (401) で ID認 証が行われたかを自動判別でき、 トラッキングしている指装着端末部 (301) と IDデータとを対応付けることができる (図 17参照)。
そして、 上記認証された IDデータに対応した音声情報を検索選択し、 それに 基づいて変調した赤外光を、 上記認証された指装着端末部 (301) の位置座標 と一致する画像中の位置へ照射させることで、 当該 I Dデータを持つ端末ユーザ (600) がまさに興味を示している画像中の位置に対してその端末ユーザ (6 00) にのみ適した音声情報を発信することができ、 かつ、 この個別音声情報支 援を指装着端末部 (301) のトラッキング中、 常に的確に行うことができる ( 図 17参照)。
図 17の一例について説明すると、 ある一人が日本人で、 ある一人が外国人で あると I D認証により判別された場合、 それぞれが I D認証通信を行ったリーダ ライタ (401) の位置からトラッキングを行い (ID認証とトラッキング開始 (撮像開始)を同期させればよい)、 日本人に対してはその指装着端末部(301 ) を天板スクリーン部 (101) 上を動かしている間常に画像中のどのスポット 位置でも日本語音声情報が提供され、 外国人に対しては同様に外国語音声情報が 提供されるようになる。
[第 6の実施形態]
図 18は、 上記図 14および図 15の実施形態を組み合わせて、 I Dおよび位 置の両方に基づく音声情報支援を行う一実施形態を示したものである。
本実施形態では、 まず、 指装着端末部 (301) が、 光 IDタグ (304) か ら I D用赤外光を予め設定した時間間隔で断続的に出射する。 この I D用赤外光 は、 別々の経路を経て二つの異なるセンサつまり赤外線センサ (402) および 赤外線カメラ (501) に到達する。 赤外線センサ (402) では上記のとおり に ID用赤外光を復調して IDビット列を取り出し、 ID認証部 (400) にて I D認証が行われる。 赤外線カメラ (501) では可視光カツトフィルタを通し て ID用赤外光を輝点として捕らえ、 位置認証部 (500) にて位置認証が行わ れる。 このとき、 赤外光発光は上記既定時間間隔をおいて繰り返されているので 、 輝点の変化からその出力タイミングを知ることができる。 すなわち、 赤外線セ ンサ (402) の出力と赤外線カメラ (501) によるカメラ画像を同期させる ことか'できるのである。
一方、 上記のとおり、 赤外線 LED (502) からは位置用赤外光を常時出射 しており、 これを天板スクリーン部 (101) 上の指装着端末部.(301) の反 射シート (305) が赤外線カメラ (501) へ再帰反射させ、 その撮像データ に基づき位置認証部 (500) にて位置認証が行われる。 この位置用赤外光つま り反射シート (305) の輝点は上記 ID用赤外光のものとは異なりロストしに くいので、 反射シート (305) の位置つまり指装着端末部 (301) の位置を 常に追跡しておくことができる。 したがって、 反射シート (305) の輝点の近 傍に光 I Dタグ (304) の輝点が現れれば、 上記赤外線センサ (402) およ び ID認証部 (400) によって認証された IDを上記赤外線カメラ (501) および位置認証部 (500) によって認証された位置に対応付けることができる 。 すなわち、 指装着端末部 (301) を常に追跡つまりトラッキングしながら、 断続的に検出される I D情報と位置情報とを対応付けることができるのである。 そして、 上記認証された IDデータに対応した音声情報を検索選択し、 それに 基づいて変調した赤外光を、 上記認証された指装着端末部 (301) の位置座標 と一致する画像中の位置へ照射させることで、 当該 I Dデータを持つ端末ユーザ (600) がまさに興味を示している画像中の位置に対してその端末ユーザ (6 00) にのみ適した音声情報を発信することができ、 かつ、 この個別音声情報支 援を指装着端末部 (301) のトラッキング中、 常に的確に行うことができる。
[第 7の実施形態]
ところで、 位置認証については、 上記 RF IDタグ (303) や光 IDタグ ( 304) 以外にも、 夕ツチパネルを用いることを考慮できる。
図 19は、 この夕ツチパネルを用いた位置認証に基づいて音声情報支援を行う 一実施形態を示したものである。
本実施形態では、 テーブル状体 (100) の天板スクリーン部 (101) 上に 夕ツチパネル (503) を設けている。 タツチパネル (503) は、 天板スクリ —ン部 (101) に表示されている画像が夕ツチパネル (503) を通しても端 末ユーザ (600) に見えるように、 透明なものとする。 これにおいて、 端末ュ 一ザ (600) が夕ツチパネル (503) に触れると、 その位置が指装着端末部 (301) の位置として検出されることになる。
後は、 その夕ツチ位置座標と音声変調赤外光の照射位置座標との一致を判断す ることで、 上記と同様に、 一致した照射位置への個別音声情報支援を行うことが できる。 もちろん上記 ID認証との組み合わせもできることは言うまでもない。
[他の実施形態]
この出願の発明は以上の実施形態に限定されるものではなく、 さらに様々な態 様が可能である。
[1] たとえば、 上記図 11〜図 19の実施形態では、 画像表示装置 (1) の スクリーン手段 (11) として、 平面形状の天板スクリーン部 (101) を有す るテ一ブル状体 (100) を用いているが、 曲面形状のスクリーン部を利用する こともでき、 この場合ではたとえば球面や半球面等のスクリーン体にその背面か ら画像投射する形態を考慮できる。
図 20は、 透光性の球面スクリーン体 (700) とプロジェクタ装置 (701 ) との一例を示したものである。 360度の球面スクリーン体 (700) の内部 に複数個のプロジェク装置 (701) を配設し、 各プロジェクタ装置 (701) が各々に割り当てられた球面領域に対して画像投射を行うようになっている。 こ の場合、 前記赤外線光源 (201) は、 画像中の贿のスポット位置へ音声変調 赤外光を照射できるように、 適宜個数を適宜位置に配設させておけばよい。
[2] また、 上記図 11〜図 19の実施形態はスクリーン手段 (11) および 画像投射手段 (12)からなる画像表示装置 (1) (図 5参照) についてのものと なっているが、 画像表示装置 (1) としては、 ブラウン管ディスプレイ (-CR Tディスプレイ)や、液晶ディスプレイ (=LCD)、 プラズマディスプレイ (== PDP), エレクトロルミネセントディスプレイ (=ELD)、 発光ダイォ一ドデ イスプレイ (=LEDディスプレイ)、 蛍光表示管ディスプレイ (=VFD)、 電 解放出ディスプレイ (FED)等のフラットパネルディスプレイ (-FPD) な ど、 様々な装置を用いることができる。 いずれの表示装置を用いる場合でも、 上 記音声変調赤外光を代表とする音声電磁波を画像表示面の適宜位置へ照射できる ようにすればよい。
図 21は、 ブラウン管ディスプレイ (801) と赤外線光源 (800) との一 例を示したものである。 この場合、 赤外線光源 (800) は、 ブラウン管デイス プレイ (801) の蛍光面 (802) を透過して画像中の適宜のスポット位置へ 音声変調赤外光を照射できるように、 適宜個数をブラウン管 (803) の外側の ¾ϋ位置に配設させておけばよい。 このとき、 ブラウン管 (803) には通常外 部コーティングおよび内部コーティングが施されているので、 たとえば赤外光を 通したい部分のコーティングを削ったり、 また赤外光透過性の材料を用いたりし て、 赤外光が両コ一ティングを十分に透過できるようにレておくことが必要とな る。 もちろんこの図 21の例に限定されるものではない。
図 22は、 透過型の液晶ディスプレイ (805) と赤外線光源 (804) との —例を示したものである。 図 22中の (806) はバックライト光源、 (807) は偏光フィ Jレタ、 (808) はガラス基板、 (809) は透明電極、 (810) は液 晶層、 (811) はカラーフィルタ、 (812) はガラス基板、 (813) は偏光フ ィル夕、 (814) は表示面である。 この場合、 赤外線光源 (804) は、 各層を 透過して表示面 (814) 上の適宜のスポット位置へ音声変調赤外光を照射でき るように、 適宜個数を適宜位置に配設させておけばよい。 各層の適宜部位に赤外 光透過性の材料を用いたりしてもよい。 もちろんこの図 22の例に限定されるも のではない。
図 23は、 プラズマディスプレイ (816) と赤外線光源 (815) との一例 を示したものである。 図 23中の(817) は背面のガラス基板、 (818) はァ ドレス電極 (データ電極とも呼ぶ)、 (819) は蛍光体、 (820) は隔壁、 (8 21) は表示電極(走査電極および維持電極との対)、 (822)誘電体層、 (82 3) は前面のガラス基板である。 この場合、 赤外線光源 (815) は、 画像表示 されるガラス基板 (823) 上の適宜のスポット位置へ音声変調赤外光を各層を 透過して照射できるように、 適宜個数を適宜位置に配設させておけばよい。 各層 の Ml部位に赤外光透過性の材料を用いたりしてもよい。 もちろんこの図 23の 例に限定されるものではない。
図 24は、 透明のエレクトロルミネセントディスプレイ (825) と赤外線光 源 (824) との一例を示したものである。 図 24中の (826) はガラス基板 、 (827) は透明電極、 (828) は繊層、 (829) は発光層、 (830) は 繊層、 (831) はガラス基板である。 この場合、 赤外線光源 (824) は、 各 層を透過してガラス基板 (8 3 1 ) 上の適宜のスポット位置へ音声変調赤外光を 照射できるように、 適宜個数を適宜位置に配設させておけばよい。 各層の適宜部 位に赤外光透過性の材料を用いたりしてもよい。 もちろんこの図 2 4の例に限定 されるものではない。
図 2 5 ( a) (b) は、 各々、 発光ダイオードパネル (8 3 4) を複数配設して なる平面体および球体の発光ダイオードディスプレイ (8 3 3 ) と赤外線光源 ( 8 3 2 ) との一例を示したものである。 発光ダイオードパネル (8 3 4) は複数 の小型 L ED ( 8 3 5 ) をアレイ状に有するパネル体となっており、 これを複数 個連設させて平面体または球体の発光ダイオードディスプレイ (8 3 3 ) が構成 されている。 この場合、 赤外線光源 (8 3 2 ) は、 各発光ダイオードパネル (8 3 4) 自体に他の小型 L EDとともに組み込んだり、 発光ダイオードパネル (8 3 4) 同士の間隙に組み込んだりして、 適宜位置へ音声変調赤外光を照射できる ようにすればよい。 もちろんこの図 2 5の例に限定されるものではない。
他のフラットパネルディスプレイについては図示しないが、 同様に、 画像表示 面の適宜スポット位置へ音声変調赤外光を照射できるように、 適宜個数の赤外線 光源を適宜位置に配設させておけばよい。
また、.上記図示した例では一つ一つが別体の赤外線光源 (8 0 0 ) ( 8 0 4) ( 8 1 5 ) ( 8 2 4) を複数個配置しているが、面発光 L EDを代表とする面発光光 源を ¾g位置に設けるようにしてもよい。
[3 ] また、 上記実施形態では、 各赤外線光源は、 照射すべき画像中の各位置 と同じ数で配設しているが、 それぞれの赤外線の照射方向を画像中の各位置に向 けるように変更制御可能であれば、 画像中の照射位置数と光源数とが同じでなく てもよく、 位置数より少ない光源数としても、 1つのみの光源数としても対応で さる。
[4] また、 上記実施形態では、 画像表示面の背面つまり画像表示面とは反対 面側から音声変調赤外光を照射しているが、 画像表示面側から照射するようにし てもよい。 図 2 6および図 2 7は各々この場合の一例を示したものであり、 天板 スクリーン部 (1 0 1 ) の上方に赤外線光源 ( 2 0 1 ) を配設している。 なお、 図 26は照射位置数と同じ光源数としているが、 図 27は上記のとおりに各赤外 線光源 (201) がパン'チルト駆動して照射方向を変更制御可能なものとなつ ており、 照射位置数よりも少ない光源数となっている。
[4] 赤外線光源 (201) としては、 たとえば赤外発光ダイオード (=赤外 LED) を用いることができる。
[5] 各種画像表示装置の画像表示面までの距離に応じて光量をより多くした い場合には、 個々の赤外線光源 (201) 自体を複数の赤外 LEDを集めたもの とすることもできる。
[6] 音声出力装置 (2) の電磁波照射手段 (22) としては、 上記赤外線光 源 (201) のほかにも、 可視光線等の他の光を出力する各種光源を利用するこ ともできる。
171 また、 光源には、 LEDだけでなく、 レーザを用いることができ、 さら には、 これらからの光を光ファイバ等の光ケ一ブルを通して画像中の各スポット 位置に照射する態様も考慮できる。
[8] もちろん、 光以外の電波等の各種電磁波の使用も考慮でき、 この場合で はそれぞれに対応した電磁波源を用いることになる。 また、 上記各種実施形態に ついても各電磁波に対応した構成にする必要があることは言うまでもない。
[9] また、 上記図 11から図 19の実施形態では、 太陽馳 (302)、 RF IDタグ (303)、 光 IDタグ (304)、 反射シート (305) を有する指装 着端末部 (301) を端末ユーザ (600) の指に装着可能なものとしているが 、 指でなくても、 手や足などの身体の一部に装着可能な身体装着端末部なるもの としてもよい。 表示されている画像中のスポット位置に触れるまたは近づけるこ とができるものであればよいのである。 したがって、 このように身体の一部に装 着可能なものだけでなく、 たとえば図 28に例示したような、 端末ユーザ (60 0) が持つ指示棒 (900) に装着可能なもの若しくは予め組み込まれたものな ども考慮できる。
図 28では、 伸縮自在な指示棒 (900) の先端に棒装着端末部 (901) が 取付け取外し自在に装着されており、 この棒装着端末部 (901) は指示棒 (9 00)内を通った導線 (902) (外側を通ってもよい) を介してイヤホンやへッ ドホン、 スピーカ等の音声再生端末部 (903) に結線されており、 太陽電池 ( 図示なし) からの出力電気信号が音声として再生されるようになっている。 また 、 たとえば、 音声再生端末部 (903) としてのイヤホンやヘッドホンは端末ュ 一ザ (600) の耳に装着可能であり、 スピーカは端末ユーザ (600) が携帯 可能である。
[10] また、 この音声情報支援システムは、 視覚障害者用の音声ガイドシス テムとしても適用することができる。 この場合、 画像中のどの位置に赤外光等の 電磁波が照射されているかわからないので、 たとえば図 29に例示したように、 画像表示面の各照射位置に小さな穴 (1000) を配設するようにしてもよい。 これによれば、 視覚障害者は穴 (1000) に触れることで照射位置を知ること ができ、 音声情報支援を的確に受けられるようになる。
また、 I Dデータに視覚障害者であることを示すビット列を埋め込んでおけば 、 ID認証時に判別でき、 その判別に従って視覚障害者に適した音声情報を提供 することもできる。 このとき、 たとえば、 位置認証と組み合わせることで、 れている画像中の照射位置または上記穴 (1000) からどの方向に指や指示棒 等を動かせば次の照射位置または穴 (1000) があるかなどをナビゲーシヨン することもできる。 たとえば、 「そこから少し右に次の穴があります」 「そこから 少し前方に · · 'についての説明音声を流している穴があります」 などの音声指 示を出せるようになる。 もちろんこのナビゲ一シヨンは健常者にも適用できるも のである。
[11] また、 上記図 15、 図 16、 図 18の実施形態では、 位置認証を行う ための赤外線カメラ (501) および赤外線 LED (502) を天板スクリーン 部 (101) の上方に配設しているが、 たとえば図 30に例示したように下方に 配設することも考慮できる。 この場合では、 反射シート (305) は太陽電池 ( 301) と同じ側に設けて、 下方からの位置用赤外光を受光し再帰反射させるよ うにすることが好ましい (図中の拡大図参照)。
[12] また、 上記図 11〜図 20の実施形態では、 画像表示装置 (1) のス クリーン手段 (11) に相当するもの (天板スクリーン部 (101) を有するテ —ブル状体 (100)や球面スクリーン体 (700))が、何ら凹凸のないきれい な平面状または曲面状の画像表示面を有しているが、 平面や曲面等を組み合わせ た凹凸状の画像表示面を有するスクリーン手段 (11) を用いることもできる。 図 31はこの場合の一例を示したものであり、 凹凸画像表示面を有する立体スク リーン体 (1100) に対してプロジェクタ装置 (1101) から画像投射して 立体地図などを表示し、 その立体地図中の適宜位置に対して赤外線光源 (110 2) から音声変調赤外光を照射している。
[13] なお、 画像表示装置 (1) については、 上記実施形態のような各種の スクリーン手段 (11) およぴ 像投射手段 (12) からなるものに限られるの ではなく、 画像を表示する装置であればよいので、 たとえば、 スクリ一ン体自体 に画像が塗布や印刷等されており、 上記赤外光を代表とする電磁波を透過できる ものなども、 この出願の発明の音声情報支援システムに適用することができる。 産業上の利用可能性
以上詳しく説明したとおり、 この出願の発明によれば、 スクリーン上に表示さ れている画像中の任意の位置にて、 ユーザがその位置を指し示すまたは触れるな どするだけで、 表示画像に関連する音声情報を容易に聞くことができ、 画像を見 ているユーザ一人一人に個別に対応した音声情報支援を実現することのできる、 全く新しい音声情報支援システムが提供される。

Claims

請求の範囲
1 · 画像を表示する画像表示装置、
画像表示装置により表示されている画像中の 1つまたは複数の位置に向けて、 音声情報を基に変調した電磁波を出力する音声出力装置、 および、
前記画像中の位置にて前記電磁波を受信し電気信号に変換する変換手段と、 当 該変換手段により得られた電気信号を音声再生する音声再生手段とを有する音声 再生端末、
を備えたことを特徴とする音声情報支援システム。
2. 画像を表示する画像表示装置、
画像表示装置により表示されている画像中の 1つまたは複数の位置に向けて、 音声情報を基に変調した電磁波を出力する音声出力装置、
前記画像中の位置にて前記電磁波を受信し電気信号に変換する変換手段と、 当 該変換手段により得られた電気信号を音声再生する音声再生手段と、 I Dを発信 する I D発信手段とを有する音声再生端末、 および、
音声再生端末の I D発信手段により発信された I Dを検出する I D検出装置、 を備えたことを特徴とする音声情報支援システム。
3 . 画像を表示する画像表示装置、
画像表示装置により表示されている画像中の 1つまたは複数の位置に向けて、 音声情報を基に変調した電磁波を出力する音声出力装置、
前記画像中の位置にて前記電磁波を受信し電気信号に変換する変換手段と、 当 該変換手段により得られた電気信号を音声再生する音声再生手段とを有する音声 再生端末、 および、
音声再生端末の位置を検出する位置検出装置、
を備えたことを特徴とする音声情報支援システム。
4. 画像を表示する画像表示装置、
画像表示装置により表示されている画像中の 1つまたは複数の位置に向けて、 音声情報を基に変調した電磁波を出力する音声出力装置、 前記画像中の位置にて前記電磁波を受信し電気信号に変換する変換手段と、 当 該変換手段により得られた電気信号を音声再生する音声再生手段と、 I Dを発信 する I D発信手段とを有する音声再生端末、
音声再生端末の I D発信手段により発信された I Dを検出する I D検出装置、 および、
音声再生端末の位置を検出する位置検出装置、 - を備えたことを特徴とする音声情報支援システム。
5. 画像表示装置は、 画像を表示するスクリーン手段と、 当該スクリーン手段 に対して画像を投射する画像投射手段とを有していることを特徴とする請求項 1 ないし 4のいずれかに記載の音声情報支援システム。
6. スクリーン手段は、 その画像表示面が平面状、 曲面状または凹凸面状のも のであることを特徵とする請求項 5記載の音声情報支援システム。
7. スクリーン手段は、 その画像表示面が透光性のものであることを特徴とす る請求項 5記載の音声情報支援システム。
8. 画像投射手段は、 スクリーン手段に対してその画像表示面側から画像を投 射することを特徵とする請求項 5記載の音声情報支援システム。
9. 画像投射手段は、 スクリーン手段に対してその画像表示面とは反対面側か ら画像を投射することを特徵とする請求項 5記載の音声情報支援システム。
1 0. 画像表示装置は、 ブラウン管ディスプレイであることを特徵とする請求 項 1ないし 4のいずれかに記載の音声情報支援システム。
1 1 . 画像表示装置は、 フラットパネルディスプレイであることを特徴とする 請求項 1ないし 4のいずれかに記載の音声情報支援システム。
1 2. フラットパネルディスプレイは、 液晶ディスプレイ、 プラズマディスプ レイ、 エレクトロルミネセントディスプレイ、 発光ダイオードディスプレイ、 蛍 光表示管ディスプレイ、 電解放出ディスプレイのいずれかであることを特徴とす る請求項 1 1記載の音声情報支援システム。
1 3. 音声出力装置は、 音声情報を基に電磁波を変調する変調手段と、 変調手 段により変調された電磁波を前記画像中の位置に向けて照射する電磁波照射手段 とを有していることを特徵とする請求項 1ないし 4のいずれかに記載の音声情報 支援システム。
1 4. 電磁波照射手段は、 電磁波を出力する電磁波源を有していることを特徴 とする請求項 1 3記載の音声情報支援システム。
1 5. 電磁波源は、 前記画像中の複数位置それぞれに対応して配設されている 複数のものであることを特徵とする請求項 1 4記載の音声情報支援システム。
1 6. 電磁波源は、 前記画像中の複数位置に向けて照射方向を変更することの できる 1つまたは複数のものであることを特徵とする請求項 1 4記載の音声情報 支援システム。
1 7. 電磁波源は、 電磁波としての光を出力する光源であることを特徴とする 請求項 1 4記載の音声情報支援システム。
1 8. 光源は、 発光ダイオードまたはレーザであることを特徵とする請求項 1 7記載の音声情報支援システム。
1 9. 光源からの光を光ケーブルを通して前記画像中の位置に照射することを 特徴とする請求項 1 7記載の音声情報支援システム。
2 0. 音声再生端末の変換手段は、 電磁波照射手段の光源からの光を受光して 光電変換する光電変換手段であることを特徴とする請求項 1 7記載の音声情報支 援システム。
2 1 . 光電変換手段は、 太陽電池であることを特徴とする請求項 2 0記載の音 声情報支援システム。
2 2. 音声再生端末の変換手段は、 端末ュ一ザの身体の一部に装着可能となつ ていることを特徵とする請求項 1ないし 4のいずれかに記載の音声情報支援シス テム。
2 3. 身体の一部が手または足であることを特徴とする請求項 2 2記載の音声 情報支援システム。
2 4. 音声再生端末の変換手段は、 端末ユーザが持つ指示棒に装着可能となつ ているまたは組み込まれていることを特徵とする請求項 1ないし 4のいずれかに 記載の音声情報支援システム。
2 5. 音声再生端末の音声再生手段は、 イヤホンもしくはへッドホンまたはス ピー力であることを特徴とする請求項 1ないし 4のいずれかに記載の音声情報支 援システム。
2 6. 音声再生端末は、 別体の駆動電源を必要としない無電源端末であること を特徴とする請求項 1ないし 4のいずれかに記載の音声情報支援システム。
2 7 . 音声再生端末の I D発信手段は、 R F I Dタグであり、 I D検出装置は 、 当該 R F I Dタグとの間で I D認証通信を行うリーダライタであることを特徴 とする請求項 1ないし 4のいずれかに記載の音声情報支援システム。
2 8 . 音声再生端末の I D発信手段は、 光 I Dタグであり、 I D検出装置は、 当該光 I Dタグが発する I D用赤外光を受光して I Dデータを出力する赤外線セ ンサであることを特徵とする請求項 1ないし 4のいずれかに記載の音声情報支援 システム。
2 9 . 光 I Dタグは、 I D用赤外光の赤外線光源と、 I Dデータを記憶する I D記憶手段と、 I Dデータに応じて I D用赤外光を変調する変調手段とを有して おり、
赤外線センサは、 当該光 I Dタグにより変調されて発信された I D用赤外光を 受光して I Dデータを出力する、
ことを特徵とする請求項 2 8記載の音声情報支援システム。
3 0 . 位置検出装置は、 位置用赤外光の赤外線光源と、 音声再生端末により反 射されて戻されてきた位置用赤外光を撮像する赤外線撮像手段と、 赤外線撮像手 段により撮像された位置用赤外光像に基づいて音声再生端末の位置を検出する位 置検出手段とを有しており、
音声再生端末は、 位置検出装置により発信された位置用赤外光を反射させる反 射手段を有している、
ことを特徴とする請求項 1ないし 4のいずれかに記載の音声情報支援システム。
3 1 . 位置検出装置は、 画像表示装置の画像表示面に設けられたタツチパネル と、 端末ユーザが触れた当該夕ツチパネルの位置に基づいて音声再生端末の位置 を検出する位置検出手段とを有していることを特徵とする請求項 1ないし 4のい ずれかに記載の音声情報支援システム。
PCT/JP2003/016110 2002-12-16 2003-12-16 音声情報支援システム WO2004056153A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP03780790A EP1583392A4 (en) 2002-12-16 2003-12-16 AUDIO INFORMATION SUPPORT SYSTEM
AU2003289362A AU2003289362A1 (en) 2002-12-16 2003-12-16 Audio information support system
US10/539,350 US8073155B2 (en) 2002-12-16 2003-12-16 System for reproducing audio information corresponding to a position within a displayed image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002-364471 2002-12-16
JP2002364471A JP4228069B2 (ja) 2002-12-16 2002-12-16 音声情報支援システム

Publications (1)

Publication Number Publication Date
WO2004056153A1 true WO2004056153A1 (ja) 2004-07-01

Family

ID=32588239

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/016110 WO2004056153A1 (ja) 2002-12-16 2003-12-16 音声情報支援システム

Country Status (7)

Country Link
US (1) US8073155B2 (ja)
EP (1) EP1583392A4 (ja)
JP (1) JP4228069B2 (ja)
KR (1) KR20060028757A (ja)
CN (1) CN1754404A (ja)
AU (1) AU2003289362A1 (ja)
WO (1) WO2004056153A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007005927A (ja) * 2005-06-21 2007-01-11 National Institute Of Information & Communication Technology 音声情報提供システムおよび音声情報提供方法
JP2007005926A (ja) * 2005-06-21 2007-01-11 National Institute Of Information & Communication Technology 音声情報提供システムおよび音声情報提供方法
US9524047B2 (en) * 2009-01-27 2016-12-20 Disney Enterprises, Inc. Multi-touch detection system using a touch pane and light receiver
JP5448611B2 (ja) 2009-07-02 2014-03-19 キヤノン株式会社 表示制御装置及び制御方法
KR20110080894A (ko) * 2010-01-07 2011-07-13 삼성전자주식회사 멀티 터치 입력 처리 방법 및 장치
KR102052372B1 (ko) * 2013-01-11 2019-12-05 엘지전자 주식회사 이어폰을 이용한 데이터 송수신 디바이스 및 그 제어 방법
MX2015010932A (es) * 2013-02-22 2016-06-10 Ashley Diana Black Internat Holdings Llc Dispositivo para la buena condicion del tejido de fascia.
EP3179744B1 (en) * 2015-12-08 2018-01-31 Axis AB Method, device and system for controlling a sound image in an audio zone
KR102448771B1 (ko) 2021-11-29 2022-09-29 (주) 케이앤지앰테크 조형용 풍력발전시스템

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06202648A (ja) * 1992-12-25 1994-07-22 Casio Comput Co Ltd 入力装置及びこの入力装置を備えた電子楽器
JPH08263006A (ja) * 1995-03-23 1996-10-11 Unitec Kk 音声ガイド装置
JPH10222108A (ja) * 1997-02-10 1998-08-21 Syst Sekkei:Kk 電波感知警告装置
JP2002116858A (ja) * 2000-10-06 2002-04-19 Sony Corp 電子pop広告装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3245157A (en) * 1963-10-04 1966-04-12 Westinghouse Electric Corp Audio visual teaching system
US3273260A (en) * 1964-10-06 1966-09-20 Tutortape Lab Inc Audio-visual communication systems and methods
US4336018A (en) * 1979-12-19 1982-06-22 The United States Of America As Represented By The Secretary Of The Navy Electro-optic infantry weapons trainer
IL81146A (en) * 1986-01-26 1990-04-29 Avish Jacob Weiner Sound-producing amusement or educational devices
JPH09214430A (ja) * 1996-01-31 1997-08-15 Sony Corp 赤外線式伝送装置
US6445369B1 (en) * 1998-02-20 2002-09-03 The University Of Hong Kong Light emitting diode dot matrix display system with audio output
GB2361575B (en) * 1999-03-16 2002-01-30 Innomind Internat Ltd Display, and device having a display
EP1906294B1 (en) * 1999-05-03 2018-07-18 Symbol Technologies, LLC Wearable communication system
US7099568B2 (en) 2000-03-21 2006-08-29 Sony Corporation Information playback apparatus and electronic pop advertising apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06202648A (ja) * 1992-12-25 1994-07-22 Casio Comput Co Ltd 入力装置及びこの入力装置を備えた電子楽器
JPH08263006A (ja) * 1995-03-23 1996-10-11 Unitec Kk 音声ガイド装置
JPH10222108A (ja) * 1997-02-10 1998-08-21 Syst Sekkei:Kk 電波感知警告装置
JP2002116858A (ja) * 2000-10-06 2002-04-19 Sony Corp 電子pop広告装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1583392A4 *

Also Published As

Publication number Publication date
EP1583392A1 (en) 2005-10-05
KR20060028757A (ko) 2006-04-03
US8073155B2 (en) 2011-12-06
JP2004200815A (ja) 2004-07-15
AU2003289362A1 (en) 2004-07-09
JP4228069B2 (ja) 2009-02-25
EP1583392A4 (en) 2008-12-03
CN1754404A (zh) 2006-03-29
US20080025548A1 (en) 2008-01-31
AU2003289362A8 (en) 2004-07-09

Similar Documents

Publication Publication Date Title
US10342131B1 (en) PCB laminated structure and mobile terminal having the same
KR20170005649A (ko) 3차원 깊이 카메라 모듈 및 이를 구비하는 이동 단말기
KR20170076435A (ko) 휴대 장치의 액세서리 장치
WO2004056153A1 (ja) 音声情報支援システム
KR20190008067A (ko) 이동 단말기
JP3843321B2 (ja) 情報支援システム
CN209707863U (zh) 电子设备及其背光单元和感测模组
US11630485B2 (en) Housing structures and input-output devices for electronic devices
CN209044429U (zh) 一种设备
KR20160038409A (ko) 이동 단말기 및 그 제어 방법
KR20160115603A (ko) 전자 디바이스 및 그 제어방법
JP7471432B2 (ja) 液晶モジュール、電子デバイス、および画面インタラクションシステム
CN109407758A (zh) 一种设备
CN209167942U (zh) 设备
CN209330167U (zh) 一种设备
KR20180006580A (ko) 주변환경에 따라 패턴 및 색상을 표현하는 스마트 의복 및 그 제어방법
CN109416741B (zh) 电子设备
KR20210046323A (ko) 이동 단말기 및 이에 결합하는 보조 장치
US12130666B2 (en) Housing structures and input-output devices for electronic devices
CN213990948U (zh) 用于电子设备的发光麦克风组件
CN209167943U (zh) 一种设备
KR102637419B1 (ko) 이동 단말기 및 그의 3d 영상 변환 방법
CN209167946U (zh) 一种设备
CN209167940U (zh) 一种设备
KR101635033B1 (ko) 이동 단말기

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 1020057011156

Country of ref document: KR

Ref document number: 20038A6385X

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2003780790

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2003780790

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020057011156

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 10539350

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 10539350

Country of ref document: US