WO2019171907A1 - 情報処理装置、情報処理方法、情報処理システム及びプログラム - Google Patents

情報処理装置、情報処理方法、情報処理システム及びプログラム Download PDF

Info

Publication number
WO2019171907A1
WO2019171907A1 PCT/JP2019/005537 JP2019005537W WO2019171907A1 WO 2019171907 A1 WO2019171907 A1 WO 2019171907A1 JP 2019005537 W JP2019005537 W JP 2019005537W WO 2019171907 A1 WO2019171907 A1 WO 2019171907A1
Authority
WO
WIPO (PCT)
Prior art keywords
speaker
information processing
processing apparatus
control unit
projection
Prior art date
Application number
PCT/JP2019/005537
Other languages
English (en)
French (fr)
Inventor
文彦 飯田
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2020504889A priority Critical patent/JPWO2019171907A1/ja
Priority to US16/977,330 priority patent/US20210006930A1/en
Priority to CN201980016614.XA priority patent/CN111801952A/zh
Priority to DE112019001215.0T priority patent/DE112019001215T5/de
Publication of WO2019171907A1 publication Critical patent/WO2019171907A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/40Visual indication of stereophonic sound image
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B31/00Associated working of cameras or projectors with sound-recording or sound-reproducing means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3173Constructional details thereof wherein the projection device is specially adapted for enhanced portability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3182Colour adjustment, e.g. white balance, shading or gamut
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/12Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation

Definitions

  • This technology relates to a technology for selecting a speaker to be used from a plurality of speakers.
  • Patent Document 1 describes a projector that can project an image onto an arbitrary area on a wall or ceiling by automatically controlling the orientation of an optical system in the projector.
  • the degree of whiteness or the degree of unevenness of a projection target is determined based on an image obtained by imaging the projection target such as a wall. Then, based on the degree of whiteness, the degree of unevenness, etc., a projection area candidate that is a projection area candidate for projecting a video is determined.
  • an image is projected onto the projection area candidate, and the projection area candidate is presented to the user.
  • the projection area candidate is determined as an actual projection area.
  • the candidates are switched to other projection area candidates. Then, the video is projected onto other projection area candidates, and the projection area candidates are presented to the user. When any projection area candidate is presented and the user gives an instruction to end, the current projection area candidate is determined as the actual projection area.
  • an object of the present technology is to provide a technology capable of selecting an appropriate speaker from a plurality of speakers according to the position of a projection region.
  • An information processing apparatus includes: a plurality of speakers based on information on a position of a designated projection area and information on positions of the plurality of speakers among a plurality of projection areas capable of projecting an image. And a controller for selecting a speaker to be used when projection is performed on the designated projection area.
  • control unit may select the speaker to be used based on a distance between the designated projection area and each speaker.
  • control unit may select a speaker closest to the designated projection area as the speaker to be used among the plurality of speakers.
  • control unit may select two or more speakers as the speakers to be used.
  • different audio channels may be allocated to the two or more speakers.
  • control unit may set a plurality of search areas for searching for the speakers and select a speaker to be used for each search area.
  • Information processing device may set a plurality of search areas for searching for the speakers and select a speaker to be used for each search area.
  • control unit may set the plurality of search areas on the basis of the position of the designated projection area.
  • control unit may acquire information on a user's position and select the speaker to be used based on the information on the user's position.
  • control unit may acquire information on each audible area in the plurality of speakers, and may select the speaker to be used based on the information on the audible area.
  • the control unit determines whether or not there is a speaker including the user's position in the audible area. If the speaker includes the speaker, the speaker including the user's position in the audible area is used. You may select as a speaker.
  • the control unit selects, as the speaker to be used, a speaker that is the closest to the projection region among the plurality of speakers. You may choose.
  • control unit may select two or more speakers as the speakers to be used.
  • control unit may set a plurality of search areas for searching for the speakers and select a speaker to be used for each search area.
  • control unit may set the plurality of search areas based on the position of the user.
  • each of the plurality of speakers may have a marker for acquiring information on the position of the speaker.
  • At least one of the plurality of speakers can be held by a user, and the control unit acquires information on a position of the speaker held by the user, and The projection area may be registered based on information on the position of the speaker.
  • control unit may change the position of the projection area.
  • the information processing system is based on the information on the position of the designated projection area and the information on the positions of the plurality of speakers among the plurality of speakers and the plurality of projection areas in which the video can be projected. And an information processing apparatus having a control unit that selects a speaker to be used when projection is performed on the designated projection area from among a plurality of speakers.
  • An information processing method is based on information on a position of a designated projection area and information on positions of a plurality of speakers among a plurality of projection areas capable of projecting an image. Then, a speaker to be used when projection is performed on the designated projection area is selected.
  • the program according to the present technology is based on the information on the position of the designated projection area and the information on the positions of the plurality of speakers among the plurality of projection areas capable of projecting an image.
  • a computer is caused to function as a control unit that selects a speaker to be used when projection is performed on the designated projection area.
  • FIG. 1 is a diagram illustrating an information processing system 100 according to the first embodiment of the present technology.
  • FIG. 2 is a block diagram showing the information processing system 100.
  • the information processing system 100 includes an information processing apparatus 10, a projector 20, a plurality of cameras 30, and a plurality of speakers 40.
  • the information processing apparatus 10 performs main control in the information processing method according to the present technology.
  • the information processing device 10 may be a device dedicated to the information processing system 100 or may be a general-purpose device that can be used for purposes other than the information processing system 100.
  • the information processing device 10 is, for example, a variety of PCs such as a desktop PC (Personal computer), a laptop PC, or a tablet PC, a smartphone, a game machine, a music player, or the like. Consists of.
  • any device may be used as the information processing device 10 as long as the device has an information processing function.
  • the information processing apparatus 10 may be arranged outside the room (for example, the information processing apparatus 10 may be a server device on a network).
  • the information processing apparatus 10 includes a control unit 11, a storage unit 12, and a communication unit 13.
  • the control unit 11 is configured by a CPU (Central Processing Unit), for example.
  • the control unit 11 comprehensively controls each unit of the information processing apparatus 10 and the entire information processing system 100. Various processes in the control unit 11 will be described in detail later in the explanation of operation.
  • the storage unit 12 includes a non-volatile memory in which various data and various programs necessary for the processing of the control unit 11 are stored, and a volatile memory used as a work area of the control unit 11.
  • the various programs may be read from a portable recording medium such as a semiconductor memory or an optical disk, or may be downloaded from a server device on a network (the same applies to programs in other storage units described later).
  • the communication unit 13 is configured to be able to communicate with the projector 20, the camera 30, and the plurality of speakers 40 by wireless or wired communication.
  • the projector 20 is configured to be able to project an image onto various projection objects in a room such as a wall, ceiling, floor, furniture (table, wall, etc.), screen, and the like.
  • the projector 20 is attached to an attitude control mechanism attached at an arbitrary position in a room such as a ceiling or a table.
  • the orientation and attitude of the projector 20 can be arbitrarily adjusted by driving the attitude control mechanism (that is, movable). By adjusting the orientation and orientation, the projector 20 can project an image onto an arbitrary projection region R (see FIG. 5) in the room.
  • the overall orientation and attitude of the projector 20 are changed.
  • the orientation and orientation of a part of the projector 20 may be changed without changing the overall orientation and orientation of the projector 20.
  • the projector 20 includes a control unit 21, a storage unit 22, a projection unit 23, and a communication unit 24.
  • the control unit 21 is configured by, for example, a CPU (Central Processing Unit) and the like, and comprehensively controls each unit of the projector 20.
  • CPU Central Processing Unit
  • the storage unit 22 includes a non-volatile memory in which various data and various programs necessary for the processing of the control unit 21 are stored, and a volatile memory used as a work area of the control unit 21.
  • the communication unit 23 is configured to be able to communicate with the information processing apparatus 10 by wireless or wired communication.
  • the projection unit 23 includes a light source that emits light, a reflector that generates reflected light of the light emitted from the light source, and an image conversion element (for example, a liquid crystal or a mirror optical system) that converts the reflected light into projection light. And a projection lens that projects the projection light.
  • the projection unit 23 may include a zoom mechanism and an autofocus mechanism.
  • Each of the plurality of cameras 30 acquires an image of the speaker 40, a user image, and the like in accordance with an instruction from the information processing apparatus 10, and transmits the acquired image to the information processing apparatus 10.
  • the plurality of cameras 30 are arranged at a slightly higher position in the room so that, for example, a wide range can be imaged.
  • the camera 30 may be configured such that the imageable range can be changed by adjusting the orientation and orientation (that is, the camera 30 may be movable).
  • Each of the plurality of cameras 30 includes a control unit 31, a storage unit 32, an imaging unit 33, and a communication unit 34.
  • the control unit 31 is configured by, for example, a CPU (Central Processing Unit) and the like, and comprehensively controls each unit of the camera 30.
  • CPU Central Processing Unit
  • the storage unit 32 includes a non-volatile memory in which various data and various programs necessary for the processing of the control unit 31 are stored, and a volatile memory used as a work area of the control unit 31.
  • the communication unit 34 is configured to be able to communicate with the information processing apparatus 10 wirelessly or by wire.
  • the imaging unit 33 includes an imaging element such as a CMOS (Complementary Metal Oxide Semiconductor) sensor or a CCD (Charge Coupled Device) sensor, and a lens optical system such as an imaging lens that forms an image of subject light on the exposure surface of the imaging element. Including.
  • CMOS Complementary Metal Oxide Semiconductor
  • CCD Charge Coupled Device
  • FIG. 3 is an enlarged view showing the speaker 40.
  • the speaker 40 has such a size and weight that the user can hold it with one hand, and is placed and used at any position in the room by the user.
  • the speaker 40 includes a housing 46 in which various components are accommodated.
  • a plurality of small openings 48 for releasing sound generated inside the casing 46 to the outside of the casing 46 are provided at positions below the front, right side, back, and left side of the casing 46. Yes.
  • a marker 47 is provided at an upper position on the front surface of the housing 46.
  • the marker 47 is provided to facilitate the position recognition of the speaker 40.
  • the marker 47 may be configured by a geometric pattern other than the QR code, or may be configured by a light emitting LED or laser having a specific period. Or the marker 47 may be comprised with the re-regular reflective material. Typically, the marker 47 may be any marker 47 as long as the position of the speaker 40 can be easily recognized.
  • an operation unit 43 for inputting a user operation is provided at a position near the center on the upper surface of the housing 46.
  • the operation unit 43 is used when the user sets the projection region R to an arbitrary region in the room.
  • the operation unit 43 may be a contact type operation unit using a proximity sensor.
  • the operation unit 43 may have a form (microphone) in which a user operation is input by voice.
  • the operation unit 43 may be any operation unit as long as it is typically an operation unit that can input a user operation.
  • the speaker 40 includes a control unit 41, a storage unit 42, an operation unit 43, a communication unit 44, and a sound output unit 45.
  • the control unit 41 is configured by, for example, a CPU (Central Processing Unit) and the like, and comprehensively controls each unit of the speaker 40.
  • a CPU Central Processing Unit
  • the storage unit 42 includes a non-volatile memory in which various data and various programs necessary for the processing of the control unit 41 are stored, and a volatile memory used as a work area of the control unit 41.
  • the communication unit 44 is configured to be able to communicate with the information processing apparatus 10 by wireless or wired communication.
  • the sound output unit 45 converts the sound signal input from the control unit 41 into physical vibration and generates a sound corresponding to the sound signal.
  • the sound output unit 45 may be any type of sound output unit such as cone paper type, piezoelectric type, or ultrasonic type.
  • FIG. 4 is a flowchart showing processing when registering the projection region R.
  • FIG. 5 is a diagram illustrating a state in which the user holds the speaker 40 and registers the projection region R.
  • the user searches for an arbitrary place where the projection area R is desired to be registered in the space in the room, holds the speaker 40, and moves to that place.
  • a state where the user is standing at the wall trying to register a part of the wall as the projection region R is shown.
  • the projection region R is not limited to a wall, and can be registered on a ceiling, floor, furniture (table, basket, etc.), screen, and the like.
  • the speaker 40 When the user holds the speaker 40 and moves to an arbitrary location, the speaker 40 is positioned at a position corresponding to one of the lower corners of the four corners of the rectangular projection region R to be registered. Then, in this state, the user presses down the operation unit 43 of the speaker 40 (when pressed, the pressed state is maintained).
  • control unit 11 of information processing apparatus 10 determines whether operation unit 43 of speaker 40 has been pressed (step 101).
  • the control unit 11 of the information processing apparatus 10 receives information indicating that the operation unit 43 has been pressed (YES in step 101), the control unit 11 causes the plurality of cameras 30 to capture images and acquires images from the plurality of cameras 30 ( Step 102).
  • control unit 11 of the information processing apparatus 10 extracts a plurality of images showing the marker 47 in the speaker 40 where the operation unit 43 is pressed, from all the acquired images (step 103).
  • control unit 11 of the information processing apparatus 10 calculates the coordinates of the speaker 40 in the space (XYZ coordinate system) based on the positions of the markers 47 at a plurality of viewpoints in the extracted images (step 104). ).
  • the coordinates calculated in step 104 correspond to one of the lower coordinates in the rectangular projection region R in the present embodiment.
  • the lower one coordinate in the rectangular projection region R is referred to as a first coordinate P1 (see the center in FIG. 5).
  • the user holds the speaker 40 and moves while maintaining the pressing of the operation unit 43. Then, the user places the speaker 40 at a position corresponding to the other lower corner among the four corners of the rectangular projection region R to be registered. Thereafter, in this state, the user releases the press on the operation unit 43 of the speaker 40.
  • control unit 11 of information processing device 10 calculates the coordinates (first coordinates P1) of speaker 40 in the space, and then whether or not pressing on operation unit 43 of speaker 40 is released. Is determined (step 105).
  • control unit 11 of the information processing apparatus 10 receives the information indicating the release of the press on the operation unit 43 (YES in step 105)
  • the control unit 11 causes each of the plurality of cameras 30 to capture images and acquires each of the plurality of cameras 30. (Step 106).
  • control unit 11 of the information processing apparatus 10 extracts a plurality of images in which the marker 47 in the speaker 40 whose press has been released is shown among all the acquired images (step 107).
  • control unit 11 of the information processing apparatus 10 calculates the coordinates of the speaker 40 in the space (XYZ coordinate system) based on the positions of the markers 47 at a plurality of viewpoints in the extracted images (step 108). ).
  • the coordinates calculated in step 108 correspond to the other coordinates on the lower side in the rectangular projection region R in the present embodiment.
  • the other lower coordinate in the rectangular projection region R is referred to as a second coordinate P2.
  • the information processing apparatus 10 calculates the coordinates (XYZ coordinate system) of the four corners of the projection region R based on the first coordinates P1 and the second coordinates P2 (step 109).
  • the aspect ratio in the projection region R is determined in advance.
  • the other two corner coordinates are automatically determined.
  • the coordinate of one corner is referred to as a third coordinate P3
  • the coordinate of the other corner is referred to as a fourth coordinate P4.
  • first coordinate P1 and the second coordinate P2 (coordinates of the lower two corners) specified by the user may be displaced in the height direction (z value).
  • the projection region R is inclined. Accordingly, the coordinates may be corrected so that the first coordinate P1 and the second coordinate P2 have the same value in the height direction (in this case, the third coordinate P3 and the fourth coordinate P4).
  • the value in the height direction is the same).
  • the speaker 40 is actually at a position slightly away from the wall. Therefore, if no countermeasure is taken, the projection region R is registered at a position slightly away from the wall. Therefore, the coordinates may be corrected so that the coordinates of the four corners coincide with the position of the wall (projection target).
  • the user similarly holds the speaker 40 and registers another projection region R. It should be noted that the user may register one projection region R one by one using one speaker 40, or register a plurality or all of the projection regions R using one (same) speaker 40. May be. Thereafter, the user places the speaker 40 at an arbitrary position in the room as shown in the lower diagram of FIG.
  • the projection area R and the speaker 40 used for registering the projection area R are not linked to each other. Further, in the present embodiment, since all the projection regions R can be registered using one (same) speaker 40, the operation unit 43 is provided in at least one speaker 40 among the plurality of speakers 40. What is necessary is just to be provided.
  • the first coordinate P1 is calculated when the operation unit 43 of the speaker 40 is pressed
  • the second coordinate P2 is calculated when the operation unit 43 is released. did.
  • the operation unit 43 in the speaker 40 is pressed and released immediately (first time)
  • the first coordinate P1 is calculated, and then the operation unit 43 in the speaker 40 is pressed and released immediately (2).
  • the second coordinate P2 may be calculated.
  • the lower two corners in the projection region R are specified by the user.
  • the right two corners or the two left corners in the projection region R are determined by the user. May be specified.
  • two corners located diagonally may be designated by the user.
  • three corners or all four corners may be specified by the user.
  • an arbitrary projection region R may be registered by using a user's gesture and a voice command without using the speaker 40.
  • a microphone for acquiring the user's voice is provided in the speaker 40, the camera 30, or the like, for example.
  • a gesture pointing at the lower left (first coordinate P1) and upper right (third coordinate P3) of the rectangular projection area R that the user is trying to register is performed, and “here is lower left” and “here is upper right” And so on.
  • control unit 11 of the information processing apparatus 10 first determines the coordinates of the position pointed to by the user in the space (XYZ coordinate system) based on the images acquired by the plurality of cameras 30. Then, the control unit 11 of the information processing apparatus 10 analyzes the sound acquired by the microphone and determines which of the four corners corresponds to the coordinate of the position pointed by the user. to decide.
  • the control unit 11 of the information processing apparatus 10 may recommend the projection region R to the user by an automatic recommendation function.
  • the control unit 11 of the information processing apparatus 10 determines the color, flatness, and the like of a projection target such as a wall based on an image acquired from the camera 30. Then, the control unit 11 of the information processing apparatus 10 automatically calculates a region that can be the projection region R in the room based on the color and flatness of the projection target.
  • control part 11 of the information processing apparatus 10 projects the image
  • the user selects a projection area R to be registered from the recommended projection areas R.
  • FIG. 6 is a diagram illustrating an example of the positions of a plurality of projection regions R registered in the room.
  • FIG. 6 also shows the position of the information processing apparatus 10 and the position of the speaker 40.
  • FIG. 7 is a diagram illustrating an example of coordinates of a plurality of projection regions R.
  • control unit 11 of the information processing apparatus 10 has an XYZ coordinate system with the position of the information processing apparatus 10 as the origin. Note that the position of the origin of the XYZ coordinate system is not limited to the position of the information processing apparatus 10 and can be changed as appropriate.
  • the projection area R there are four projection areas R including a first projection area R1, a second projection area R2, a third projection area R3, and a fourth projection area R4. An example of registration is shown.
  • each projection region R is defined by four corner coordinates (first coordinate P1, second coordinate P2, third coordinate P3, and fourth coordinate P4).
  • the first coordinates P1 (x, y, z), the second coordinates P2 (x, y, z), the third coordinates P3 (x , Y, z) and the fourth coordinate P4 (x, y, z) are (2, 4, 0.5), (3,4, 0.5), (3,4, 1.5), respectively. ), (2, 4, 1.5).
  • first coordinates P1 (x, y, z), the second coordinates P2 (x, y, z), the third coordinates P3 (x, y, z), the fourth coordinates of the second projection region R2 Coordinates P4 (x, y, z) are (4, 3, 1), (4, 2, 1), (4, 2, 2), and (4, 3, 2), respectively.
  • FIG. 9 is a flowchart showing processing when the speaker 40 is selected.
  • the control unit 11 of the information processing apparatus 10 determines whether or not an arbitrary projection area R is designated by the user from the plurality of projection areas R (step 201). There are various methods for designating the projection region R, such as designation by a user's gesture, designation by voice, direct input to the information processing apparatus 10, and any method may be used.
  • the control unit 11 of the information processing apparatus 10 causes each of the plurality of cameras 30 to capture images and acquires images from the plurality of cameras 30 (step 202).
  • the control unit 11 of the information processing apparatus 10 calculates the coordinates of each speaker 40 in the space (XYZ coordinate system) based on the positions of the markers 47 at a plurality of viewpoints in a plurality of images (step 203). .
  • FIG. 8 is a diagram illustrating an example of coordinates of each speaker 40.
  • the four speakers 40 in the 1st speaker 40a, the 2nd speaker 40b, the 3rd speaker 40c, and the 4th speaker 40d are arrange
  • y, z) and the coordinates (x, y, z) of the fourth speaker 40d are (2, 4, 1), (4, 2, 0.5), (3, -0.25, 0), respectively. ), ( ⁇ 0.25, 1, 3).
  • control unit 11 of the information processing apparatus 10 next calculates the center-of-gravity coordinates of the designated projection region R (step 204). And the control part 11 of the information processing apparatus 10 calculates the distance between the gravity center coordinate of the designated projection area
  • the resolution of the position of the sound source in the vertical direction (z-axis direction) (the discriminating power of the sound source at which height) is the position of the sound source in the horizontal direction (xy-axis direction). It is said that it is lower than the resolution (the discriminating power of which position the sound source is in the horizontal direction).
  • the control unit 11 of the information processing apparatus 10 determines that the distance in the horizontal direction (xy axis direction) is the vertical direction (z axis).
  • the distance may be calculated by weighting so that it is more important than the distance in the direction.
  • the control unit 11 uses the speaker 40 having the closest distance to the designated projection area R.
  • the speaker 40 is selected (step 206).
  • the first speaker 40a that is closest to the first projection region R1 is connected to the projection region R1. It is selected as the speaker 40 used for R.
  • the second, third, and fourth projection regions R4 are designated by the user, the second, third, and fourth distances between the second, third, and fourth projection regions R4 are the shortest.
  • the fourth speaker 40d is selected as the speaker 40 used for the projection region R.
  • the control unit 11 of the information processing apparatus 10 transmits audio information to the selected speaker 40 and transmits video information to the projector 20 (step 207).
  • the control unit 41 of the speaker 40 causes the output unit to output sound based on the sound information received from the information processing apparatus 10.
  • the control unit 21 of the projector 20 adjusts the orientation and orientation of the projector 20 by the orientation control mechanism so that the image can be projected onto the selected projection region R, and then receives the video information received from the information processing apparatus 10. Is projected onto the projection region R.
  • the control unit 21 of the projector 20 may perform geometric correction on the image when the projection region R is uneven, or may perform projection according to the color tone of the projection region R. Color tone correction of the video to be performed may be performed.
  • ⁇ Action etc.> Selection of speaker 40
  • information on the position (coordinates) of the designated projection area R among a plurality of projection areas R capable of projecting an image is acquired, and a plurality of voices can be output.
  • Information on each position (coordinates) in the speaker 40 is acquired. Then, based on the information on the position (coordinates) of the designated projection region R and the information on the positions (coordinates) of the plurality of speakers 40, the speaker 40 to be used for the designated projection region R is selected. .
  • an appropriate speaker 40 can be selected from the plurality of speakers 40 according to the position of the designated projection region R. Therefore, in this embodiment, it is possible to provide a video experience in which there is no deviation between the position of the projection region R and the position of the sound source, and prevent the presence of the user who views the video and audio from being lost. be able to.
  • the speaker 40 to be used is selected based on the distance between the designated projection region R and each speaker 40, and thus, more effectively, the plurality of speakers 40 can be appropriately selected.
  • the speaker 40 can be selected.
  • the speaker 40 having the closest distance from the designated projection region R among the plurality of speakers 40 is selected as the speaker 40 to be used.
  • An appropriate speaker 40 can be selected.
  • the markers 47 provided on the respective speakers 40 are used. Thereby, each position in a plurality of speakers 40 can be judged correctly.
  • the speaker 40 has a size and a weight that allow the user to hold the speaker 40 with one hand. For this reason, the position of the speaker 40 in the room may be frequently changed by the user. For example, the user may change the position of the speaker 40 due to the reason that the position of the speaker 40 is changed to a more desired position or the reason that it interferes with cleaning.
  • the current positions of the plurality of speakers 40 are acquired, and the current position of the speakers 40 is determined as the distance from the designated projection region R. Is used to calculate (see step 201 to step 205). In this manner, by acquiring the current positions of the plurality of speakers 40 each time the projection region R is designated by the user, it is possible to appropriately cope with the case where the positions of the speakers 40 are frequently changed. it can.
  • the position information (coordinates P1, P2, etc.) of the speaker 40 held by the user is acquired, and the projection region R is registered based on the position information of the speaker 40.
  • the user can intuitively register the projection region R in the space by holding the speaker 40 and moving the speaker 40.
  • the marker 47 provided on the speaker 40 is used. Thereby, the position of the speaker 40 can be determined accurately.
  • the operation unit 43 for registering the projection region R is provided in the speaker 40, and the position of the speaker 40 (the position of the marker 47) is acquired at the timing when the operation unit 43 is operated. .
  • the user can easily register the projection region R in an arbitrary region in the space by operating the operation unit 43.
  • the speaker 40 is arranged near the registered projection region R (see FIG. 6). In this case, it is possible to prevent the user from forgetting where the projection region R is arranged.
  • the user presses the operation unit 43 provided on the speaker 40 (releases immediately after pressing: , Different from the operation for registering the projection region R).
  • control unit 11 of the information processing apparatus 10 receives information indicating that the operation unit 43 has been pressed (pressed and released immediately) from the speaker 40, based on the plurality of images acquired by the camera 30, The position of the speaker 40 (the speaker 40 on which the operation unit 43 is operated) is calculated.
  • control unit 11 of the information processing apparatus 10 registers the positions of the speakers 40 in advance for all the speakers 40.
  • the user should just press down the operation part 43, after arrange
  • control unit 11 of the information processing apparatus 10 can recognize the positions of all the projection regions R and the positions of all the speakers 40 in advance. Therefore, in this case, the control unit 11 of the information processing apparatus 10 determines in advance which speaker 40 is closest to the projection region R for all the projection regions R, and the projection region R and the speaker 40 is stored in the storage unit 12.
  • control part 11 of the information processing apparatus 10 should just select the speaker 40 linked
  • the change in the situation of the projection target is, for example, when the projection target is exposed to sunlight or when an object is placed on the projection target.
  • the control unit 11 of the information processing apparatus 10 determines the state of the projection target for which the projection region R is set (based on the image of the camera 30 or the like), and performs projection based on the determined state of the projection target. At least one of the position and size of the region R may be changed. For example, the control unit 11 of the information processing apparatus 10 may detect the position of the projection region R and the position of the projection region R so as to avoid sunlight and objects when the projection object is exposed to sunlight or when an object is placed on the projection object. Change at least one of the sizes.
  • the control unit 11 of the information processing apparatus 10 calculates the distance between the changed position of the projection area R and the position of each speaker 40, and the projection area R The speaker 40 closest to R is determined. And the control part 11 of the information processing apparatus 10 should just select the speaker 40 as the speaker 40 used.
  • the selection status of the speaker 40 may be notified to the user by illuminating the periphery of the selected speaker 40 by the projector 20, and the selection status may be notified to the user by the speaker 40. May be presented by voice.
  • the second embodiment is different from the first embodiment in that two or more speakers 40 to which different audio channels are assigned are selected as the speakers 40 used for the designated projection region R. Therefore, this point will be mainly described.
  • FIG. 10 is a flowchart showing processing when the speaker 40 is selected in the second embodiment.
  • the control unit 11 of the information processing apparatus 10 determines whether or not an arbitrary projection region R is designated by the user from the plurality of projection regions R (step 301).
  • the control unit 11 of the information processing apparatus 10 causes each of the plurality of cameras 30 to capture images and acquires images from the plurality of cameras 30 (step 302). .
  • control unit 11 of the information processing apparatus 10 calculates the coordinates of each speaker 40 in the space (XYZ coordinate system) based on the positions of the markers 47 at a plurality of viewpoints in a plurality of images (step 303). .
  • control unit 11 of the information processing apparatus 10 sets a projection area coordinate system using the position (center of gravity coordinates) of the designated projection area R as a reference (origin) (step 304).
  • control unit 11 of the information processing apparatus 10 sets a plurality of search areas based on the projection area coordinate system (step 305).
  • FIG. 11 is a diagram showing a plurality of search areas set based on the projection area coordinate system.
  • the first projection area R1 is designated by the user among the four projection areas R, and the position (center of gravity coordinates) of the first projection area R1 is used as a reference (origin). The situation when the coordinate system is set is shown.
  • a line drawn through the barycentric coordinates of the projection area R and perpendicular to the plane of the projection area R is the Y ′ axis.
  • a line that passes through the barycentric coordinates of the projection region R and is drawn in a direction parallel to the horizontal direction in the projection region R is taken as the X ′ axis.
  • a line passing through the barycentric coordinates of the projection region R and drawn in a direction parallel to the vertical direction of the projection region R is taken as the Z ′ axis.
  • three search areas are set as a plurality of search areas.
  • the first search area is a front channel speaker search area for searching for a speaker 40 to which a front channel is assigned.
  • the second search area is an R channel speaker search area for searching for a speaker 40 to which an R (Right) channel is assigned.
  • the third search area is an R channel speaker search area for searching for a speaker 40 to which an L (Left) channel is assigned.
  • the front channel speaker search area is set to a range close to the projection region R so as to surround the designated projection region R.
  • the R channel speaker search area is a range slightly away from the projection area R on the front side of the projection area R and on the right side of the Y axis (right side when viewed from the user side: from the projection area R side). The range is set to the left).
  • the L channel speaker search area is a range slightly away from the projection area R on the front side of the projection area R and on the left side of the Y axis (left side when viewed from the user side: from the projection area R side). The range on the right) is set.
  • the number of search areas is three corresponding to the three channels of the front channel, the R channel, and the L channel.
  • the number of search areas may be two, and when the number of channels is four, the number of search areas is four. May be. In other words, if the number of channels to be allocated changes, the number of search areas also changes accordingly.
  • control unit 11 of the information processing apparatus 10 After setting a plurality of search areas, the control unit 11 of the information processing apparatus 10 reads one search area from the storage unit 12 (step 306). Next, the control part 11 determines whether the speaker 40 exists in the search area based on the coordinate of each speaker 40 (step 307).
  • the control unit 11 of the information processing apparatus 10 determines whether there are a plurality of speakers 40 in the search area (step 308). .
  • the control unit 11 of the information processing apparatus 10 selects the speaker 40 as the speaker 40 to which the corresponding channel is assigned (Ste 309). Then, the control unit 11 of the information processing apparatus 10 proceeds to the next step 312.
  • the control unit 11 of the information processing apparatus 10 displays the center-of-gravity coordinates of the designated projection area R and each speaker in the search area. The distance between the 40 coordinates is calculated (step 310).
  • control unit 11 selects the speaker 40 having the shortest distance from the designated projection region R as the speaker 40 to which the corresponding channel is assigned (step 311). Then, the control unit 11 proceeds to the next step 312.
  • the speakers 40 may be selected in a balanced manner in consideration of the arrangement balance of the speakers 40.
  • the balance of the arrangement of the speakers 40 is considered with reference to a straight line connecting the designated projection region R and the position of the user (which can be determined from the image as described later).
  • information on an audible area described later may be used.
  • step 307 when the speaker 40 does not exist in the read search area (NO in step 307), the control unit 11 of the information processing apparatus 10 does not select the speaker 40 to which the corresponding channel is assigned, and step 312 is performed. Proceed to
  • step 312 the control unit 11 of the information processing apparatus 10 determines whether or not the processing related to selection of the speaker 40 (processing in steps 307 to 311) has been completed for all search areas. If there is still an area where the processing related to the selection of the speaker 40 has not been completed (NO in step 312), the control unit 11 of the information processing apparatus 10 reads one next area (step 306), and after step 307 Execute the process.
  • step 312 If the processing related to the selection of the speaker 40 is completed for all areas (YES in step 312), the control unit 11 of the information processing apparatus 10 proceeds to the next step 313. In step 313, the control unit 11 of the information processing apparatus 10 transmits video information to the projector 20 and transmits an audio signal of a corresponding channel to the selected speaker 40.
  • FIG. 12 is a diagram showing a state when an audio channel is assigned to any speaker 40.
  • the first speaker 40a is selected as the front channel speaker 40 to which the front channel is assigned. Is done.
  • the second speaker 40b is assigned to the R channel speaker 40 to which the R channel is assigned. Selected as.
  • the fourth speaker 40d is an R channel speaker to which the L channel is assigned. 40 is selected.
  • two or more speakers 40 are selected as the speakers 40 to be used, and different audio channels are assigned to the two or more speakers 40, respectively. Therefore, it is possible to appropriately cope with a case where there are a plurality of audio channels.
  • a plurality of search areas are set, and the speaker 40 used for each search area is selected. Thereby, the speaker 40 which should allocate a channel appropriately can be selected in each search area.
  • the plurality of search areas are set based on the position of the designated projection area R (projection area coordinate system). Thereby, a plurality of areas for searching for the speaker 40 to which a channel is to be assigned can be set appropriately.
  • the speaker 40 does not exist in the corresponding search area
  • the case where the corresponding channel is not assigned to the speaker 40 has been described.
  • the speaker 40 exists in the front channel speaker search area and the R channel speaker search area, but the speaker 40 does not exist in the L channel speaker search area.
  • the front channel speaker 40 and the R channel speaker 40 are selected, but the L channel speaker 40 is not selected.
  • the output of the plurality of audio channels is monaural channel audio.
  • the output may be changed.
  • one speaker 40 that outputs monaural channel sound (for example, the speaker 40 having the shortest distance from the projection region R) may be selected from the plurality of speakers 40 (see the first embodiment).
  • FIG. 13 is a flowchart showing processing when the speaker 40 is selected in the third embodiment.
  • the control unit 11 of the information processing apparatus 10 determines whether or not an arbitrary projection region R is designated by the user from the plurality of projection regions R (step 401).
  • the control unit 11 of the information processing apparatus 10 causes each of the plurality of cameras 30 to capture images and acquires images from the plurality of cameras 30 (step 402). .
  • control unit 11 of the information processing apparatus 10 calculates the coordinates of each speaker 40 in the space (XYZ coordinate system) based on the positions of the markers 47 at a plurality of viewpoints in a plurality of images (step 403). .
  • control unit 11 of the information processing apparatus 10 calculates the user's coordinates in the space (XYZ coordinate system) based on the user's position at a plurality of viewpoints in a plurality of images (step 404).
  • control unit 11 of the information processing apparatus 10 next calculates the distance between the user and each speaker 40 based on the user's coordinates and the coordinates of each speaker 40.
  • the control unit 11 of the information processing apparatus 10 determines that the distance in the horizontal direction (xy axis direction) is the distance in the vertical direction (z axis direction).
  • the distance may be calculated by weighting so as to be more important.
  • the control unit 11 of the information processing apparatus 10 determines whether or not there is a speaker 40 whose distance to the user is equal to or less than a threshold (step 406).
  • FIG. 14 is a diagram illustrating a distance (threshold value) from the user.
  • Step 406 When there is a speaker 40 whose distance from the user is equal to or smaller than the threshold (YES in Step 406), the control unit 11 of the information processing apparatus 10 determines whether the number of the speakers 40 is plural (Step 407). ).
  • the control unit 11 of the information processing apparatus 10 uses the one speaker 40 as the speaker 40 to be used. (Step 408). Then, the control unit 11 of the information processing apparatus 10 proceeds to the next step 412.
  • the fourth speaker 40 d is selected as the speaker 40 to be used.
  • step 407 when there are a plurality of speakers 40 whose distance from the user is equal to or less than the threshold (YES in step 407), the control unit 11 of the information processing apparatus 10 has the largest distance from the user. The near speaker 40 is selected as the speaker 40 to be used (step 409). Then, the control unit 11 of the information processing apparatus 10 proceeds to the next step 412.
  • step 406 if there is no speaker 40 whose distance from the user is equal to or less than the threshold (NO in step 407), the distance between the center of gravity coordinates of the designated projection region R and the coordinates of each speaker 40 Is calculated (step 410).
  • control unit 11 of the information processing apparatus 10 selects the speaker 40 having the shortest distance from the designated projection region R as the speaker 40 to be used (step 411). Then, the control unit 11 of the information processing apparatus 10 proceeds to the next step 412.
  • step 412 the control unit 11 of the information processing apparatus 10 transmits video information to the projector 20 and transmits audio information to the selected speaker 40.
  • the speaker 40 to be used is selected based on the user position information. Thereby, an appropriate speaker 40 can be selected from the plurality of speakers 40 according to the position of the user.
  • the speaker 40 to be used is selected based on the distance between the user and each speaker 40, the appropriate speaker 40 is selected from the plurality of speakers 40 more effectively. be able to.
  • FIG. 15 is a diagram illustrating an example of an audible area.
  • the audible area means an area where sound from the speaker 40 can effectively reach.
  • speakers 40 such as an omnidirectional speaker 40, a normal speaker 40, and a directional speaker 40.
  • the shape of the audible area is different depending on the type of the speaker 40.
  • the audible area in the omnidirectional speaker 40 is, for example, circular (when viewed from above or below).
  • the audible area in the normal speaker 40 is, for example, a fan shape with a slightly wide central angle (when viewed from above or below). ).
  • the audible area in the directional speaker 40 is, for example, a fan shape with a slightly narrower central angle (when viewed from above or below). .
  • the audible area information shown in FIG. 15 is used as information for selecting the speaker 40 to be used.
  • FIG. 16 is a flowchart showing processing when the speaker 40 is selected in the fourth embodiment.
  • the control unit 11 of the information processing apparatus 10 determines whether or not an arbitrary projection region R is designated by the user from the plurality of projection regions R (step 501).
  • the control unit 11 of the information processing apparatus 10 causes each of the plurality of cameras 30 to capture images and acquires images from the plurality of cameras 30 (step 502). .
  • control unit 11 of the information processing apparatus 10 calculates the coordinates of each speaker 40 in the space (XYZ coordinate system) based on the positions of the markers 47 at a plurality of viewpoints in a plurality of images (step 503). .
  • control unit 11 of the information processing apparatus 10 calculates the user's coordinates in the space (XYZ coordinate system) based on the user's position at a plurality of viewpoints in the plurality of images (step 504).
  • the control unit 11 of the information processing apparatus 10 acquires information on the audible area for each speaker 40 and sets the audible area in the space (XYZ coordinate system). In order to set an audible area for each speaker 40, the control unit 11 of the information processing apparatus 10 acquires information on the type of each speaker 40 (omnidirectional speaker 40, normal speaker 40, directional speaker 40). Also good. If the type of the speaker 40 is specified, the shape of the audible area is specified.
  • a circular audible area is set with reference to the coordinates of the speaker 40.
  • a fan-shaped audible area is set based on the coordinates of the speaker 40.
  • the control unit 11 of the information processing apparatus 10 needs to determine the direction in which the speaker 40 is facing.
  • the direction in which the speaker 40 is facing can be determined based on the image acquired by the camera 30.
  • the direction in which the speaker 40 faces is determined based on the position of the marker 47 with respect to the entire speaker 40. It is also possible to judge.
  • the sound output from the sound from the speaker 40 may be actually measured.
  • a plurality of microphones for collecting sound from the speaker 40 may be arranged in various places in the room.
  • size of an audible area may be adjusted according to a user's hearing ability.
  • the volume of the audible area may be adjusted by referring to the set sound volume of another audio output device (for example, a television device or the like), estimating the user's hearing ability.
  • FIG. 17 is a diagram showing a state in which an audible area is set for each speaker 40.
  • FIG. 17 shows an example in which the first speaker 40a and the second speaker 40b are omnidirectional speakers 40, and the third speaker 40c and the fourth speaker 40d are normal speakers 40. .
  • FIG. 17 also shows the position of the user (for example, a position when an arbitrary projection region R is designated by a gesture or the like). In FIG. 17, it is assumed that the first projection region R1 is designated by the user.
  • the control unit 11 of the information processing apparatus 10 next determines whether or not the speaker 40 including the user's coordinates exists in the audible area (step 506).
  • the control unit 11 of the information processing apparatus 10 includes a plurality of speakers 40 including the user's coordinates in the audible area. Whether or not (step 507).
  • the control unit 11 of the information processing apparatus 10 selects the speaker 40 as the speaker 40 to be used (Step S507). 508). Then, the control unit 11 of the information processing apparatus 10 proceeds to the next step 513.
  • step 507 the control unit 11 of the information processing apparatus 10 proceeds to the next step 509.
  • step 509 the control unit 11 of the information processing apparatus 10 calculates the distance between the center-of-gravity coordinates of the designated projection region R and the coordinates of each speaker 40 including the user's coordinates in the audible area.
  • control unit 11 of the information processing apparatus 10 selects, as the speaker 40 to be used, the speaker 40 having the closest distance to the projection region R among the plurality of speakers 40 including the user's coordinates in the audible area. (Step 510). Then, the control unit 11 of the information processing apparatus 10 proceeds to the next step 513.
  • FIG. 17 there are two speakers 40, the second speaker 40b and the third speaker 40c, as the speakers 40 included in the user's coordinates in the audible area.
  • the second speaker 40b that is closest to the first projection region R1 designated by the user is selected as the speaker 40 to be used. Is done.
  • step 506 when the speaker 40 whose distance from the user is equal to or less than the threshold does not exist (NO in step 506), the information processing apparatus 10 controls the barycentric coordinates of the designated projection region R and each speaker. The distance between the 40 coordinates is calculated (step 511).
  • control unit 11 of the information processing apparatus 10 selects the speaker 40 having the shortest distance from the designated projection region R as the speaker 40 to be used (step 512). Then, the control unit 11 of the information processing apparatus 10 proceeds to the next step 513.
  • step 513 the control unit 11 of the information processing apparatus 10 transmits audio information to the selected speaker 40 and transmits video information to the projector 20.
  • the speaker 40 to be used is selected based on the information on the audible area of each speaker 40. Accordingly, an appropriate speaker 40 can be selected from the plurality of speakers 40 according to the audible area of the speaker 40.
  • the fifth embodiment is different from the above-described embodiments in that a user coordinate system based on the user is set in order to select the speaker 40 to be used in the fourth embodiment.
  • FIG. 18 is a flowchart showing processing when the speaker 40 is selected in the fifth embodiment.
  • the control unit 11 of the information processing apparatus 10 determines whether an arbitrary projection area R is designated by the user from the plurality of projection areas R (step 601). When the projection region R is designated (YES in step 601), the control unit 11 of the information processing apparatus 10 causes each of the plurality of cameras 30 to capture images and acquires images from the plurality of cameras 30 (step 602). .
  • control unit 11 of the information processing apparatus 10 calculates the coordinates of each speaker 40 in the space (XYZ coordinate system) based on the positions of the markers 47 at a plurality of viewpoints in a plurality of images (step 603). .
  • control unit 11 of the information processing apparatus 10 calculates the user's coordinates in the space (XYZ coordinate system) based on the user's position at a plurality of viewpoints in the plurality of images (step 604). At this time, the direction in which the user is facing is also determined.
  • control unit 11 of the information processing apparatus 10 sets a user coordinate system with the position of the user as a reference (origin) (step 605).
  • control unit 11 of the information processing apparatus 10 sets a plurality of search areas based on the projection area coordinate system (step 606).
  • FIG. 19 is a diagram showing a plurality of search areas set based on the user coordinate system.
  • the first projection region R1 is designated by the user among the four projection regions R and the direction of the first projection region R1 is directed by the user is illustrated. Yes.
  • the user's coordinates are set as the origin, and the user's front-rear direction (which can be determined from the user's face orientation, etc.) is the Y "axis.
  • the user's left-right direction is the X" axis.
  • the direction perpendicular to the X "axis and the Y" axis is set as the Z "axis.
  • the front-channel speaker search area is set in a region around the Y axis at a position slightly away from the user.
  • the R channel speaker search area is set in a range close to the user and on the right side of the Y axis (right side when viewed from the user side).
  • the L channel speaker search area is set in a range close to the user and on the left side of the Y axis (left side when viewed from the user side).
  • step 607 to step 614 is the same as the processing from step 306 to step 313 in FIG. 10 (second embodiment) described above, and the description thereof will be omitted.
  • the search area is set on the basis of the projection coordinate system
  • the search area is set on the basis of the user coordinate system.
  • the number of projectors 20 may be plural.
  • the case where the projector 20 is movable has been described.
  • the projector 20 may be fixed (particularly, when the number of the projectors 20 is plural).
  • a wearable device that can display an image at a position corresponding to a registered projection area may be used.
  • the number of cameras 30 may be one.
  • the imaging wavelength is not limited to the visible light region, and may include an ultraviolet region and an infrared region. Further, instead of the camera 30, a sensor that measures only illuminance may be used.
  • a depth sensor, a thermo camera, a microphone, or the like may be used in addition to the camera 30 or instead of the camera 30.
  • a depth sensor, a microphone, or the like may be used in addition to the camera 30 or instead of the camera 30.
  • the speaker 40 may be a fixed type (for example, a large speaker 40).
  • a device having a sound output unit such as a smartphone, a portable game machine, or a portable music player may be used.
  • the information processing apparatus 10 may be integrated with the projector 20, the camera 30, or the speaker 40 (in this case, the projector 20, the camera 30, or the speaker 40 plays a role as the information processing apparatus 10).
  • control unit 11 of the information processing apparatus 10 sets a search area based on one coordinate system, tries to search the speaker 40, and then sets a search area based on the other coordinate system. Then, the search for the speaker 40 is attempted. And the control part 11 of the information processing apparatus 10 should just employ
  • This technique can also take the following composition.
  • (1) Out of a plurality of projection areas capable of projecting an image, based on the information on the position of the designated projection area and the information on the positions of the plurality of speakers, the designated An information processing apparatus including a control unit that selects a speaker to be used when projection is performed on a projection area.
  • the control unit selects the speaker to be used based on a distance between the designated projection area and each speaker.
  • the information processing apparatus according to (2) above, The said control part selects the speaker with the shortest distance from the said designated projection area
  • the control unit selects two or more speakers as the speakers to be used.
  • the information processing apparatus according to (4) above, The two or more speakers are each assigned a different audio channel.
  • the control unit sets a plurality of search areas for searching for the speaker, and selects a speaker to be used for each search area.
  • the information processing apparatus according to (6), The control unit sets the plurality of search areas on the basis of the position of the designated projection area.
  • the control unit acquires information on a user's position, and selects the speaker to be used based on the information on the user's position.
  • the information processing apparatus (9) The information processing apparatus according to (8) above, The information processing apparatus, wherein the control unit acquires information on each audible area in the plurality of speakers, and selects the speaker to be used based on the information on the audible area. (10) The information processing apparatus according to (9) above, The control unit determines whether or not there is a speaker including the user's position in the audible area, and if there is, selects the speaker including the user's position in the audible area as the speaker to be used. apparatus. (11) The information processing apparatus according to (10) above, The control unit selects, as the speaker to be used, the speaker having the closest distance from the projection region among the plurality of speakers when there is no speaker including the user's position in the audible area.
  • the information processing apparatus selects two or more speakers as the speakers to be used. (13) The information processing apparatus according to (12), The control unit sets a plurality of search areas for searching for the speaker, and selects a speaker to be used for each search area. (14) The information processing apparatus according to (13), The control unit sets the plurality of search areas on the basis of the position of the user. (15) The information processing apparatus according to any one of (1) to (14), Each of the plurality of speakers has a marker for acquiring information on a position of the speaker.
  • the information processing apparatus according to any one of (1) to (15), Of the plurality of speakers, at least one speaker can be held by a user, The said control part acquires the information of the position of the speaker hold
  • the information processing apparatus according to any one of (1) to (16),
  • the control unit is an information processing apparatus that changes a position of the projection region.
  • An information processing system comprising: an information processing apparatus having a control unit that selects a speaker to be used when projection is performed. (19) Among the plurality of projection areas capable of projecting an image, based on the information on the position of the designated projection area and the information on the positions of the plurality of speakers, the designated An information processing method for selecting a speaker to be used when projection is performed on a projection area. (20) Among the plurality of projection areas capable of projecting an image, based on the information on the position of the designated projection area and the information on the positions of the plurality of speakers, the designated A program that causes a computer to function as a control unit that selects a speaker to be used when projection is performed on a projection area.

Landscapes

  • Signal Processing (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Projection Apparatus (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

【課題】投影領域の位置に応じて、複数のスピーカから適切なスピーカを選択することができる技術を提供すること。 【解決手段】本技術に係る情報処理装置は、映像を投影可能な複数の投影領域のうち、指定された投影領域の位置の情報を取得し、音声を出力可能な複数のスピーカにおけるそれぞれの位置の情報を取得し、前記指定された投影領域の位置の情報、及び前記複数のスピーカにおけるそれぞれの位置の情報に基づいて、前記指定された投影領域について使用されるスピーカを選択する制御部を具備する。

Description

情報処理装置、情報処理方法、情報処理システム及びプログラム
 本技術は、複数のスピーカから、使用されるスピーカを選択する技術に関する。
 従来から、スクリーンや、壁などに映像を投影可能なプロジェクタが広く知られている。
 下記特文献1には、プロジェクタにおける光学系の向きを自動的に制御することにより、壁や天井における任意の領域に対して映像を投影可能なプロジェクタが記載されている。
 下記特許文献1に記載の技術では、まず、壁等の投影対象を撮像した画像に基づいて、投影対象の白色度合や、凹凸度合等が判断される。そして、この白色度合、凹凸度合等に基づいて、映像を投影するための投影領域の候補である投影領域候補が決定される。
 次に、投影領域候補に対して映像が投影されて、投影領域候補がユーザに提示される。投影領域候補が1つである場合には、その1つしかない投影領域候補が、実際の投影領域として決定される。
 一方、投影領域候補が複数である場合において、ユーザから投影領域候補の切り替えの指示があった場合には、他の投影領域候補に候補が切り替えられる。そして、他の投影領域候補に対して映像が投影されて、投影領域候補がユーザに提示される。いずれかの投影領域候補が提示されているときに、ユーザから終了の指示があると、現在の投影領域候補が、実際の投影領域として決定される。
特開2015-144344号公報
 位置が異なる複数の投影領域に対して、それぞれ同じ位置のスピーカ(例えば、プロジェクタに内蔵されているスピーカ)が使用されると、臨場感が損なわれてしまうおそれがある。
 以上のような事情に鑑み、本技術の目的は、投影領域の位置に応じて、複数のスピーカから適切なスピーカを選択することができる技術を提供することにある。
 本技術に係る情報処理装置は、映像を投影可能な複数の投影領域のうち、指定された投影領域の位置の情報と、複数のスピーカの位置の情報とに基づいて、前記複数のスピーカの中から、前記指定された投影領域に対して投影が行われる際に使用されるスピーカを選択する制御部を具備する。
 これにより、投影領域の位置に応じて、複数のスピーカから適切なスピーカを選択することができる。
 上記情報処理装置において、前記制御部は、前記指定された前記投影領域と、各スピーカとの間の距離に基づいて、前記使用されるスピーカを選択してもよい。
 上記情報処理装置において、前記制御部は、前記複数のスピーカのうち、前記指定された投影領域から最も距離が近いスピーカを、前記使用されるスピーカとして選択してもよい。
 上記情報処理装置において、前記制御部は、前記使用されるスピーカとして、2以上のスピーカを選択してもよい。
 上記情報処理装置において、前記2以上のスピーカには、それぞれ異なる音声チャネルが割り当てられてもよい。
 上記情報処理装置において、前記制御部は、前記スピーカをサーチするための複数のサーチエリアを設定し、サーチエリア毎に使用されるスピーカを選択してもよい。
 情報処理装置。
 上記情報処理装置において、前記制御部は、前記指定された前記投影領域の位置を基準として、前記複数のサーチエリアを設定してもよい。
 上記情報処理装置において、前記制御部は、ユーザの位置の情報を取得し、前記ユーザの位置の情報に基づいて、前記使用されるスピーカを選択してもよい。
 上記情報処理装置において、前記制御部は、前記複数のスピーカにおけるそれぞれの可聴エリアの情報を取得し、前記可聴エリアの情報に基づいて、前記使用されるスピーカを選択してもよい。
 上記情報処理装置において、前記制御部は、ユーザの位置を前記可聴エリアに含むスピーカが存在するかどうかを判定し、存在する場合、ユーザの位置を前記可聴エリアに含むスピーカを、前記使用されるスピーカとして選択してもよい。
 上記情報処理装置において、前記制御部は、ユーザの位置を前記可聴エリアに含むスピーカが存在しない場合、前記複数のスピーカのうち、投影領域からの距離が最も近いスピーカを、前記使用されるスピーカとして選択してもよい。
 上記情報処理装置において、前記制御部は、前記使用されるスピーカとして、2以上のスピーカを選択してもよい。
 上記情報処理装置において、前記制御部は、前記スピーカをサーチするための複数のサーチエリアを設定し、サーチエリア毎に使用されるスピーカを選択してもよい。
 上記情報処理装置において、前記制御部は、前記ユーザの位置を基準として、前記複数のサーチエリアを設定してもよい。
 上記情報処理装置において、前記複数のスピーカは、それぞれ、前記スピーカの位置の情報を取得するためのマーカを有していてもよい。
 上記情報処理装置において、前記複数のスピーカのうち、少なくとも1つのスピーカは、ユーザが把持することが可能であり、前記制御部は、前記ユーザに把持されたスピーカの位置の情報を取得し、前記スピーカの位置の情報に基づいて、前記投影領域を登録してもよい。
 上記情報処理装置において、前記制御部は、前記投影領域の位置を変化させてもよい。
 本技術に係る情報処理システムは、複数のスピーカと、映像を投影可能な複数の投影領域のうち、指定された投影領域の位置の情報と、複数のスピーカの位置の情報とに基づいて、前記複数のスピーカの中から、前記指定された投影領域に対して投影が行われる際に使用されるスピーカを選択する制御部を有する情報処理装置とを具備する。
 本技術に係る情報処理方法は、映像を投影可能な複数の投影領域のうち、指定された投影領域の位置の情報と、複数のスピーカの位置の情報とに基づいて、前記複数のスピーカの中から、前記指定された投影領域に対して投影が行われる際に使用されるスピーカを選択する。
 本技術に係るプログラムは、映像を投影可能な複数の投影領域のうち、指定された投影領域の位置の情報と、複数のスピーカの位置の情報とに基づいて、前記複数のスピーカの中から、前記指定された投影領域に対して投影が行われる際に使用されるスピーカを選択する制御部としてコンピュータを機能させる。
 以上のように、本技術によれば、投影領域の位置に応じて、複数のスピーカから適切なスピーカを選択することができる技術を提供することができる。
本技術の第1実施形態に係る情報処理システムを示す図である。 情報処理システムを示すブロック図である。 スピーカを示す拡大図である。 投影領域を登録するときの処理を示すフローチャートである。 ユーザがスピーカを把持して投影領域を登録するときの様子を示す図である 部屋の中において登録された複数の投影領域の位置の一例を示す図である。 複数の投影領域の座標の一例を示す図である。 各スピーカの座標の一例を示す図である。 スピーカが選択されるときの処理を示すフローチャートである。 第2実施形態において、スピーカが選択されるときの処理を示すフローチャートである。 投影領域座標系に基づいて設定された複数のサーチエリアを示す図である。 いずれかのスピーカに対して、音声チャネルが割り当てられたときの様子を示す図である。 第3実施形態において、スピーカが選択されるときの処理を示すフローチャートである。 ユーザからの距離(閾値)を示す図である。 可聴エリアの一例を示す図である。 第4実施形態において、スピーカが選択されるときの処理を示すフローチャートである。 各スピーカについて、それぞれ、可聴エリアが設定されたときの様子を示す図である。 第5実施形態において、スピーカが選択されるときの処理を示すフローチャートである。 ユーザ座標系に基づいて設定された複数のサーチエリアを示す図である。
 以下、本技術に係る実施形態を、図面を参照しながら説明する。
 ≪第1実施形態≫
 <情報処理システムの全体構成及び各部の構成>
 図1は、本技術の第1実施形態に係る情報処理システム100を示す図である。図2は、情報処理システム100を示すブロック図である。これらの図に示すように、情報処理システム100は、情報処理装置10と、プロジェクタ20と、複数のカメラ30と、複数のスピーカ40とを含む。
 情報処理装置10は、本技術に係る情報処理方法における主な制御を実行する。この情報処理装置10は、情報処理システム100に専用の装置であってもよいし、情報処理システム100以外の用途にも使用可能な汎用の装置であってもよい。情報処理装置10として、汎用の装置が用いられる場合、情報処理装置10は、例えば、デスクトップPC(Personal computer)、ラップトップPC、タブレットPC等の各種のPCや、スマートフォン、ゲーム機、音楽プレーヤ等により構成される。典型的には、情報処理装置10は、情報処理機能を有する装置であればどのような装置が用いられてもよい。
 図1に示す例では、情報処理装置10が部屋の中に配置されている様子が示されている。一方、情報処理装置10は、部屋の外部に配置されていてもよい(例えば、情報処理装置10は、ネットワーク上のサーバ装置等であってもよい)。
 情報処理装置10は、制御部11と、記憶部12と、通信部13とを有している。制御部11は、例えば、CPU(Central Processing Unit)等により構成される。この制御部11は、情報処理装置10の各部や、情報処理システム100の全体を統括的に制御する。制御部11における各種の処理については、動作説明の欄において後に詳述する。
 記憶部12は、制御部11の処理に必要な各種のデータや各種のプログラムが記憶される不揮発性のメモリと、制御部11の作業領域として用いられる揮発性のメモリとを含む。上記各種のプログラムは、半導体メモリや光ディスクなどの可搬性の記録媒体から読み取られてもよいし、ネットワーク上のサーバ装置からダウンロードされてもよい(後述の他の記憶部におけるプログラムについても同様)。
 通信部13は、無線又は有線により、プロジェクタ20、カメラ30、複数のスピーカ40との間で相互に通信可能に構成されている。
 プロジェクタ20は、壁、天井、床、家具(テーブル、箪笥等)、スクリーンなどの部屋の中の各種の投影対象に対して、映像を投影可能に構成されている。このプロジェクタ20は、例えば、天井や、テーブル上などの部屋の中の任意の位置に取り付けられた姿勢制御機構に取り付けられている。
 そして、プロジェクタ20は、姿勢制御機構の駆動により、その向き及び姿勢が任意に調整可能とされている(つまり、可動式)。この向き及び姿勢の調整により、プロジェクタ20は、部屋の中の任意の投影領域R(図5参照)に対して、映像を投影可能とされている。
 なお、本実施形態では、プロジェクタ20の全体の向き及び姿勢が変化される形態とされている。一方、プロジェクタ20の全体の向き及び姿勢は変化せずに、プロジェクタ20の一部(例えば、投影部23のみ)の向き及び姿勢が変化されてもよい。
 プロジェクタ20は、制御部21と、記憶部22と、投影部23と、通信部24とを有している。制御部21は、例えば、CPU(Central Processing Unit)等により構成されており、プロジェクタ20の各部を統括的に制御する。
 記憶部22は、制御部21の処理に必要な各種のデータや各種のプログラムが記憶される不揮発性のメモリと、制御部21の作業領域として用いられる揮発性のメモリとを含む。通信部23は、無線又は有線により、情報処理装置10との間で相互に通信可能に構成されている。
 投影部23は、光を出射する光源と、光源から出射された光の反射光を生成するリフレクタと、反射光を投射光に変換するための画像変換素子(例えば、液晶や、ミラー光学系)と、投射光を投射する投射レンズとを含む。投影部23は、ズーム機構、オートフォーカス機構を備えていてもよい。
 複数のカメラ30は、それぞれ、情報処理装置10からの指示に応じて、スピーカ40の画像や、ユーザの画像等を取得し、取得した画像を情報処理装置10に送信する。複数のカメラ30は、例えば、できるだけ広い範囲を撮像可能なように、部屋の中において少し高い位置に配置される。なお、カメラ30は、向き及び姿勢の調整により、撮像可能な範囲が変更可能に構成されていてもよい(つまり、可動式であってもよい)。
 複数のカメラ30は、それぞれ、制御部31と、記憶部32と、撮像部33と、通信部34とを有している。制御部31は、例えば、CPU(Central Processing Unit)等により構成されており、カメラ30の各部を統括的に制御する。
 記憶部32は、制御部31の処理に必要な各種のデータや各種のプログラムが記憶される不揮発性のメモリと、制御部31の作業領域として用いられる揮発性のメモリとを含む。通信部34は、無線又は有線により、情報処理装置10との間で相互に通信可能に構成されている。
 撮像部33は、CMOS(Complementary Metal Oxide Semiconductor)センサや、CCD(Charge Coupled Device)センサなどの撮像素子と、撮像素子の露光面に対して被写体光を結像させる結像レンズ等のレンズ光学系とを含む。
 図3は、スピーカ40を示す拡大図である。このスピーカ40は、ユーザが片手で把持することができる程度の大きさ及び重さとされており、ユーザによって、部屋の中の任意の位置に置かれて使用される。
 図3に示すように、スピーカ40は、その内部に各種の部品が収納される筐体46を備えている。筐体46の正面、右側面、背面、左側面において下側の位置には、筐体46の内部で発生した音を筐体46の外部へ放出するための複数の小さな開口48が設けられている。
 また、筐体46の正面において、上側の位置には、マーカ47が設けられている。このマーカ47は、スピーカ40の位置認識を容易にするために設けられている。
 図3に示す例では、マーカ47として、QRコード(登録商標)が採用された場合の一例が示されている。一方、マーカ47は、QRコード以外の幾何学模様により構成されていてもよいし、特定の周期の発光するLEDや、レーザによって構成されていてもよい。あるいは、マーカ47は、再規性反射材により構成されていてもよい。マーカ47は、典型的には、スピーカ40の位置認識を容易にすることができるものであれば、どのようなマーカ47であってもよい。
 また、筐体46の上面において中央近傍の位置には、ユーザによる操作が入力される操作部43が設けられている。本実施系形態において、この操作部43は、ユーザが部屋の中の任意の領域に投影領域Rを設定するときに使用される。
 図3に示す例では、操作部43として、押しボタン式の操作部が採用された場合の一例が示されている。一方、操作部43は、近接センサによる接触式の操作部であってもよい。あるいは、操作部43は、音声によりユーザの操作が入力される形態(マイクロフォン)であってもよい。操作部43は、典型的には、ユーザの操作を入力可能な操作部であれば、どのような操作部であってもよい。
 図2を参照して、スピーカ40は、制御部41と、記憶部42と、操作部43と、通信部44と、音出力部45とを有している。
 制御部41は、例えば、CPU(Central Processing Unit)等により構成されており、スピーカ40の各部を統括的に制御する。
 記憶部42は、制御部41の処理に必要な各種のデータや各種のプログラムが記憶される不揮発性のメモリと、制御部41の作業領域として用いられる揮発性のメモリとを含む。通信部44は、無線又は有線により、情報処理装置10との間で相互に通信可能に構成されている。
 音出力部45は、制御部41から入力された音信号を、物理振動に変換し、音信号に応じた音を発生させる。音出力部45は、コーン紙式、圧電式、超音波式等、どのようなタイプの音出力部であってもよい
 <動作説明>
 [投影領域Rの登録処理]
 次に、情報処理装置10の制御部11の処理について説明する。処理の説明においては、まず、情報処理装置10の制御部11が、投影領域Rを登録するときの処理について説明する。
 図4は、投影領域Rを登録するときの処理を示すフローチャートである。図5は、ユーザがスピーカ40を把持して投影領域Rを登録するときの様子を示す図である。
 図5において上側の図に示すように、まず、ユーザは、部屋の中の空間内において、投影領域Rを登録したい任意の場所を探し、スピーカ40を把持して、その場所に移動する。図5の上側の図では、ユーザが、壁の一部を投影領域Rとして登録しようとして、壁際に立ったときの様子が示されている。なお、投影領域Rは、壁に限られず、天井、床、家具(テーブル、箪笥等)、スクリーン等に登録することもできる。
 ユーザは、スピーカ40を把持して任意の場所に移動すると、登録しようとしている矩形の投影領域Rの4つの角のうち、下側の一方の角に対応する位置にスピーカ40を位置させる。そして、ユーザは、その状態で、スピーカ40の操作部43を押下する(押下したら押下した状態を維持する)。
 図4を参照して、まず、情報処理装置10の制御部11は、スピーカ40の操作部43が押下されたかどうかを判定する(ステップ101)。
 例えば、図5の上の図に示すように、ユーザがスピーカ40の操作部43を押下した場合、この押下を示す情報がスピーカ40から情報処理装置10に対して送信される。情報処理装置10の制御部11は、操作部43の押下を示す情報を受信すると(ステップ101のYES)、複数のカメラ30によりそれぞれ撮像を行わせ、複数のカメラ30からそれぞれ画像を取得する(ステップ102)。
 次に、情報処理装置10の制御部11は、取得された全ての画像のうち、操作部43が押下されたスピーカ40におけるマーカ47が写っている複数の画像を抽出する(ステップ103)。
 次に、情報処理装置10の制御部11は、抽出された複数の画像における複数視点でのマーカ47の位置に基づいて、空間(XYZ座標系)内におけるスピーカ40の座標を算出する(ステップ104)。
 なお、ステップ104において算出される座標は、本実施形態において、矩形の投影領域Rにおける下側の一方の座標に対応する。以降では、矩形の投影領域Rにおける下側の一方の座標を第1の座標P1と呼ぶ(図5の中央参照)。
 図5の中央の図を参照して、ユーザは、スピーカ40を把持して、操作部43の押下を維持したまま移動する。そして、ユーザは、登録しようとしている矩形の投影領域Rの4つの角のうち、下側の他方の角に対応する位置にスピーカ40を位置させる。その後、ユーザは、その状態で、スピーカ40の操作部43における押下を解除する。
 図4を参照して、情報処理装置10の制御部11は、空間内でのスピーカ40の座標(第1の座標P1)を算出した後、スピーカ40の操作部43における押下が解除されたかどうかを判定する(ステップ105)。
 例えば、図5の中央の図に示すように、ユーザがスピーカ40の操作部43における押下を解除した場合、この押下の解除を示す情報がスピーカ40から情報処理装置10に対して送信される。情報処理装置10の制御部11は、操作部43における押下の解除を示す情報を受信すると(ステップ105のYES)、複数のカメラ30によりそれぞれ撮像を行わせ、複数のカメラ30からそれぞれ画像を取得する(ステップ106)。
 次に、情報処理装置10の制御部11は、取得された全ての画像のうち、押下が解除されたスピーカ40におけるマーカ47が写っている複数の画像を抽出する(ステップ107)。
 次に、情報処理装置10の制御部11は、抽出された複数の画像における複数視点でのマーカ47の位置に基づいて、空間(XYZ座標系)内におけるスピーカ40の座標を算出する(ステップ108)。
 なお、ステップ108において算出される座標は、本実施形態において、矩形の投影領域Rにおける下側の他方の座標に対応する。以降では、矩形の投影領域Rにおける下側の他方の座標を第2の座標P2と呼ぶ。
 次に、情報処理装置10は、第1の座標P1及び第2の座標P2に基づいて、投影領域Rの4つの角の座標(XYZ座標系)を算出する(ステップ109)。ここで、本実施形態においては、投影領域Rにおけるアスペクト比は予め決定されている。
 従って、投影領域Rの4つの角の座標のうち、2つの座標(つまり、第1の座標P1及び第2の座標P2)が決まれば、他の2つ角の座標は、自動的に決定される。以降の説明では、上側の2つの角の座標のうち、一方の角の座標を第3の座標P3と呼び、他方の角の座標を第4の座標P4と呼ぶ。
 なお、ユーザによって指定された第1の座標P1及び第2の座標P2(下側の2つの角の座標)は、高さ方向の値(zの値)がずれている場合がある。この場合、投影領域Rが傾斜してしまう。従って、第1の座標P1及び第2の座標P2の高さ方向の値が同じになるように、座標の補正が行われてもよい(この場合、第3の座標P3、第4の座標P4の高さ方向の値も同じになる)。
 また、スピーカ40の操作部43が操作されて第1の座標P1や、第2の座標P2が登録されるとき、スピーカ40は、実際には、壁から少し離れた位置にある。従って、何ら対策を講じないと、壁から少し離れた位置に、投影領域Rが登録されてしまう。このため、4つの角の座標が壁(投影対象)の位置に一致する様に、座標の補正が行われてもよい。
 ユーザは、同様にして、スピーカ40を把持して他の投影領域Rを登録する。なお、ユーザは、1つのスピーカ40を用いて、それぞれ1つずつ投影領域Rを登録してもよいし、1つの(同じ)スピーカ40を用いて複数、あるいは、全ての投影領域Rを登録してもよい。その後、ユーザは、図5の下の図に示すように、部屋の中の任意の位置にスピーカ40を載置する。
 なお、本実施形態において、投影領域Rと、その投影領域Rを登録するために使用したスピーカ40とは互いに紐づいている訳ではない。また、本実施形態では、1つの(同じ)スピーカ40を用いて、全ての投影領域Rを登録することが可能であるので、複数のスピーカ40のうち、少なくとも1つのスピーカ40に操作部43が設けられていればよい。
 ここでの説明では、スピーカ40における操作部43が押下されたときに第1の座標P1が算出され、操作部43の押下が解除されたときに第2の座標P2が算出される場合について説明した。一方、スピーカ40における操作部43が押下されてすぐ解除(1回目)されたときに、第1の座標P1が算出され、その次に、スピーカ40における操作部43が押下されてすぐ解除(2回目)されたときに、第2の座標P2が算出されてもよい。
 また、ここでの説明では、投影領域Rにおける下側の2つの角がユーザによって指定される場合について説明したが、投影領域Rにおける右側の2つの角、あるいは、左側の2つの角がユーザによって指定されてもよい。あるいは、対角に位置する2つの角がユーザによって指定されてもよい。また、3つの角、あるいは、4つの角すべてがユーザによって指定されてもよい。
 また、ここでの説明では、ユーザがスピーカ40を用いて任意の投影領域Rを登録する場合について説明した。一方、スピーカ40を用いずに、ユーザのジェスチャと、音声コマンドにより、任意の投影領域Rが登録されてもよい。この場合、ユーザの音声を取得するためのマイクロフォンが、例えば、スピーカ40や、カメラ30等に設けられる。
 一例として、ユーザが登録しようとしている矩形の投影領域Rの左下(第1の座標P1)、右上(第3の座標P3)を指差すジェスチャをして、「ここが左下」、「ここが右上」等と言ったとする。
 この場合、情報処理装置10の制御部11は、まず、複数のカメラ30により取得された画像に基づいて、空間(XYZ座標系)内におけるユーザの指差した位置の座標を判定する。そして、情報処理装置10の制御部11は、マイクロフォンにより取得された音声を解析して、ユーザが指差した位置の座標が、4つの角のうちどの角の座標に対応する座標であるかを判断する。
 情報処理装置10の制御部11は、自動推薦機能により、ユーザに対して投影領域Rの推薦を行ってもよい。この場合、例えば、情報処理装置10の制御部11は、カメラ30から取得した画像に基づいて、壁などの投影対象における色や平坦度等を判定する。そして、情報処理装置10の制御部11は、投影対象における色や平坦度に基づいて、部屋の中において投影領域Rとなり得る領域を自動的に算出する。
 そして、情報処理装置10の制御部11は、この領域に対して事前に映像の投影を行ってユーザに対して、投影領域Rの推薦を行う。この場合、ユーザは、推薦された投影領域Rの中から、登録すべき投影領域Rを選択する。
 図6は、部屋の中において登録された複数の投影領域Rの位置の一例を示す図である。なお、図6には、情報処理装置10の位置及びスピーカ40の位置も示されている。図7は、複数の投影領域Rの座標の一例を示す図である。
 図6に示すように、情報処理装置10の制御部11は、情報処理装置10の位置を原点としたXYZ座標系を有している。なお、XYZ座標系の原点の位置は、情報処理装置10の位置に限られず、適宜変更可能である。
 図6及び図7に示す例では、投影領域Rとして、第1の投影領域R1、第2の投影領域R2、第3の投影領域R3、及び第4の投影領域R4の4つの投影領域Rが登録された場合の一例が示されている。
 各投影領域Rは、上述のように、4つの角の座標(第1の座標P1、第2の座標P2、第3の座標P3、第4の座標P4)によって定義されている。
 図6及び図7に示す例では、第1の投影領域R1の第1の座標P1(x、y、z)、第2の座標P2(x、y、z)、第3の座標P3(x、y、z)、第4の座標P4(x、y、z)は、それぞれ、(2,4,0.5)、(3,4,0.5)、(3,4,1.5)、(2,4,1.5)とされている。
 また、第2の投影領域R2の第1の座標P1(x、y、z)、第2の座標P2(x、y、z)、第3の座標P3(x、y、z)、第4の座標P4(x、y、z)は、それぞれ、(4,3,1)、(4,2,1)、(4,2,2)、(4,3,2)とされている。
 また、第3の投影領域R3の第1の座標P1(x、y、z)、第2の座標P2(x、y、z)、第3の座標P3(x、y、z)、第4の座標P4(x、y、z)は、それぞれ、(3,-0.25,0.5)、(2,-0.25,0.5)、(2,-0.25,1.5)、(3,-0.25,1.5)とされている。
 また、第4の投影領域R4の第1の座標P1(x、y、z)、第2の座標P2(x、y、z)、第3の座標P3(x、y、z)、第4の座標P4(x、y、z)は、それぞれ、(-0.25,1,1.5)、(-0.25,2,1.5)、(-0.25,2,2)、(-0.25,1,2)とされている。
[スピーカ40選択処理]
 次に、情報処理装置10の制御部11が、ユーザにより指定された投影領域Rについて、複数のスピーカ40から適切なスピーカ40を選択するときの処理について説明する。
 図9は、スピーカ40が選択されるときの処理を示すフローチャートである。まず、情報処理装置10の制御部11は、複数の投影領域Rから任意の投影領域Rがユーザにより指定されたかどうかを判定する(ステップ201)。投影領域Rの指定の方法は、ユーザによるジェスチャによる指定や、音声による指定、情報処理装置10への直接的な入力等、様々な方法があるがどのような方法が用いられてもよい。
 投影領域Rが指定されると、情報処理装置10の制御部11は、複数のカメラ30によりそれぞれ撮像を行わせ、複数のカメラ30からそれぞれ画像を取得する(ステップ202)。次に、情報処理装置10の制御部11は、複数の画像における複数視点での各マーカ47の位置に基づいて、空間内(XYZ座標系)における各スピーカ40の座標を算出する(ステップ203)。
 図8は、各スピーカ40の座標の一例を示す図である。図6及び図8を参照して、この例では、第1のスピーカ40a、第2のスピーカ40b、第3のスピーカ40c及び第4のスピーカ40dにおける4つのスピーカ40が部屋の中に配置されている場合の例が示されている。
 図6及び図8に示す例では、第1のスピーカ40aの座標(x、y、z)、第2のスピーカ40bの座標(x、y、z)、第3のスピーカ40cの座標(x、y、z)、第4のスピーカ40dの座標(x、y、z)は、それぞれ、(2,4,1)、(4,2,0.5)、(3,-0.25,0)、(-0.25,1,3)とされている。
 各スピーカ40の座標を算出すると、次に、情報処理装置10の制御部11は、指定された投影領域Rの重心座標を計算する(ステップ204)。そして、情報処理装置10の制御部11は、指定された投影領域Rの重心座標と、各スピーカ40の座標との間の距離を算出する(ステップ205)。
 ここで、人間の耳の特性上、垂直方向(z軸方向)における音源の位置の分解能(どの高さに音源があるかの識別力)は、水平方向(xy軸方向)における音源の位置の分解能(水平方向でどの位置に音源があるかの識別力)よりも低いと言われている。
 従って、指定された投影領域Rと、各スピーカ40との間の距離を算出するとき、情報処理装置10の制御部11は、水平方向(xy軸方向)での距離が、垂直方向(z軸方向)での距離よりも重要視されるように、重み付けによる距離の計算を行ってもよい。
 垂直方向の距離を無視して、水平方向の距離のみを参照することもできる(垂直方向の重み付けが0の場合)。なお、重み付けによる距離の計算については、後の記載において、投影領域Rと、スピーカ40との間の距離を算出する場合においても同様に適用することができる(例えば、後述のステップ310、403等)。
 指定された投影領域Rの重心座標と、各スピーカ40の座標との間の距離を算出すると、制御部11は、指定された投影領域Rとの間の距離が最も近いスピーカ40を使用されるスピーカ40として選択する(ステップ206)。
 例えば、図6~図8に示す例において、第1の投影領域R1がユーザにより指定された場合、第1の投影領域R1との間の距離が最も近い第1のスピーカ40aが、その投影領域Rに使用されるスピーカ40として選択される。
 同様に、第2、第3、第4の投影領域R4がユーザにより指定された場合、第2、第3、第4の投影領域R4との間の距離が最も近い第2、第3、第4のスピーカ40dが、その投影領域Rに使用されるスピーカ40として選択される。
 使用すべきスピーカ40を選択すると、情報処理装置10の制御部11は、選択されたスピーカ40に対して音声情報を送信し、また、プロジェクタ20に対して映像情報を送信する(ステップ207)。
 スピーカ40の制御部41は、情報処理装置10から受信された音声情報に基づく音声を出力部から出力させる。
 また、プロジェクタ20の制御部21は、選択された投影領域Rに映像を投影可能なように、姿勢制御機構によりプロジェクタ20の向き及び姿勢を調整した後、情報処理装置10から受信された映像情報に基づく映像を、その投影領域Rに対して投影する。
 プロジェクタ20の制御部21(あるいは、情報処理装置10の制御部11)は、投影領域Rに凹凸がある場合に映像について幾何補正を行ってもよいし、投影領域Rの色調に合わせて、投影される映像の色調補正を行ってもよい。
<作用等>
 (スピーカ40の選択について)
 本実施形態に係る情報処理装置10では、映像を投影可能な複数の投影領域Rのうち、指定された投影領域Rの位置(座標)の情報が取得され、また、音声を出力可能な複数のスピーカ40におけるそれぞれの位置(座標)の情報が取得される。そして、指定された投影領域Rの位置(座標)の情報、及び複数のスピーカ40におけるそれぞれの位置(座標)の情報に基づいて、指定された投影領域Rについて使用されるスピーカ40が選択される。
 これにより、指定された投影領域Rの位置に応じて、複数のスピーカ40から適切なスピーカ40を選択することができる。従って、本実施形態では、投影領域Rの位置と、音源の位置とのずれがない映像体験を提供することができ、映像及び音声を視聴するユーザの臨場感が損なわれてしまうことを防止することができる。
 また、本実施形態では、指定された投影領域Rと、各スピーカ40との間の距離に基づいて、使用されるスピーカ40が選択されるので、さらに効果的に、複数のスピーカ40から適切なスピーカ40を選択することができる。
 また、本実施形態では、複数のスピーカ40のうち、指定された投影領域Rから最も距離が近いスピーカ40が、使用されるスピーカ40として選択されるので、さらに効果的に、複数のスピーカ40から適切なスピーカ40を選択することができる。
 また、本実施形態では、スピーカ40の選択において、複数のスピーカ40におけるそれぞれの位置が取得されるとき、それぞれのスピーカ40に設けられたマーカ47が用いられる。これにより、複数のスピーカ40におけるそれぞれの位置を正確に判断することができる。
 ここで、本実施形態においては、スピーカ40は、ユーザが片手で把持することができる程度の大きさ及び重さとされている。このため、部屋の中におけるスピーカ40の位置は、ユーザにより、度々変更される場合がある。例えば、ユーザは、より希望する位置にスピーカ40の位置を変更するという理由や、掃除の邪魔になるという理由等により、スピーカ40の位置を変更する場合がある。
 このため、本実施形態では、ユーザにより投影領域Rが指定される度に、複数のスピーカ40における現在の位置を取得し、この現在のスピーカ40の位置を、指定された投影領域Rとの距離を算出するために使用することとしている(ステップ201~ステップ205参照)。このように、ユーザにより投影領域Rが指定される度に、複数のスピーカ40の現在の位置を取得することで、スピーカ40の位置が度々変更されるような場合にも適切に対応することができる。
 (投影領域Rの登録について)
 本実施形態においては、ユーザに把持されたスピーカ40の位置の情報(座標P1、P2等)が取得され、スピーカ40の位置の情報に基づいて、投影領域Rが登録される。これにより、ユーザは、スピーカ40を把持してスピーカ40を移動させることで、空間内において直感的に投影領域Rを登録することができる。
 また、本実施形態では、投影領域Rの登録において、スピーカ40における位置が取得されるとき、スピーカ40に設けられたマーカ47が用いられる。これにより、スピーカ40の位置を正確に判断することができる。
 また、本実施形態では、投影領域Rを登録するための操作部43がスピーカ40に設けられおり、操作部43が操作されるタイミングで、スピーカ40の位置(マーカ47の位置)が取得される。これにより、ユーザは、操作部43の操作により、空間内における任意の領域に、簡単に投影領域Rを登録することができる。
 また、本実施形態では、登録した投影領域Rの近くにスピーカ40を配置しておくといった使用方法もある(図6参照)。この場合、ユーザは、投影領域Rをどこに配置したかを忘れてしまうことを防止することができる。
 <第1実施形態変形例>
 以上の説明では、投影領域Rがユーザにより指定される度に、複数のスピーカ40における現在の位置が取得され、この現在のスピーカ40の位置が、指定された投影領域Rとの距離を算出するために使用される場合について説明した。一方、複数のスピーカ40の位置は、予め登録しておくこともできる。
 例えば、ユーザが部屋の中の任意の位置にスピーカ40を配置した後(例えば、図5の下側参照)、スピーカ40に設けられた操作部43を押下した(押下したらすぐ離す:この操作は、投影領域Rを登録するための操作とは異なる)とする。
 情報処理装置10の制御部11は、操作部43が押下された(押下してすぐ離された)ことを示す情報をスピーカ40から受信すると、カメラ30により取得された複数の画像に基づいて、スピーカ40(操作部43が操作されたスピーカ40)の位置を算出する。
 このようにして、情報処理装置10の制御部11は、全てのスピーカ40について、スピーカ40の位置を予め登録しておく。なお、ユーザは、全てのスピーカ40について、任意の位置にスピーカ40を配置した後、操作部43を押下すればよい(スピーカ40の配置場所を変更したときも同様))。
 この場合、情報処理装置10の制御部11は、全ての投影領域Rの位置及び全てのスピーカ40の位置を予め認識できる。従って、この場合、情報処理装置10の制御部11は、全ての投影領域Rについて、その投影領域Rに最も近いスピーカ40がどれであるかを予めそれぞれ判定しておき、投影領域Rと、スピーカ40との関係を記憶部12に記憶させておく。
 そして、情報処理装置10の制御部11は、そのとき使用する投影領域Rが指定されたときに、その投影領域Rに関連付けられたスピーカ40を、使用されるスピーカ40として選択すればよい。
 以上の説明では、投影領域Rの位置が一旦登録されると、その投影領域Rの位置が固定である場合について説明した。一方、投影領域Rが設定された投影対象の状況は、変化する場合があり、投影領域Rの位置が固定であると、投影対象の状況の変化に対応することができない可能性がある。
 投影対象(壁等)の状況の変化とは、例えば、投影対象に日光が当たっている場合や、投影対象上に物が置かれている(立てかけられている)場合などである。
 従って、情報処理装置10の制御部11は、(カメラ30の画像等に基づいて、)投影領域Rが設定された投影対象の状況を判定し、判定された投影対象の状況に基づいて、投影領域Rの位置及び大きさのうち少なくとも一方を変化させてもよい。例えば、情報処理装置10の制御部11は、投影対象に日光が当たっている場合や、投影対象上に物が置かれている場合、日光や、物を避けるように、投影領域Rの位置及び大きさのうち少なくとも一方を変化させる。
 情報処理装置10の制御部11は、投影領域Rの位置を変化させた場合、変化された後の投影領域Rの位置と、各スピーカ40との位置との距離を算出して、その投影領域Rから最も近いスピーカ40を判定する。そして、情報処理装置10の制御部11は、そのスピーカ40を、使用されるスピーカ40として選択すればよい。ここで、スピーカが選択されたとき、選択されたスピーカ40について、その周辺がプロジェクタ20によって照らされることで、スピーカ40の選択状況がユーザに通知されてもよく、また、スピーカ40によりその選択状況が音声により提示されてもよい。
 ≪第2実施形態≫
 次に、本技術の第2実施形態について説明する。第2実施形態以降の説明では、上述の第1実施形態と同様の構成及び機能を有する部分については、同一符号を付し、説明を簡略化又は省略する。
 上述の第1実施形態では、指定された投影領域Rについて使用されるスピーカ40として、1つのスピーカ40が選択される場合について説明した。一方、第2実施形態では、指定された投影領域Rについて使用されるスピーカ40として、それぞれ異なる音声チャネルが割り当てられる2以上のスピーカ40が選択される点で、第1実施形態と異なっている。従って、この点を中心に説明する。
 図10は、第2実施形態において、スピーカ40が選択されるときの処理を示すフローチャートである。
 図10に示すように、まず、情報処理装置10の制御部11は、複数の投影領域Rから任意の投影領域Rがユーザにより指定されたかどうかを判定する(ステップ301)。投影領域Rが指定されると(ステップ301のYES)、情報処理装置10の制御部11は、複数のカメラ30によりそれぞれ撮像を行わせ、複数のカメラ30からそれぞれ画像を取得する(ステップ302)。
 次に、情報処理装置10の制御部11は、複数の画像における複数視点での各マーカ47の位置に基づいて、空間内(XYZ座標系)における各スピーカ40の座標を算出する(ステップ303)。
 次に、情報処理装置10の制御部11は、指定された投影領域Rの位置(重心座標)を基準(原点)として、投影領域座標系を設定する(ステップ304)。次に、情報処理装置10の制御部11は、投影領域座標系に基づいて、複数のサーチエリアを設定する(ステップ305)。
 図11は、投影領域座標系に基づいて設定された複数のサーチエリアを示す図である。図11に示す例では、4つの投影領域Rのうち、第1の投影領域R1がユーザに指定され、この第1の投影領域R1の位置(重心座標)を基準(原点)にして、投影領域座標系が設定されたときの様子が示されている。
 投影領域座標系では、投影領域Rの重心座標を通り、投影領域Rの面に対して垂直に引かれた線がY'軸とされている。た、投影領域Rの重心座標を通り、投影領域Rにおける横方向に平行な方向に引かれた線がX'軸とされている。また、投影領域Rの重心座標を通り、投影領域Rの縦方向に平行な方向に引かれた線がZ'軸とされている。
 図11に示す例では、複数のサーチエリアとして、3つのサーチエリアが設定されている。3つのサーチエリアのうち、1つ目のサーチエリアは、Frontチャネルが割り当てられるスピーカ40をサーチするためのフロントチャネル用スピーカサーチエリアである。
 2つ目のサーチエリアは、R(Right)チャネルが割り当てられるスピーカ40をサーチするためのRチャネル用スピーカサーチエリアである。また、3つ目のサーチエリアは、L(Left)チャネルが割り当てられるスピーカ40をサーチするためのRチャネル用スピーカサーチエリアである。
 フロントチャネル用スピーカサーチエリアは、指定された投影領域Rを囲むように、この投影領域Rに近い範囲に設定される。また、Rチャネル用スピーカサーチエリアは、投影領域Rの前方側において、投影領域Rよりも少し離れた範囲、かつ、Y軸よりも右側(ユーザ側から見たときの右側:投影領域R側からみると左側)の範囲に設定される。
 また、Lチャネル用スピーカサーチエリアは、投影領域Rの前方側において、投影領域Rよりも少し離れた範囲、かつ、Y軸よりも左側(ユーザ側から見たときの左側:投影領域R側からみると右側)の範囲に設定される。
 図11に示す例では、Frontチャネル、Rチャネル、Lチャネルの3つのチャネルに対応して、サーチエリアの数が3つとされている。一方、チャネルの数が2つである場合には、サーチエリアの数は、2つであってもよく、チャネルの数が4つである場合には、サーチエリアの数は、4つであってもよい。つまり、割り当てるべきチャネル数が変われば、サーチエリアの数もこれも応じて変わる。
 情報処理装置10の制御部11は、複数のサーチエリアを設定した後、記憶部12から1つのサーチエリアを読みだす(ステップ306)。次に、制御部11は、各スピーカ40の座標に基づいて、そのサーチエリアにスピーカ40が存在するかどうかを判定する(ステップ307)。
 そのサーチエリアにスピーカ40が存在する場合(ステップ307のYES)、情報処理装置10の制御部11は、そのサーチエリアに存在するスピーカ40の数が複数であるかどうかを判定する(ステップ308)。
 そのサーチエリアに存在するスピーカ40の数が1つである場合(ステップ308のNO)、情報処理装置10の制御部11は、そのスピーカ40を、対応するチャネルが割り当てられるスピーカ40として選択する(ステップ309)。そして、情報処理装置10の制御部11は、次のステップ312へ進む。
 一方、そのサーチエリアに複数のスピーカ40が存在する場合(ステップ308のYES)、情報処理装置10の制御部11は、指定された投影領域Rの重心座標と、そのサーチエリアに存在する各スピーカ40の座標との間の距離を算出する(ステップ310)。
 次に、制御部11は、指定された投影領域Rとの間の距離が最も近いスピーカ40を、対応するチャネルが割り当てられるスピーカ40として選択する(ステップ311)。そして、制御部11は、次のステップ312へ進む。
 なお、1つのサーチエリアに複数のスピーカ40が存在する場合、各スピーカ40の配置バランスが考慮されて、バランスよくスピーカ40が選択されてもよい。この場合、例えば、指定された投影領域Rと、ユーザの位置(後述のように画像から判断可能)とを結ぶ直線を基準とした、スピーカ40の配置のバランスが考慮される。また、1つのサーチエリアに複数のスピーカ40が存在する場合、後述の可聴エリアの情報が用いられてもよい。
 ステップ307において、読みだされたそのサーチエリアにスピーカ40が存在しない場合(ステップ307のNO)、情報処理装置10の制御部11は、対応するチャネルが割り当てるスピーカ40を選択せずに、ステップ312へ進む。
 ステップ312では、情報処理装置10の制御部11は、全てのサーチエリアについて、スピーカ40の選択に関する処理(ステップ307~ステップ311の処理)が完了したかどうかを判定する。スピーカ40の選択に関する処理が完了していないエリアがまだ残っている場合(ステップ312のNO)、情報処理装置10の制御部11は、次のエリアを1つ読み出し(ステップ306)、ステップ307以降の処理を実行する。
 全てのエリアについて、スピーカ40の選択に関する処理が完了した場合(ステップ312のYES)、情報処理装置10の制御部11は、次のステップ313へ進む。ステップ313では、情報処理装置10の制御部11は、プロジェクタ20に対して映像情報を送信し、また、選択されたスピーカ40に対して、対応するチャネルの音声信号を送信する。
 図12は、いずれかのスピーカ40に対して、音声チャネルが割り当てられたときの様子を示す図である。
 図11においては、フロントチャネル用スピーカサーチエリアには、第1のスピーカ40aしか存在しないので、図12に示すように、第1のスピーカ40aが、フロントチャネルが割り当てられるフロントチャネル用スピーカ40として選択される。
 また、図11においては、Rチャネル用スピーカサーチエリアには、第2のスピーカ40bしか存在しないので、図12に示すように、第2のスピーカ40bが、Rチャネルが割り当てられるRチャネル用スピーカ40として選択される。
 同様に、図11においては、Lチャネル用スピーカサーチエリアには、第4のスピーカ40dしか存在しないので、図12に示すように、第4のスピーカ40dが、Lチャネルが割り当てられるRチャネル用スピーカ40として選択される。
 第2実施形態では、使用されるスピーカ40として、2以上のスピーカ40が選択され、また、この2以上のスピーカ40には、それぞれ異なる音声チャネルが割り当てられる。従って、音声チャネルが複数チャネルである場合にも適切に対応することができる。
 また、第2実施形態では、複数のサーチエリアが設定され、サーチエリア毎に使用されるスピーカ40が選択される。これにより、各サーチエリアにおいて、適切に、チャネルを割り当てるべきスピーカ40を選択することができる。
 また、第2実施形態では、複数のサーチエリアは、指定された投影領域Rの位置(投影領域座標系)を基準として設定される。これにより、チャネルを割り当てるべきスピーカ40をサーチするための複数のエリアを適切に設定することができる。
 なお、ここでの例では、該当するサーチエリアにスピーカ40が存在しない場合には、対応するチャネルについては、スピーカ40に割り当てられない場合について説明した。例えば、フロントチャネル用スピーカサーチエリア、Rチャネル用スピーカサーチエリアにはスピーカ40が存在しているが、Lチャネル用スピーカサーチエリアにスピーカ40が存在していない場合を想定する。このような場合、図10に示す例では、フロントチャネル用のスピーカ40及びRチャネル用のスピーカ40は選択されるが、Lチャネル用のスピーカ40は選択されない。
 一方、このように、全てのエリアのうち少なくとも1つのエリアにおいて、スピーカ40が存在せずに、スピーカ40を選択することができなかったような場合、複数の音声チャネルの出力がモノラルチャネルの音声の出力に変更されてもよい。この場合、複数のスピーカ40から、モノラルチャネル音声を出力する1つのスピーカ40(例えば、投影領域Rからの距離が最も近いスピーカ40)が選択されればよい(第1実施形態参照)。
 ≪第3実施形態≫
 次に、本技術の第3実施形態について説明する。第3実施形態以降では、使用されるスピーカ40を選択するための情報として、指定された投影領域Rの位置の情報や、スピーカ40の位置の情報だけでなく、ユーザの位置の情報が用いられる点で、上述の各実施形態と異なっている。
 図13は、第3実施形態において、スピーカ40が選択されるときの処理を示すフローチャートである。
 図13に示すように、まず、情報処理装置10の制御部11は、複数の投影領域Rから任意の投影領域Rがユーザにより指定されたかどうかを判定する(ステップ401)。投影領域Rが指定されると(ステップ401のYES)、情報処理装置10の制御部11は、複数のカメラ30によりそれぞれ撮像を行わせ、複数のカメラ30からそれぞれ画像を取得する(ステップ402)。
 次に、情報処理装置10の制御部11は、複数の画像における複数視点での各マーカ47の位置に基づいて、空間内(XYZ座標系)における各スピーカ40の座標を算出する(ステップ403)。
 次に、情報処理装置10の制御部11は、複数の画像における複数視点でのユーザの位置に基づいて、空間内(XYZ座標系)におけるユーザの座標を算出する(ステップ404)。
 ユーザの座標を算出すると、次に、情報処理装置10の制御部11は、ユーザの座標と、各スピーカ40の座標とに基づいて、ユーザと、各スピーカ40との間の距離を算出する。
 なお、ユーザと、各スピーカ40との間の距離を算出するとき、情報処理装置10の制御部11は、水平方向(xy軸方向)での距離が、垂直方向(z軸方向)での距離よりも重要視されるように、重み付けによる距離の計算を行ってもよい。
 次に、情報処理装置10の制御部11は、ユーザとの間の距離が閾値以下のスピーカ40が存在するかどうかを判定する(ステップ406)。図14は、ユーザからの距離(閾値)を示す図である。
 ユーザとの間の距離が閾値以下のスピーカ40が存在する場合(ステップ406のYES)、情報処理装置10の制御部11は、そのスピーカ40の数が複数であるかどうかを判定する(ステップ407)。
 ユーザとの間の距離が閾値以下のスピーカ40が1つしか存在していない場合(ステップ407のNO)、情報処理装置10の制御部11は、その1つのスピーカ40を、使用されるスピーカ40として選択する(ステップ408)。そして、情報処理装置10の制御部11は、次のステップ412へ進む。
 なお、図14に示す例では、ユーザとの間の距離が閾値以下のスピーカ40が第4のスピーカ40dしか存在していないので、第4のスピーカ40dが、使用されるスピーカ40として選択される。
 一方、ステップ407において、ユーザとの間の距離が閾値以下のスピーカ40が複数存在している場合(ステップ407のYES)、情報処理装置10の制御部11は、ユーザとの間の距離が最も近いスピーカ40を、使用されるスピーカ40として選択する(ステップ409)。そして、情報処理装置10の制御部11は、次のステップ412へ進む。
 ステップ406において、ユーザとの間の距離が閾値以下のスピーカ40が存在していない場合(ステップ407のNO)、指定された投影領域Rの重心座標と、各スピーカ40の座標との間の距離を算出する(ステップ410)。
 そして、情報処理装置10の制御部11は、指定された投影領域Rとの間の距離が最も近いスピーカ40を使用されるスピーカ40として選択する(ステップ411)。そして、情報処理装置10の制御部11は、次のステップ412へ進む。
 ステップ412では、情報処理装置10の制御部11は、プロジェクタ20に対して映像情報を送信し、また、選択されたスピーカ40に対して、音声情報を送信する。
 第3実施形態では、ユーザの位置の情報にも基づいて、使用されるスピーカ40が選択される。これにより、ユーザの位置に応じて、複数のスピーカ40から適切なスピーカ40を選択することができる。
 また、第3実施形態では、ユーザと、各スピーカ40の間の距離に基づいて、使用されるスピーカ40が選択されるので、さらに効果的に、複数のスピーカ40から適切なスピーカ40を選択することができる。
 ≪第4実施形態≫
 次に、本技術の第4実施形態について説明する。第4実施形態では、使用されるスピーカ40を選択するための情報として、指定された投影領域Rの位置の情報や、スピーカ40の位置の情報、ユーザの位置の情報だけでなく、スピーカ40の可聴エリアの情報が用いられる点で、上述の各実施形態と異なっている。
 図15は、可聴エリアの一例を示す図である。なお、可聴エリアとは、そのスピーカ40からの音が効果的に届くエリアを意味する。
 図15に示すように、スピーカ40には、例えば、全方位スピーカ40、通常のスピーカ40、指向性スピーカ40のような様々な種類が存在する。そして、スピーカ40の種類に応じて、可聴エリアの形状がそれぞれ異なっている。
 全方位スピーカ40は、全方向に均等に音を出力することができるので、全方位スピーカ40における可聴エリアは、例えば、円形となる(上又は下方向から見た場合)。また、通常のスピーカ40では、ある程度の指向性を持って音が出力されるので、通常のスピーカ40における可聴エリアは、例えば、中心角がやや広い扇形となる(上又は下方向から見た場合)。また、指向性スピーカ40では、指向性を持って音が出力されるので、指向性スピーカ40における可聴エリアは、例えば、中心角がやや狭まった扇形となる(上又は下方向から見た場合)。
 第4実施形態では、図15に示す可聴エリアの情報が、使用されるスピーカ40を選択するための情報として用いられる。
 図16は、第4実施形態において、スピーカ40が選択されるときの処理を示すフローチャートである。
 図16に示すように、まず、情報処理装置10の制御部11は、複数の投影領域Rから任意の投影領域Rがユーザにより指定されたかどうかを判定する(ステップ501)。投影領域Rが指定されると(ステップ501のYES)、情報処理装置10の制御部11は、複数のカメラ30によりそれぞれ撮像を行わせ、複数のカメラ30からそれぞれ画像を取得する(ステップ502)。
 次に、情報処理装置10の制御部11は、複数の画像における複数視点での各マーカ47の位置に基づいて、空間内(XYZ座標系)における各スピーカ40の座標を算出する(ステップ503)。
 次に、情報処理装置10の制御部11は、複数の画像における複数視点でのユーザの位置に基づいて、空間内(XYZ座標系)におけるユーザの座標を算出する(ステップ504)。
 次に、情報処理装置10の制御部11は、各スピーカ40について、それぞれ、可聴エリアの情報を取得し、空間内(XYZ座標系)において可聴エリアを設定する。各スピーカ40について、可聴エリアを設定するために、情報処理装置10の制御部11は、各スピーカ40の種類(全方位スピーカ40、通常のスピーカ40、指向性スピーカ40)の情報を取得してもよい。なお、スピーカ40の種類が特定されれば、可聴エリアの形状が特定される。
 例えば、特定のスピーカ40について、そのスピーカ40の種類が全方位スピーカ40である場合、そのスピーカ40の座標を基準として円形の可聴エリアを設定する。また、特定のスピーカ40について、そのスピーカ40の種類が通常のスピーカ40、指向性スピーカ40である場合、そのスピーカ40の座標を基準として扇形の可聴エリアを設定する。
 ここで、スピーカ40の種類が通常のスピーカ40、指向性スピーカ40である場合、情報処理装置10の制御部11は、スピーカ40が向いている方向を判断する必要がある。スピーカ40が向いている方向は、カメラ30によって取得された画像に基づいて判断可能である。なお、スピーカ40においては、上述のように、正面に対してマーカ47が設けられているので(図3参照)、スピーカ40全体に対するマーカ47の位置に基づいて、スピーカ40が向いている方向を判断することも可能である。
 なお、可聴エリアを特定するために、スピーカ40から音から出力された音が、実際に測定されてもよい。この場合、例えば、スピーカ40からの音を収集するための複数のマイクフォンが部屋の中の各所に配置されてもよい。また、ユーザの年齢などからユーザの聴力が推定可能である場合、ユーザの聴力に応じて可聴エリアの大きさが調整されてもよい。あるいは、その他の音声出力機器(例えば、テレビジョン装置等)の設定音量が参照されて、ユーザの聴力が推定され、可聴エリアの大きさが調整されてもよい。
 図17は、各スピーカ40について、それぞれ、可聴エリアが設定されたときの様子を示す図である。
 図17では、第1のスピーカ40a、第2のスピーカ40bが全方位スピーカ40とされ、第3のスピーカ40c、第4のスピーカ40dが通常のスピーカ40とされた場合の一例が示されている。また、図17においては、ユーザの位置(例えば、ジェスチャなどにより、任意の投影領域Rを指定したときの位置)も示されている。なお、図17においては、第1の投影領域R1がユーザにより指定されたとする。
 可聴エリアを設定すると、次に、情報処理装置10の制御部11は、可聴エリア内にユーザの座標を含むスピーカ40が存在するかどうかを判定する(ステップ506)。可聴エリア内にユーザの座標を含むスピーカ40が存在する場合(ステップ506のYES)、情報処理装置10の制御部11は、可聴エリア内にユーザの座標を含むスピーカ40の数が、複数であるかどうかを判定する(ステップ507)。
 可聴エリア内にユーザの座標を含むスピーカ40が1つしか存在しない場合(ステップ507のNO)、情報処理装置10の制御部11は、そのスピーカ40を、使用されるスピーカ40として選択する(ステップ508)。そして、情報処理装置10の制御部11は、次のステップ513へ進む。
 一方、可聴エリア内にユーザの座標を含むスピーカ40が複数存在する場合(ステップ507のYES)、情報処理装置10の制御部11は、次のステップ509へ進む。ステップ509では、情報処理装置10の制御部11は、指定された投影領域Rの重心座標と、可聴エリアにユーザの座標を含む各スピーカ40の座標との間の距離をそれぞれ算出する。
 次に、情報処理装置10の制御部11は、可聴エリアにユーザの座標を含む複数のスピーカ40のうち、投影領域Rとの間の距離が最も近いスピーカ40を、使用されるスピーカ40として選択する(ステップ510)。そして、情報処理装置10の制御部11は、次のステップ513へ進む。
 なお、図17においては、可聴エリアにユーザの座標に含むスピーカ40として、第2のスピーカ40b及び第3のスピーカ40cの2つのスピーカ40が存在している。この場合、第2のスピーカ40b及び第2のスピーカ40bのうち、ユーザにより指定された第1の投影領域R1との間の距離が最も近い第2のスピーカ40bが、使用されるスピーカ40として選択される。
 ステップ506において、ユーザとの間の距離が閾値以下のスピーカ40が存在していない場合(ステップ506のNO)、情報処理装置10の制御は、指定された投影領域Rの重心座標と、各スピーカ40の座標との間の距離を算出する(ステップ511)。
 そして、情報処理装置10の制御部11は、指定された投影領域Rとの間の距離が最も近いスピーカ40を使用されるスピーカ40として選択する(ステップ512)。そして、情報処理装置10の制御部11は、次のステップ513へ進む。
 ステップ513では、情報処理装置10の制御部11は、選択されたスピーカ40に対して、音声情報を送信し、また、プロジェクタ20に対して映像情報を送信する。
 第4実施形態では、各スピーカ40の可聴エリアの情報にも基づいて、使用されるスピーカ40が選択される。これにより、スピーカ40の可聴エリアに応じて、複数のスピーカ40から適切なスピーカ40を選択することができる。
≪第5実施形態≫
 次に、本技術の第5実施形態について説明する。第5実施形態においては、第4実施形態では、使用されるスピーカ40を選択するために、ユーザを基準としたユーザ座標系が設定される点で上述の各実施形態と異なっている。
 図18は、第5実施形態において、スピーカ40が選択されるときの処理を示すフローチャートである。
 まず、情報処理装置10の制御部11は、複数の投影領域Rから任意の投影領域Rがユーザにより指定されたかどうかを判定する(ステップ601)。投影領域Rが指定されると(ステップ601のYES)、情報処理装置10の制御部11は、複数のカメラ30によりそれぞれ撮像を行わせ、複数のカメラ30からそれぞれ画像を取得する(ステップ602)。
 次に、情報処理装置10の制御部11は、複数の画像における複数視点での各マーカ47の位置に基づいて、空間内(XYZ座標系)における各スピーカ40の座標を算出する(ステップ603)。
 次に、情報処理装置10の制御部11は、複数の画像における複数視点でのユーザの位置に基づいて、空間内(XYZ座標系)におけるユーザの座標を算出する(ステップ604)。また、このとき、ユーザの向いている方向等も判定される。
 次に、情報処理装置10の制御部11は、ユーザの位置を基準(原点)として、ユーザ座標系を設定する(ステップ605)。次に、情報処理装置10の制御部11は、投影領域座標系に基づいて、複数のサーチエリアを設定する(ステップ606)。
 図19は、ユーザ座標系に基づいて設定された複数のサーチエリアを示す図である。図19に示す例では、4つの投影領域Rのうち、第1の投影領域R1がユーザにより指定され、その第1の投影領域R1の方向を、ユーザが向いている場合の一例が示されている。
 ユーザ座標系では、ユーザの座標が原点に設定され、また、ユーザの前後方向(ユーザの顔の向きなどから判断可能)がY"軸とされる。また、ユーザの左右方向がX"軸に設定され、X"軸及びY"軸に直交する方向がZ"軸に設定される。
 図19に示す例では、フロントチャネル用スピーカサーチエリアは、ユーザから少し離れた位置において、Y軸の周囲の領域に設定される。また、Rチャネル用スピーカサーチエリアは、ユーザから近い範囲、かつ、Y軸よりも右側(ユーザ側から見たときの右側)の範囲に設定される。また、Lチャネル用スピーカサーチエリアは、ユーザから近い範囲、かつ、Y軸よりも左側(ユーザ側から見たときの左側)の範囲に設定される。
 なお、これ以降のステップ607~ステップ614の処理については、上述の図10(第2実施形態)におけるステップ306~ステップ313と同様であるため、説明については省略する。なお、上述の第2実施形態では、投影座標系を基準としてサーチエリアを設定していたのに対し、この第5実施形態では、ユーザ座標系を基準としてサーチエリアを設定している。
 第5実施形態では、ユーザ座標系に基づいて、サーチエリアが設定されるので、ユーザの位置が空間内においてどのような位置にいたとしても(どのような方向を向いていたとしても)、チャネルを割り当てるべき適切なスピーカ40を選択することができる。
≪各種変形例≫
 以上の説明では、プロジェクタ20の数が1つである場合について説明したが、プロジェクタ20の数は、複数であってもよい。また、以上の説明では、プロジェクタ20が可動式である場合について説明したが、プロジェクタ20は固定式であってもよい(特に、プロジェクタ20の数が複数である場合)。また、プロジェクタ20の代わりに、登録された投影領域に応じた位置に映像を表示可能な装着型デバイスが用いられてもよい。
 以上の説明では、カメラ30の数が複数である場合について説明したが、カメラ30の数は、1つであってもよい。撮像波長は、可視光域に限られず、紫外域、赤外域を含んでいてもよい。また、カメラ30の代わりに、照度のみを測定するセンサが用いられてもよい。
 また、ユーザの位置や動きを検出するために、カメラ30に加えて、あるいは、カメラ30に代えて、デプスセンサー、サーモカメラ、マイクロフォン等が用いられてもよい。また、スピーカ40の位置を検出するために、カメラ30に加えて、あるいは、カメラ30に代えて、デプスセンサー、マイクロフォン等が用いられてもよい。
 以上の説明では、スピーカ40が持ち運び可能な形態ついて説明したが、スピーカ40は固定式(例えば大型のスピーカ40)であってもよい。専用のスピーカ40に代えて、スマートフォンや、携帯ゲーム機、携帯音楽プレーヤ等の音出力部を有する機器が用いられてもよい。
 以上の説明では、情報処理装置10が、プロジェクタ20、カメラ30、スピーカ40等と別体である場合について説明した。一方、情報処理装置10は、プロジェクタ20、カメラ30、又はスピーカ40と一体であってもよい(この場合、プロジェクタ20、カメラ30、又はスピーカ40が情報処理装置10としての役割を担う)。
 上記各実施形態は、それぞれ、互いに組み合わせることができる。一例として、第2実施形態と、第5実施形態の組合せについて説明する。この場合、投影座標系を使用してスピーカ40を選択する方法と、ユーザ座標系を使用してスピーカ40を選択する方法とが組み合わされる。
 この場合、例えば、情報処理装置10の制御部11は、一方の座標系に基づいてサーチエリアを設定して、スピーカ40のサーチを試み、その後、他方の座標系に基づいてサーチエリアを設定して、スピーカ40のサーチを試みる。そして、情報処理装置10の制御部11は、これらのうち、スピーカ40をサーチすることができたエリアが多かった方を採用すればよい。
 本技術は、以下の構成をとることもできる。
 (1) 映像を投影可能な複数の投影領域のうち、指定された投影領域の位置の情報と、複数のスピーカの位置の情報とに基づいて、前記複数のスピーカの中から、前記指定された投影領域に対して投影が行われる際に使用されるスピーカを選択する制御部
 を具備する情報処理装置。
 (2) 上記(1)に記載の情報処理装置であって、
 前記制御部は、前記指定された前記投影領域と、各スピーカとの間の距離に基づいて、前記使用されるスピーカを選択する
 情報処理装置。
(3) 上記(2)に記載の情報処理装置であって、
 前記制御部は、前記複数のスピーカのうち、前記指定された投影領域から最も距離が近いスピーカを、前記使用されるスピーカとして選択する
 情報処理装置。
(4) 上記(1)~(3)のうち、いずれか1つに記載の情報処理装置であって、
 前記制御部は、前記使用されるスピーカとして、2以上のスピーカを選択する
 情報処理装置。
(5) 上記(4)に記載の情報処理装置であって、
 前記2以上のスピーカには、それぞれ異なる音声チャネルが割り当てられる
(6) 上記(5)に記載の情報処理装置であって、
 前記制御部は、前記スピーカをサーチするための複数のサーチエリアを設定し、サーチエリア毎に使用されるスピーカを選択する
 情報処理装置。
(7) 上記(6)に記載の情報処理装置であって、
 前記制御部は、前記指定された前記投影領域の位置を基準として、前記複数のサーチエリアを設定する
 情報処理装置。
(8) 上記(1)~(7)のうちいずれか1つに記載の情報処理装置であって、
 前記制御部は、ユーザの位置の情報を取得し、前記ユーザの位置の情報に基づいて、前記使用されるスピーカを選択する
 情報処理装置。
(9)上記(8)に記載の情報処理装置であって、
 前記制御部は、前記複数のスピーカにおけるそれぞれの可聴エリアの情報を取得し、前記可聴エリアの情報に基づいて、前記使用されるスピーカを選択する
 情報処理装置。
(10) 上記(9)に記載の情報処理装置であって、
 前記制御部は、ユーザの位置を前記可聴エリアに含むスピーカが存在するかどうかを判定し、存在する場合、ユーザの位置を前記可聴エリアに含むスピーカを、前記使用されるスピーカとして選択する
 情報処理装置。
(11) 上記(10)に記載の情報処理装置であって、
 前記制御部は、ユーザの位置を前記可聴エリアに含むスピーカが存在しない場合、前記複数のスピーカのうち、投影領域からの距離が最も近いスピーカを、前記使用されるスピーカとして選択する
 情報処理装置。
 (12)上記(8)~(11)のうちいずれか1つに記載の情報処理装置であって、
 前記制御部は、前記使用されるスピーカとして、2以上のスピーカを選択する
 情報処理装置。
(13) 上記(12)に記載の情報処理装置であって、
 前記制御部は、前記スピーカをサーチするための複数のサーチエリアを設定し、サーチエリア毎に使用されるスピーカを選択する
 情報処理装置。
(14) 上記(13)に記載の情報処理装置であって、
 前記制御部は、前記ユーザの位置を基準として、前記複数のサーチエリアを設定する
 情報処理装置。
(15) 上記(1)~(14)のうちいずれか1つに記載の情報処理装置であって、
 前記複数のスピーカは、それぞれ、前記スピーカの位置の情報を取得するためのマーカを有する
 情報処理装置。
 (16) 上記(1)~(15)のうちいずれか1つに記載の情報処理装置であって、
 前記複数のスピーカのうち、少なくとも1つのスピーカは、ユーザが把持することが可能であり、
 前記制御部は、前記ユーザに把持されたスピーカの位置の情報を取得し、前記スピーカの位置の情報に基づいて、前記投影領域を登録する
 情報処理装置。
(17) 上記(1)~(16)のうちいずれか1つに記載の情報処理装置であって、
 前記制御部は、前記投影領域の位置を変化させる
 情報処理装置。
(18) 複数のスピーカと、
 映像を投影可能な複数の投影領域のうち、指定された投影領域の位置の情報と、前記複数のスピーカの位置の情報とに基づいて、前記複数のスピーカの中から、前記指定された投影領域に対して投影が行われる際に使用されるスピーカを選択する制御部を有する情報処理装置と
 を具備する情報処理システム。
(19) 映像を投影可能な複数の投影領域のうち、指定された投影領域の位置の情報と、複数のスピーカの位置の情報とに基づいて、前記複数のスピーカの中から、前記指定された投影領域に対して投影が行われる際に使用されるスピーカを選択する
 情報処理方法。
(20) 映像を投影可能な複数の投影領域のうち、指定された投影領域の位置の情報と、複数のスピーカの位置の情報とに基づいて、前記複数のスピーカの中から、前記指定された投影領域に対して投影が行われる際に使用されるスピーカを選択する
 制御部としてコンピュータを機能させるプログラム。
10・・・情報処理装置
20・・・プロジェクタ
30・・・カメラ
40・・・スピーカ
100・・情報処理システム

Claims (20)

  1.  映像を投影可能な複数の投影領域のうち、指定された投影領域の位置の情報と、複数のスピーカの位置の情報とに基づいて、前記複数のスピーカの中から、前記指定された投影領域に対して投影が行われる際に使用されるスピーカを選択する制御部
     を具備する情報処理装置。
  2.  請求項1に記載の情報処理装置であって、
     前記制御部は、前記指定された前記投影領域と、各スピーカとの間の距離に基づいて、前記使用されるスピーカを選択する
     情報処理装置。
  3.  請求項2に記載の情報処理装置であって、
     前記制御部は、前記複数のスピーカのうち、前記指定された投影領域から最も距離が近いスピーカを、前記使用されるスピーカとして選択する
     情報処理装置。
  4.  請求項1に記載の情報処理装置であって、
     前記制御部は、前記使用されるスピーカとして、2以上のスピーカを選択する
     情報処理装置。
  5.  請求項4に記載の情報処理装置であって、
     前記2以上のスピーカには、それぞれ異なる音声チャネルが割り当てられる
  6.  請求項5に記載の情報処理装置であって、
     前記制御部は、前記スピーカをサーチするための複数のサーチエリアを設定し、サーチエリア毎に使用されるスピーカを選択する
     情報処理装置。
  7.  請求項6に記載の情報処理装置であって、
     前記制御部は、前記指定された前記投影領域の位置を基準として、前記複数のサーチエリアを設定する
     情報処理装置。
  8.  請求項1に記載の情報処理装置であって、
     前記制御部は、ユーザの位置の情報を取得し、前記ユーザの位置の情報に基づいて、前記使用されるスピーカを選択する
     情報処理装置。
  9.  請求項8に記載の情報処理装置であって、
     前記制御部は、前記複数のスピーカにおけるそれぞれの可聴エリアの情報を取得し、前記可聴エリアの情報に基づいて、前記使用されるスピーカを選択する
     情報処理装置。
  10.  請求項9に記載の情報処理装置であって、
     前記制御部は、ユーザの位置を前記可聴エリアに含むスピーカが存在するかどうかを判定し、存在する場合、ユーザの位置を前記可聴エリアに含むスピーカを、前記使用されるスピーカとして選択する
     情報処理装置。
  11.  請求項10に記載の情報処理装置であって、
     前記制御部は、ユーザの位置を前記可聴エリアに含むスピーカが存在しない場合、前記複数のスピーカのうち、投影領域からの距離が最も近いスピーカを、前記使用されるスピーカとして選択する
     情報処理装置。
  12.  請求項8に記載の情報処理装置であって、
     前記制御部は、前記使用されるスピーカとして、2以上のスピーカを選択する
     情報処理装置。
  13.  請求項12に記載の情報処理装置であって、
     前記制御部は、前記スピーカをサーチするための複数のサーチエリアを設定し、サーチエリア毎に使用されるスピーカを選択する
     情報処理装置。
  14.  請求項13に記載の情報処理装置であって、
     前記制御部は、前記ユーザの位置を基準として、前記複数のサーチエリアを設定する
     情報処理装置。
  15.  請求項1に記載の情報処理装置であって、
     前記複数のスピーカは、それぞれ、前記スピーカの位置の情報を取得するためのマーカを有する
     情報処理装置。
  16.  請求項1に記載の情報処理装置であって、
     前記複数のスピーカのうち、少なくとも1つのスピーカは、ユーザが把持することが可能であり、
     前記制御部は、前記ユーザに把持されたスピーカの位置の情報を取得し、前記スピーカの位置の情報に基づいて、前記投影領域を登録する
     情報処理装置。
  17.  請求項1に記載の情報処理装置であって、
     前記制御部は、前記投影領域の位置を変化させる
     情報処理装置。
  18.  複数のスピーカと、
     映像を投影可能な複数の投影領域のうち、指定された投影領域の位置の情報と、前記複数のスピーカの位置の情報とに基づいて、前記複数のスピーカの中から、前記指定された投影領域に対して投影が行われる際に使用されるスピーカを選択する制御部を有する情報処理装置と
     を具備する情報処理システム。
  19.  映像を投影可能な複数の投影領域のうち、指定された投影領域の位置の情報と、複数のスピーカの位置の情報とに基づいて、前記複数のスピーカの中から、前記指定された投影領域に対して投影が行われる際に使用されるスピーカを選択する
     情報処理方法。
  20.  映像を投影可能な複数の投影領域のうち、指定された投影領域の位置の情報と、複数のスピーカの位置の情報とに基づいて、前記複数のスピーカの中から、前記指定された投影領域に対して投影が行われる際に使用されるスピーカを選択する
     制御部としてコンピュータを機能させるプログラム。
PCT/JP2019/005537 2018-03-08 2019-02-15 情報処理装置、情報処理方法、情報処理システム及びプログラム WO2019171907A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020504889A JPWO2019171907A1 (ja) 2018-03-08 2019-02-15 情報処理装置、情報処理方法、情報処理システム及びプログラム
US16/977,330 US20210006930A1 (en) 2018-03-08 2019-02-15 Information processing apparatus, information processing method, information processing system and program
CN201980016614.XA CN111801952A (zh) 2018-03-08 2019-02-15 信息处理装置、信息处理方法、信息处理系统和程序
DE112019001215.0T DE112019001215T5 (de) 2018-03-08 2019-02-15 Informationsverarbeitungsgerät, Informationsverarbeitungsverfahren, Informationsverarbeitungssystem und Programm

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018041838 2018-03-08
JP2018-041838 2018-03-08

Publications (1)

Publication Number Publication Date
WO2019171907A1 true WO2019171907A1 (ja) 2019-09-12

Family

ID=67846680

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/005537 WO2019171907A1 (ja) 2018-03-08 2019-02-15 情報処理装置、情報処理方法、情報処理システム及びプログラム

Country Status (5)

Country Link
US (1) US20210006930A1 (ja)
JP (1) JPWO2019171907A1 (ja)
CN (1) CN111801952A (ja)
DE (1) DE112019001215T5 (ja)
WO (1) WO2019171907A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020210841A1 (en) * 2019-04-12 2020-10-15 Daniel Seidel Projection system with interactive exclusion zones and topological adjustment

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009283997A (ja) * 2008-05-19 2009-12-03 Sharp Corp 音声出力装置、プログラム、および記録媒体
JP2012004733A (ja) * 2010-06-15 2012-01-05 Tamura Seisakusho Co Ltd 光通信を用いた音響システム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7613313B2 (en) * 2004-01-09 2009-11-03 Hewlett-Packard Development Company, L.P. System and method for control of audio field based on position of user
JP5067595B2 (ja) * 2005-10-17 2012-11-07 ソニー株式会社 画像表示装置および方法、並びにプログラム
CN101479659B (zh) * 2006-07-03 2011-02-16 松下电器产业株式会社 投影系统及影像投射方法
DE102007033391A1 (de) * 2007-07-18 2009-01-22 Robert Bosch Gmbh Informationsvorrichtung, Verfahren zur Information und/oder Navigation von einer Person sowie Computerprogramm
EP2342894A4 (en) * 2008-11-04 2013-12-25 Hewlett Packard Development Co ADJUSTING A VIDEO WINDOW POSITION IN RELATION TO A VIDEO CAMERA POSITION
CN102084650B (zh) * 2009-05-12 2013-10-09 华为终端有限公司 远程呈现系统、方法及视频采集设备
US8269902B2 (en) * 2009-06-03 2012-09-18 Transpacific Image, Llc Multimedia projection management
JP2013255029A (ja) * 2012-06-05 2013-12-19 Nikon Corp 画像表示装置
EP2928216A1 (en) * 2014-03-26 2015-10-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for screen related audio object remapping
JP6733675B2 (ja) * 2015-08-21 2020-08-05 ソニー株式会社 プロジェクションシステム、および機器ユニット、ならびに機器制御方法
CN106064383B (zh) * 2016-07-19 2017-09-29 东莞市优陌儿智护电子科技有限公司 一种机器人智能投影的白墙定位方法及机器人

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009283997A (ja) * 2008-05-19 2009-12-03 Sharp Corp 音声出力装置、プログラム、および記録媒体
JP2012004733A (ja) * 2010-06-15 2012-01-05 Tamura Seisakusho Co Ltd 光通信を用いた音響システム

Also Published As

Publication number Publication date
CN111801952A (zh) 2020-10-20
US20210006930A1 (en) 2021-01-07
JPWO2019171907A1 (ja) 2021-03-04
DE112019001215T5 (de) 2020-11-19

Similar Documents

Publication Publication Date Title
KR102494681B1 (ko) 회전 가능한 반사 부재를 갖는 카메라 어셈블리 및 이를 포함하는 전자 장치
JP6780315B2 (ja) 投影装置、投影システム、投影方法及びプログラム
KR20140125183A (ko) 프로젝터 장착 안경 및 그 제어 방법
US9304582B1 (en) Object-based color detection and correction
KR102668233B1 (ko) 관심 영역을 통해 움직이는 외부 객체에 대해 프레임 레이트를 제어하여 이미지들을 획득하는 전자 장치 및 그의 동작 방법
JP7294350B2 (ja) 情報処理装置、情報処理方法、およびプログラム
CN101969531A (zh) 构图控制设备、成像系统、构图控制方法和程序
WO2020255766A1 (ja) 情報処理装置、情報処理方法、プログラム、投映装置、および情報処理システム
CN114708403A (zh) 一种互动投影输入输出设备
JP2016189517A (ja) 表示装置、表示装置の制御方法、書画カメラ、及び、書画カメラの制御方法
WO2019171907A1 (ja) 情報処理装置、情報処理方法、情報処理システム及びプログラム
JP2017123505A (ja) コンテンツ再生装置、コンテンツ再生方法及びプログラム
JP2017015455A (ja) 配筋測定装置
JP2011106931A (ja) 3次元形状測定システムおよび携帯電話機
JP7501044B2 (ja) 表示システム、情報処理装置及び表示システムの表示制御方法
US20160070959A1 (en) Display System With Imaging Unit, Display Apparatus And Display Method
JP2009229509A (ja) 光学装置及び光学システム
CN116781874A (zh) 显示方法、显示系统和记录有程序的记录介质
JP4301028B2 (ja) 投影装置、角度検出方法及びプログラム
CN114979616A (zh) 显示方法、信息处理装置以及记录介质
JP2010219989A (ja) コミュニケーション支援システム、表示制御装置および表示制御方法
JP7416231B2 (ja) 設置支援装置、設置支援方法、およびプログラム
JP2015159460A (ja) 投影システム、投影装置、撮影装置、ガイド枠生成方法及びプログラム
JP4989596B2 (ja) 撮影ショット制御装置、協調撮影システム及びそのプログラム
JP7400531B2 (ja) 情報処理システム、情報処理装置、プログラム、情報処理方法及び部屋

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19763878

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020504889

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 19763878

Country of ref document: EP

Kind code of ref document: A1