WO2018123152A1 - 投影システム、プロジェクションデバイスおよびクレードル - Google Patents
投影システム、プロジェクションデバイスおよびクレードル Download PDFInfo
- Publication number
- WO2018123152A1 WO2018123152A1 PCT/JP2017/032714 JP2017032714W WO2018123152A1 WO 2018123152 A1 WO2018123152 A1 WO 2018123152A1 JP 2017032714 W JP2017032714 W JP 2017032714W WO 2018123152 A1 WO2018123152 A1 WO 2018123152A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- projection
- projection device
- mobile terminal
- cradle
- motor
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3191—Testing thereof
- H04N9/3194—Testing thereof including sensor feedback
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/74—Projection arrangements for image reproduction, e.g. using eidophor
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/211—Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
- A63F13/26—Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
- A63F13/28—Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/428—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
- G03B21/14—Details
- G03B21/145—Housing details, e.g. position adjustments thereof
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
- G03B21/14—Details
- G03B21/32—Details specially adapted for motion-picture projection
- G03B21/50—Control devices operated by the film strip during the run
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
- G03B21/54—Accessories
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/4104—Peripherals receiving signals from specially adapted client devices
- H04N21/4122—Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/414—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
- H04N21/41407—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/485—End-user interface for client configuration
- H04N21/4854—End-user interface for client configuration for modifying image parameters, e.g. image brightness, contrast
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3141—Constructional details thereof
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
- G03B21/001—Slide projectors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2200/00—Indexing scheme relating to G06F1/04 - G06F1/32
- G06F2200/16—Indexing scheme relating to G06F1/16 - G06F1/18
- G06F2200/163—Indexing scheme relating to constructional details of the computer
- G06F2200/1637—Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/72409—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
- H04M1/72415—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories for remote control of appliances
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72448—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
- H04M1/72454—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
Definitions
- This technology relates to a projection system.
- the present invention relates to a projection device that projects an image, a cradle that changes the attitude of the projection device, and a projection system including the same.
- the projection content and the display content are changed according to an intuitive operation in which the user changes the posture of the portable electronic device.
- the device directly operated by the user and the apparatus for performing the projection are integrated, the user must always be aware of the projection surface, and an inconvenient situation may occur in actual use.
- the function of the projector is added as a part of the function of the portable electronic device, it is considered that it does not reach the dedicated projector in terms of performance such as resolution and light emission amount.
- This technology has been created in view of such a situation, and aims to perform highly functional projection by an intuitive operation with a mobile terminal.
- the present technology has been made to solve the above-described problems.
- the first aspect of the present technology is a portable terminal that detects a change in its posture, and a projection that reproduces a video signal and projects it onto a projection surface.
- a projection system comprising: a device; and a cradle that supports the projection device and changes a posture of the projection device according to a detection result of the mobile terminal. This brings about the effect
- the portable terminal may detect the change in posture by at least one of an acceleration sensor and a gyro sensor. This brings about the effect of detecting a change in posture based on at least one of acceleration and angular velocity.
- the cradle includes a motor that changes a posture of the projection device and a motor driving unit that drives the motor, and any of the mobile terminal, the projection device, and the cradle is
- a control signal generating unit that generates a control signal for driving the motor based on a change in the attitude of the mobile terminal may be provided. This brings about the effect
- the mobile terminal may supply the video signal to the projection device.
- the video signal supplied from the video signal is projected from the projection device.
- the projection device may include a storage unit that stores the video signal, and the video signal may be read from the storage unit to perform the reproduction. This brings about the effect
- the portable terminal includes a first audio output unit
- the projection device includes a second audio output unit
- the first and second audio output units Different audio signals corresponding to the video signals may be output. This brings about the effect
- the mobile terminal, the projection device, and the cradle may be combined into a plurality of sets. This brings about the effect
- a second aspect of the present technology provides a detection signal receiving unit that receives a change in posture of the mobile terminal as a detection result, and a control signal that generates a control signal for changing the posture of the mobile terminal based on the detection result.
- a projection device comprising: a generation unit; a control signal transmission unit that transmits the control signal to a cradle for supporting itself; and a projection unit that projects a video signal in a projection direction based on the detection result. Accordingly, the cradle motor is driven according to the detection result of the mobile terminal, thereby bringing about an effect of changing the attitude of the projection device.
- a detection signal receiving unit that receives a change in the attitude of the mobile terminal as a detection result, and a control signal that generates a control signal for changing the attitude of the mobile terminal based on the detection result.
- a projection device comprising: a generation unit; a motor that changes the posture of the device; a motor drive unit that drives the motor according to the control signal; and a projection unit that projects a video signal in a projection direction based on the detection result.
- a detection signal receiving unit that receives a change in the attitude of the mobile terminal as a detection result, a motor that changes the attitude of the projection device, and the motor is driven based on the detection result.
- a cradle that supports the projection device, and includes a control signal generation unit that generates a control signal for performing the operation and a motor drive unit that drives the motor according to the control signal.
- First embodiment an example of transmitting a change in attitude of a mobile terminal to a projection device
- Second Embodiment Example in which change in attitude of portable terminal is transmitted to cradle
- Third embodiment example in which the posture of the projection device changes
- FIG. 1 is a diagram illustrating an overall configuration example of a projection system according to an embodiment of the present technology.
- the projection system includes a mobile terminal 100, a projection device 200, and a cradle 300.
- the portable terminal 100 is a portable terminal device to be operated by the user.
- a smartphone or a tablet terminal is assumed.
- the user holds the portable terminal 100 in his / her hand and performs an operation while changing the posture of the portable terminal 100 vertically and horizontally. This change in the attitude of the mobile terminal 100 is detected within the mobile terminal 100, and the detection result is transmitted to the outside of the mobile terminal 100.
- the projection device 200 reproduces the video signal and projects it onto the projection plane 600.
- the projection device 200 is mounted on the cradle 300 during projection.
- the cradle 300 supports the projection device 200 mounted thereon.
- the cradle 300 includes a motor and can be rotated up and down and left and right according to the detection result of the mobile terminal 100. That is, the attitude of the projection device 200 changes according to the operation of the cradle 300.
- the change in the attitude of the mobile terminal 100 is changed to the mobile terminal 100. Detected within.
- the detection result is transmitted to the outside of the mobile terminal 100 and is supplied to the cradle 300 via the projection device 200 or directly.
- the cradle 300 rotates in a direction corresponding to the change in the posture, and changes the posture of the projection device 200. Thereby, the projection position of the image by the projection device 200 changes from the position 601 to the position 602.
- FIG. 2 is a diagram illustrating a functional configuration example of the projection system according to the first embodiment of the present technology.
- the posture change detection result detected in the mobile terminal 100 is supplied to the cradle 300 via the projection device 200.
- the portable terminal 100 includes a processor 110, a gyro sensor 130, an acceleration sensor 140, a short-range wireless communication unit 180, and a network communication unit 190.
- the processor 110 is a processing device that controls each unit of the mobile terminal 100.
- the gyro sensor 130 is an angular velocity sensor that detects the angular velocity in the three-dimensional direction of the mobile terminal 100. When the mobile terminal 100 rotates in a certain direction, the gyro sensor 130 outputs an angular velocity of the rotation. The angular velocity obtained by the gyro sensor 130 is an angle per unit time.
- the acceleration sensor 140 is an acceleration sensor that detects acceleration in the three-dimensional direction of the mobile terminal 100. When the mobile terminal 100 moves in a certain direction, the acceleration sensor 140 outputs the acceleration of the movement.
- the acceleration obtained by the acceleration sensor 140 is a rate at which the speed changes per unit time.
- the gyro sensor 130 By combining the detection results of the gyro sensor 130 and the acceleration sensor 140, it is possible to detect the direction of inclination when the mobile terminal 100 is tilted and the direction of movement when the mobile terminal 100 is moved. For example, when a user holding the mobile terminal 100 moves (slides) the mobile terminal 100 to the left and right in parallel, the moving direction is detected. In addition, when a user holding the mobile terminal 100 tilts the mobile terminal 100 left and right, the direction of the tilt is detected. Moreover, since the detected acceleration differs when the user holding the portable terminal 100 tilts the portable terminal 100 back and forth in front and swings up and down, the detected acceleration sensor 140 detects the difference. By referring to the results, the two can be distinguished.
- the portable terminal 100 may be provided with other sensors, such as an atmospheric pressure sensor and a geomagnetic sensor.
- the near field communication unit 180 performs near field communication with the projection device 200.
- the short-range wireless communication for example, “Bluetooth (registered trademark) Low Energy” is assumed.
- a data transfer rate is also set low in order to keep power consumption low. Therefore, in the present embodiment, it is assumed that the short-range wireless communication unit 180 is used to transmit the detection result obtained by the gyro sensor 130 and the acceleration sensor 140 instead of the video signal.
- the detection results obtained by the gyro sensor 130 and the acceleration sensor 140 are transferred via short-range wireless communication.
- other wireless communication such as a wireless LAN or wired communication is used. It may be transferred by connection.
- the network communication unit 190 performs network communication with the projection device 200.
- a wireless LAN such as WiFi (registered trademark) is assumed.
- network communication unit 190 is used to transfer a video signal.
- the projection device 200 includes a processor 210, a memory 220, a projection unit 240, a short-range wireless communication unit 280, and a network communication unit 290.
- the processor 210 is a processing device that controls each unit of the projection device 200.
- the memory 220 is a memory that stores data and the like necessary for the operation of the processor 210.
- the memory 220 stores a video signal received from the mobile terminal 100.
- the processor 210 performs playback processing of the video signal stored in the memory 220.
- the memory 220 is an example of a storage unit described in the claims.
- the projection unit 240 projects the video reproduced by the processor 210 onto the projection plane.
- the projection unit 240 projects an image on a projection plane using a light source such as a lamp or a laser.
- a light source such as a lamp or a laser.
- a laser light source since point drawing is performed by scanning on the projection surface, it is possible to focus at all positions on the projection surface without brightening the black portion.
- the near field communication unit 280 performs near field communication with the mobile terminal 100.
- the short-range wireless communication unit 280 receives detection results from the gyro sensor 130 and the acceleration sensor 140 transmitted from the mobile terminal 100 and supplies the detection results to the processor 210.
- the network communication unit 290 performs network communication with the mobile terminal 100.
- the network communication unit 290 receives the video signal transferred from the mobile terminal 100 and supplies the video signal to the processor 210.
- the cradle 300 includes a processor 310, a motor driving unit 350, and a motor 360.
- the processor 310 is a processing device that controls each part of the cradle 300.
- the motor 360 is a power source that generates power for rotating the projection device 200 mounted on the cradle 300 vertically and horizontally. As the motor 360, for example, a stepping motor is assumed.
- the motor driving unit 350 is a mechanism for driving the motor 360.
- the processor 310 and the processor 210 are electrically connected. Therefore, the processor 310 of the cradle 300 can receive the detection results by the gyro sensor 130 and the acceleration sensor 140 from the processor 210 of the projection device 200.
- the processor 310 generates a control signal for changing the attitude of the projection device 200 according to the detection result.
- the motor drive unit 350 drives the motor 360 in accordance with the generated control signal. Thereby, the projection position of the image by the projection device 200 changes based on the change in the attitude of the mobile terminal 100.
- the processors 110, 210, and 310 are examples of the control signal generation unit described in the claims.
- the processor 210 is an example of a control signal transmission unit described in the claims.
- the processor 310 is an example of a detection signal receiving unit described in the claims.
- FIG. 3 is a sequence diagram illustrating a first example of the operation of the projection system according to the first embodiment of the present technology.
- a video signal is transferred from the portable terminal 100 to the projection device 200, and projection is performed by the projection unit 240 as described above.
- the gyro sensor 130 and the acceleration sensor 140 detect the angular velocity and acceleration. Thereby, the processor 110 of the portable terminal 100 acquires sensor information which is a detection result of angular velocity and acceleration (711).
- the short-range wireless communication unit 180 of the portable terminal 100 transmits this sensor information to the projection device 200 (713).
- the short-range wireless communication unit 280 of the projection device 200 receives sensor information from the mobile terminal 100 (714).
- the processor 210 of the projection device 200 converts the received sensor information into a pan / tilt signal for driving the motor (715). That is, a change in posture of the mobile terminal 100 is recognized based on the sensor information, and a pan / tilt signal of the motor 360 of the cradle 300 is generated so as to perform an operation corresponding to the change in the posture. For example, if the motor 360 is a stepping motor, the processor 210 generates its reduction ratio.
- the processor 210 of the projection device 200 transmits a pan / tilt signal to the cradle 300 via the electrical connection (716).
- the pan / tilt signal is an example of a control signal for driving the motor described in the claims. Pan is an operation of swinging in the left-right direction, and tilt is an operation of swinging in the up-down direction.
- the processor 310 of the cradle 300 receives the pan / tilt signal from the projection device 200 (717).
- the processor 310 supplies the pan / tilt signal to the motor driving unit 350.
- the motor driving unit 350 drives the motor 360 by the pan / tilt signal (719).
- FIG. 4 is a sequence diagram illustrating a second example of the operation of the projection system according to the first embodiment of the present technology.
- the processor 210 of the projection device 200 generates the pan / tilt signal.
- the portable terminal 100 generates the pan / tilt signal.
- the gyro sensor 130 and the acceleration sensor 140 detect the angular velocity and acceleration.
- the processor 110 of the portable terminal 100 acquires sensor information which is a detection result of angular velocity and acceleration (721).
- the processor 110 converts the sensor information into a pan / tilt signal for driving the motor (722).
- the short-range wireless communication unit 180 of the portable terminal 100 transmits the pan / tilt signal to the projection device 200 (723).
- the short-range wireless communication unit 280 of the projection device 200 receives the pan / tilt signal from the portable terminal 100 (724).
- the processor 210 of the projection device 200 transmits a pan / tilt signal to the cradle 300 via the electrical connection (726).
- the processor 310 of the cradle 300 receives the pan / tilt signal from the projection device 200 (727).
- the processor 310 supplies the pan / tilt signal to the motor driving unit 350.
- the motor driving unit 350 drives the motor 360 by the pan / tilt signal (729).
- the operation of the cradle 300 is the same as that in the first example described above.
- FIG. 5 is a sequence diagram illustrating a third example of the operation of the projection system according to the first embodiment of the present technology.
- the portable terminal 100 and the projection device 200 generate the pan / tilt signal.
- the cradle 300 generates the pan / tilt signal.
- the gyro sensor 130 and the acceleration sensor 140 detect the angular velocity and acceleration. Thereby, the processor 110 of the portable terminal 100 acquires sensor information which is a detection result of angular velocity and acceleration (731).
- the short-range wireless communication unit 180 of the portable terminal 100 transmits this sensor information to the projection device 200 (733).
- the operation of the portable terminal 100 is the same as that in the first example described above.
- the short-range wireless communication unit 280 of the projection device 200 receives sensor information from the portable terminal 100 (734).
- the processor 210 of the projection device 200 transmits the sensor information to the cradle 300 via the electrical connection (736).
- the processor 310 of the cradle 300 receives sensor information from the projection device 200 (737). Then, the processor 310 converts the sensor information into a pan / tilt signal for driving the motor (738). The processor 310 supplies the pan / tilt signal to the motor driving unit 350. The motor driving unit 350 drives the motor 360 by the pan / tilt signal (739).
- FIG. 6 is a diagram illustrating a first application example of the projection system according to the first embodiment of the present technology.
- This application example assumes a drive game.
- the projection device 200 can be panned and tilted by tilting. Thereby, by tilting the portable terminal 100 so as to cut the handle, an image in the tilted direction can be displayed.
- the video 611 projected from the projection device 200 is projected on the central portion of the projection surface.
- the change in the attitude of the mobile terminal 100 is transmitted to the cradle 300 via the projection device 200, and the cradle 300 tilts the projection device 200 to the left.
- the image 612 projected from the projection device 200 is displayed on the left side of the projection surface. In this way, the scenery in a specific direction viewed from the driver's seat so as to turn the steering wheel during driving can be displayed as an image.
- FIG. 7 is a diagram illustrating a second application example of the projection system according to the first embodiment of the present technology.
- This application example assumes a labyrinth (dungeon) exploration game.
- the mobile terminal 100 can be tilted so as to swing the searchlight, thereby displaying an image in the labyrinth in the tilted direction.
- the map of the labyrinth and the position of the character can be displayed on the screen of the mobile terminal 100. That is, the projection device 200 can project an image different from the screen display of the mobile terminal 100.
- the position of the image 621 projected from the projection device 200 does not change on the projection plane.
- the change in the attitude of the mobile terminal 100 is transmitted to the cradle 300 via the projection device 200, and the cradle 300 tilts the projection device 200 to the right.
- the position of the image 622 projected from the projection device 200 changes to the right. In this way, an image can be displayed as if the search light was swung in the labyrinth, and a treasure chest can be found as in this example.
- FIG. 8 is a diagram illustrating a third application example of the projection system according to the first embodiment of the present technology.
- This application example assumes a FPS (First-Person Shooter) game.
- This FPS game is a type of game in which a player moves from space to space in the game and fights against enemies.
- an arbitrary image can be projected so as to enlarge and display the target from the rifle scope.
- the screen of the portable terminal 100 can be displayed with a human eye or an interface for performing a character moving operation. That is, the projection device 200 can project an image different from the screen display of the mobile terminal 100.
- the position of the image 631 projected from the projection device 200 does not change on the projection plane.
- the user tilts the mobile terminal 100 to the right (633) a change in the attitude of the mobile terminal 100 is transmitted to the cradle 300 via the projection device 200, and the cradle 300 tilts the projection device 200 to the right.
- the position of the image 632 projected from the projection device 200 changes to the right. In this way, the image can be displayed as if the rifle was shaken while looking at the scope of the rifle, and an enemy soldier can be found as in this example.
- FIGS. 9 and 10 are diagrams illustrating a fourth application example of the projection system according to the first embodiment of the present technology.
- This application example assumes 360 degree video display.
- the detection result of the change in the attitude of the mobile terminal 100 is transferred to the cradle 300 via the projection device 200.
- the cradle 300 can change the posture of the projection device 200 according to the change in the posture of the mobile terminal 100, and the projected position of the video can be changed in conjunction with the change in the posture of the mobile terminal 100.
- FIG. 11 is a diagram illustrating a first modification example of the projection system according to the first embodiment of the present technology.
- the video signal is supplied from the portable terminal 100 to the projection device 200 by the network communication unit.
- the video signal may be supplied by other methods.
- the projection device 200 includes a memory card interface 230.
- the memory card interface 230 is an interface for reading video stored in the memory card 231.
- the processor 210 of the projection device 200 reads the video stored in the memory card 231 via the memory card interface 230 and stores it in the memory 220. Then, the processor 210 performs reproduction processing of the video signal stored in the memory 220. Since other configurations are the same as those in the above-described embodiment, detailed description thereof is omitted.
- the memory 220 and the memory card 231 are examples of a storage unit described in the claims.
- FIG. 12 is a diagram illustrating a second modification example of the projection system according to the first embodiment of the present technology.
- the mobile terminal 100 includes an audio output unit 170
- the projection device 200 includes an audio output unit 270.
- the audio output unit 170 is an example of a first audio output unit described in the claims
- the audio output unit 270 is an example of a second audio output unit described in the claims.
- the audio output unit 170 and the audio output unit 270 can output different sounds.
- the BGM (Back (Ground Music) of the game is output from the audio output unit 170 of the mobile terminal 100, while the sound output in the video (for example, a metal detection sound in a labyrinth) is output from the audio output unit 270 of the projection device 200. Is output. Thereby, the realistic sensation on the projection surface by the projection device 200 can be improved.
- the mobile terminal 100, the projection device 200, and the cradle 300 are each one. However, a plurality of these may be provided for the entire system. In that case, it is assumed that one set of the projection device 200 and the cradle 300 are associated with one portable terminal 100 and a plurality of them are provided. For example, a game character is assigned to each of the mobile terminals 100, and the projected position of the character is changed according to a change in the posture of the corresponding mobile terminal 100. Thereby, it is possible to realize a game in which characters operate in cooperation with each other.
- FIG. 13 is a diagram illustrating a functional configuration example of the projection system according to the second embodiment of the present technology.
- the detection result of the posture change detected in the mobile terminal 100 is directly supplied to the cradle 300 without using the projection device 200. Therefore, in the second embodiment, the cradle 300 includes the short-range wireless communication unit 380 and performs short-range wireless communication with the mobile terminal 100. Through the short-range wireless communication, the cradle 300 receives the detection result obtained by the gyro sensor 130 and the acceleration sensor 140 of the mobile terminal 100. Since other configurations are the same as those in the above-described embodiment, detailed description thereof is omitted.
- FIG. 14 is a sequence diagram illustrating a first example of the operation of the projection system according to the second embodiment of the present technology.
- the gyro sensor 130 and the acceleration sensor 140 detect the angular velocity and acceleration. Thereby, the processor 110 of the portable terminal 100 acquires sensor information which is a detection result of angular velocity and acceleration (741).
- the short-range wireless communication unit 180 of the mobile terminal 100 transmits this sensor information to the cradle 300 (743).
- the short-range wireless communication unit 380 of the cradle 300 receives the sensor information from the portable terminal 100 (744). Then, the processor 310 of the cradle 300 converts the sensor information into a pan / tilt signal for driving the motor (745). The processor 310 supplies the pan / tilt signal to the motor driving unit 350. The motor driving unit 350 drives the motor 360 by the pan / tilt signal (749).
- an image is projected from the projection unit 240 of the projection device 200 in parallel with this.
- FIG. 15 is a sequence diagram illustrating a second example of the operation of the projection system according to the second embodiment of the present technology.
- the processor 310 of the cradle 300 generates the pan / tilt signal.
- the portable terminal 100 generates the pan / tilt signal.
- the gyro sensor 130 and the acceleration sensor 140 detect the angular velocity and acceleration. Thereby, the processor 110 of the portable terminal 100 acquires sensor information which is a detection result of angular velocity and acceleration (751). Then, the processor 110 converts the sensor information into a pan / tilt signal for driving the motor (752).
- the short-range wireless communication unit 180 of the portable terminal 100 transmits this pan / tilt signal to the cradle 300 (753).
- the short-range wireless communication unit 380 of the cradle 300 receives a pan / tilt signal from the portable terminal 100 (754).
- the processor 310 supplies the pan / tilt signal to the motor driving unit 350.
- the motor driving unit 350 drives the motor 360 by the pan / tilt signal (759).
- the detection result of the change in the attitude of the mobile terminal 100 is directly transferred to the cradle 300 without using the projection device 200.
- the cradle 300 can change the posture of the projection device 200 according to the change in the posture of the mobile terminal 100, and the projected position of the video can be changed in conjunction with the change in the posture of the mobile terminal 100.
- FIG. 16 is a diagram illustrating a functional configuration example of the projection system according to the third embodiment of the present technology.
- the projection device 200 and the cradle 300 are configured as independent devices, but in the third embodiment, the projection device 200 includes a motor. It is assumed that it has the same function as the cradle. That is, it is configured as an apparatus in which the projection device and the cradle are integrated.
- the projection device 200 in the third embodiment includes a motor driving unit 250 and a motor 260 in addition to the processor 210, the memory 220, the projection unit 240, the short-range wireless communication unit 280, and the network communication unit 290.
- the motor 260 is a power source that generates power for rotating the projection device 200 vertically and horizontally.
- a stepping motor is assumed as the motor 260.
- the motor driving unit 250 is a mechanism for driving the motor 260.
- FIG. 17 is a sequence diagram illustrating a first example of the operation of the projection system according to the third embodiment of the present technology.
- the gyro sensor 130 and the acceleration sensor 140 detect the angular velocity and acceleration. Thereby, the processor 110 of the portable terminal 100 acquires sensor information which is a detection result of angular velocity and acceleration (761).
- the short-range wireless communication unit 180 of the mobile terminal 100 transmits this sensor information to the projection device 200 (763).
- the short-range wireless communication unit 280 of the projection device 200 receives the sensor information from the portable terminal 100 (764). Then, the processor 210 of the projection device 200 converts the sensor information into a pan / tilt signal for driving the motor (765). The processor 210 supplies the pan / tilt signal to the motor driving unit 250. The motor driving unit 250 drives the motor 260 by the pan / tilt signal (769).
- an image is projected from the projection unit 240 of the projection device 200 in parallel with this.
- FIG. 18 is a sequence diagram illustrating a second example of the operation of the projection system according to the third embodiment of the present technology.
- the projection device 200 generates a pan / tilt signal.
- the portable terminal 100 generates this pan / tilt signal.
- the gyro sensor 130 and the acceleration sensor 140 detect the angular velocity and acceleration.
- the processor 110 of the portable terminal 100 acquires sensor information which is a detection result of angular velocity and acceleration (771).
- the processor 110 converts the sensor information into a pan / tilt signal for driving the motor (772).
- the short-range wireless communication unit 180 of the portable terminal 100 transmits this pan / tilt signal to the projection device 200 (773).
- the short-range wireless communication unit 280 of the projection device 200 receives the pan / tilt signal from the portable terminal 100 (774).
- the processor 210 of the projection device 200 supplies a pan / tilt signal to the motor driving unit 250.
- the motor drive unit 250 drives the motor 260 by the pan / tilt signal (779).
- the detection result of the change in the attitude of the mobile terminal 100 is transferred to the projection device 200.
- the projection device 200 can change its own posture according to the change in the posture of the mobile terminal 100, and the projected position of the video can be changed in conjunction with the change in the posture of the mobile terminal 100.
- the orientation of the projection device 200 is changed according to the detection result of the change in the orientation of the mobile terminal 100.
- the orientation of the projection device 200 is changed according to the operation on the screen of the mobile terminal 100. You may let them.
- the projection device 200 may be rotated when the user gives an instruction to change the image by an operation of tapping the screen of the mobile terminal 100 (tap operation) or an operation of tracing the screen (slide operation). .
- the processing procedure described in the above embodiment may be regarded as a method having a series of these procedures, and a program for causing a computer to execute these series of procedures or a recording medium storing the program. You may catch it.
- a recording medium for example, a CD (Compact Disc), an MD (MiniDisc), a DVD (Digital Versatile Disc), a memory card, a Blu-ray disc (Blu-ray (registered trademark) Disc), or the like can be used.
- this technique can also take the following structures.
- a mobile terminal that detects a change in its posture;
- a projection device that reproduces a video signal and projects it onto a projection surface;
- a projection system comprising: a cradle that supports the projection device and changes an attitude of the projection device according to a detection result of the mobile terminal.
- the projection system according to (1) wherein the mobile terminal detects a change in the posture by at least one of an acceleration sensor and a gyro sensor.
- the cradle includes a motor that changes a posture of the projection device, and a motor driving unit that drives the motor.
- any of the mobile terminal, the projection device, and the cradle includes a control signal generation unit that generates a control signal for driving the motor based on a change in posture of the mobile terminal.
- Projection system (4) The projection system according to any one of (1) to (3), wherein the portable terminal supplies the video signal to the projection device.
- the portable terminal includes a first audio output unit,
- the projection device includes a second audio output unit,
- a detection signal receiving unit that receives a change in posture of the mobile terminal as a detection result
- a control signal generation unit that generates a control signal for changing the posture of itself based on the detection result
- a projection device comprising: a control signal transmission unit that transmits the control signal to a cradle for supporting itself; and a projection unit that projects a video signal in a projection direction based on the detection result.
- a detection signal receiving unit that receives a change in posture of the mobile terminal as a detection result; A control signal generation unit that generates a control signal for changing the posture of itself based on the detection result; A motor for changing the posture of the device; A motor drive unit for driving the motor according to the control signal; A projection device comprising: a projection unit that projects a video signal in a projection direction based on the detection result.
- a detection signal receiving unit that receives a change in posture of the mobile terminal as a detection result; A motor for changing the attitude of the projection device; A control signal generator for generating a control signal for driving the motor based on the detection result; A motor drive unit for driving the motor according to the control signal, A cradle that supports the projection device.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Projection Apparatus (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
携帯端末による直観的な操作により高機能な投影を行う。 投影システムは、携帯端末と、プロジェクションデバイスと、クレードルとを備える。携帯端末は、自身の携帯端末の姿勢の変化を検知する。プロジェクションデバイスは、映像信号を再生して、その再生された映像を投影面に投影する。クレードルは、プロジェクションデバイスを支える。クレードルは、携帯端末の検知結果に従って、プロジェクションデバイスの姿勢を変化させる。
Description
本技術は、投影システムに関する。詳しくは、映像を投影するプロジェクションデバイス、そのプロジェクションデバイスの姿勢を変化させるクレードル、および、それらを備える投影システムに関する。
従来、スクリーンや壁面等の投影面に画像を投影するプロジェクタが広く利用されている。また、このプロジェクタの機能を携帯電子機器に組み込んだものも知られている。例えば、プロジェクタの機能を有して、携帯電子機器の姿勢の変化および変化量に応じて、そのプロジェクタの投影内容および表示内容を変化させる携帯電子機器が提案されている(例えば、特許文献1参照。)。
上述の従来技術では、利用者が携帯電子機器の姿勢を変化させるという直観的な操作に従って、投影内容および表示内容を変化させている。しかしながら、利用者が直接操作を行う機器と、投影を行う装置とが一体化されていると、利用者は常に投影面を意識しなければならず、実際の使用において不便な状況が生じ得る。また、プロジェクタの機能を携帯電子機器の一部の機能として付加した場合には、解像度や発光量などの性能面で、専用のプロジェクタには及ばないと考えられる。
本技術はこのような状況に鑑みて生み出されたものであり、携帯端末による直観的な操作により高機能な投影を行うことを目的とする。
本技術は、上述の問題点を解消するためになされたものであり、その第1の側面は、自身の姿勢の変化を検知する携帯端末と、映像信号を再生して投影面に投影するプロジェクションデバイスと、上記プロジェクションデバイスを支えるとともに上記携帯端末の検知結果に従って上記プロジェクションデバイスの姿勢を変化させるクレードルとを具備する投影システムである。これにより、携帯端末の検知結果に従ってプロジェクションデバイスの姿勢を変化させるという作用をもたらす。
また、この第1の側面において、上記携帯端末は、加速度センサおよびジャイロセンサのうち少なくとも1つのセンサにより上記姿勢の変化を検知するようにしてもよい。これにより、加速度および角速度の少なくとも何れかにより姿勢の変化を検知するという作用をもたらす。
また、この第1の側面において、上記クレードルは、上記プロジェクションデバイスの姿勢を変化させるモータと、上記モータを駆動するモータ駆動部とを備え、上記携帯端末、上記プロジェクションデバイスおよび上記クレードルの何れかは、上記携帯端末の姿勢の変化に基づいて上記モータを駆動するための制御信号を生成する制御信号生成部を備えるようにしてもよい。これにより、クレードルのモータを駆動してプロジェクションデバイスの姿勢を変化させるという作用をもたらす。
また、この第1の側面において、上記携帯端末は、上記映像信号を上記プロジェクションデバイスに供給するようにしてもよい。これにより、映像信号から供給された映像信号をプロジェクションデバイスから投影するという作用をもたらす。
また、この第1の側面において、上記プロジェクションデバイスは、上記映像信号を記憶する記憶部を備え、上記記憶部から上記映像信号を読み出して上記再生を行うようにしてもよい。これにより、プロジェクションデバイスの記憶部に記憶された映像信号を投影するという作用をもたらす。
また、この第1の側面において、上記携帯端末は、第1の音声出力部を備え、上記プロジェクションデバイスは、第2の音声出力部を備え、上記第1および第2の音声出力部は、上記映像信号に対応する互いに異なる音声信号をそれぞれ出力するようにしてもよい。これにより、携帯端末およびプロジェクションデバイスから互いに異なる音声信号をそれぞれ出力させるという作用をもたらす。
また、この第1の側面において、上記携帯端末、上記プロジェクションデバイスおよび上記クレードルを1組として、複数組を具備してもよい。これにより、複数の携帯端末の検知結果に従ってプロジェクションデバイスから異なる映像を投影させるという作用をもたらす。
また、本技術の第2の側面は、携帯端末の姿勢の変化を検知結果として受信する検知信号受信部と、上記検知結果に基づいて自身の姿勢を変化させるための制御信号を生成する制御信号生成部と、自身を支えるためのクレードルに上記制御信号を送信する制御信号送信部と上記検知結果に基づく投影方向に映像信号を投影する投影部とを具備するプロジェクションデバイスである。これにより、携帯端末の検知結果に従ってクレードルのモータを駆動することにより、プロジェクションデバイスの姿勢を変化させるという作用をもたらす。
また、本技術の第3の側面は、携帯端末の姿勢の変化を検知結果として受信する検知信号受信部と、上記検知結果に基づいて自身の姿勢を変化させるための制御信号を生成する制御信号生成部と、上記自身の姿勢を変化させるモータと、上記制御信号に従って上記モータを駆動するモータ駆動部と、上記検知結果に基づく投影方向に映像信号を投影する投影部とを具備するプロジェクションデバイスである。これにより、携帯端末の検知結果に従ってプロジェクションデバイスのモータを駆動することにより、プロジェクションデバイスの姿勢を変化させるという作用をもたらす。
また、本技術の第4の側面は、携帯端末の姿勢の変化を検知結果として受信する検知信号受信部と、上記プロジェクションデバイスの姿勢を変化させるモータと、上記検知結果に基づいて上記モータを駆動するための制御信号を生成する制御信号生成部と、上記制御信号に従って上記モータを駆動するモータ駆動部とを具備して、上記プロジェクションデバイスを支えるクレードルである。これにより、携帯端末の検知結果に従ってこのクレードルのモータを駆動することにより、プロジェクションデバイスの姿勢を変化させるという作用をもたらす。
本技術によれば、携帯端末による直観的な操作により高機能な投影を行うことができるという優れた効果を奏し得る。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
以下、本技術を実施するための形態(以下、実施の形態と称する)について説明する。説明は以下の順序により行う。
1.第1の実施の形態(携帯端末の姿勢変化をプロジェクションデバイスに伝える例)
2.第2の実施の形態(携帯端末の姿勢変化をクレードルに伝える例)
3.第3の実施の形態(プロジェクションデバイスが姿勢変化する例)
1.第1の実施の形態(携帯端末の姿勢変化をプロジェクションデバイスに伝える例)
2.第2の実施の形態(携帯端末の姿勢変化をクレードルに伝える例)
3.第3の実施の形態(プロジェクションデバイスが姿勢変化する例)
<1.第1の実施の形態>
[投影システムの構成]
図1は、本技術の実施の形態における投影システムの全体構成例を示す図である。この投影システムは、携帯端末100と、プロジェクションデバイス200と、クレードル300とを備える。
[投影システムの構成]
図1は、本技術の実施の形態における投影システムの全体構成例を示す図である。この投影システムは、携帯端末100と、プロジェクションデバイス200と、クレードル300とを備える。
携帯端末100は、ユーザの操作対象となる携帯型の端末装置であり、例えば、スマートフォンや、タブレット端末などが想定される。ユーザは、この携帯端末100を手に持って、上下左右に携帯端末100の姿勢を変化させながら操作を行う。この携帯端末100の姿勢の変化は携帯端末100内で検知され、その検知結果は携帯端末100の外部に送信される。
プロジェクションデバイス200は、映像信号を再生して投影面600に投影するものである。このプロジェクションデバイス200は、投影時にはクレードル300に搭載される。
クレードル300は、プロジェクションデバイス200を搭載して支えるものである。このクレードル300はモータを備え、携帯端末100の検知結果に従って上下左右に回動可能である。すなわち、クレードル300の動作によってプロジェクションデバイス200の姿勢が変化する。
例えば、投影面600の位置601において映像が投影されている場合において、携帯端末100が左方向に水平移動し、または、左方向に傾けられると、その携帯端末100の姿勢の変化が携帯端末100内で検知される。その検知結果は携帯端末100の外部に送信され、プロジェクションデバイス200を介して、または、直接、クレードル300に供給される。クレードル300は、その姿勢の変化に対応する方向に回動し、プロジェクションデバイス200の姿勢を変化させる。これにより、プロジェクションデバイス200による映像の投影位置が、位置601から位置602に変化する。
図2は、本技術の第1の実施の形態における投影システムの機能構成例を示す図である。この第1の実施の形態では、携帯端末100内で検知された姿勢変化の検知結果は、プロジェクションデバイス200を介してクレードル300に供給される。
携帯端末100は、プロセッサ110と、ジャイロセンサ130と、加速度センサ140と、近距離無線通信部180と、ネットワーク通信部190とを備える。プロセッサ110は、携帯端末100の各部を制御する処理装置である。
ジャイロセンサ130は、携帯端末100の3次元方向の角速度を検出する角速度センサである。このジャイロセンサ130は、携帯端末100がある方向に回転した場合に、その回転の角速度を出力する。このジャイロセンサ130によって得られる角速度は、単位時間あたりの角度である。
加速度センサ140は、携帯端末100の3次元方向の加速度を検出する加速度センサである。この加速度センサ140は、携帯端末100がある方向に移動した場合に、その移動の加速度を出力する。この加速度センサ140によって得られる加速度は、単位時間あたりに速度が変化する割合である。
これらジャイロセンサ130および加速度センサ140における検出結果を組み合わせることにより、携帯端末100が傾けられた場合の傾きの方向や、携帯端末100が移動された場合の移動の方向を検知することができる。例えば、携帯端末100を手に持つ利用者が、携帯端末100を左右に並行移動(スライド)させた場合には、その移動方向が検知される。また、携帯端末100を手に持つ利用者が、携帯端末100を左右に傾けた場合には、その傾きの方向が検知される。また、携帯端末100を手に持つ利用者が、携帯端末100を正面において前後に傾けた場合と、上下に大きく振り回した場合とでは、検出される加速度が異なるため、加速度センサ140により検出された結果を参照することにより、両者を区別することができる。
なお、ここでは、携帯端末100に設けられるセンサとしてジャイロセンサ130および加速度センサ140を例示したが、携帯端末100は気圧センサや地磁気センサなどの他のセンサを備えてもよい。
近距離無線通信部180は、プロジェクションデバイス200との間で近距離無線通信を行うものである。ここで、近距離無線通信としては、例えば「Bluetooth(登録商標) Low Energy」を想定する。一般に、近距離無線通信では、消費電力を低く抑えるためにデータ転送レートも低く設定されている。そのため、本実施の形態において、近距離無線通信部180は、映像信号ではなく、ジャイロセンサ130および加速度センサ140によって得られた検知結果を送信するために用いられることを想定する。なお、この実施の形態では、ジャイロセンサ130および加速度センサ140によって得られた検知結果を、近距離無線通信を介して転送することを想定したが、無線LANなどの他の無線通信や、有線による接続によって転送するようにしてもよい。
ネットワーク通信部190は、プロジェクションデバイス200との間でネットワーク通信を行うものである。ここで、ネットワーク通信としては、例えばWiFi(登録商標)等の無線LANを想定する。本実施の形態において、ネットワーク通信部190は、映像信号を転送するために用いられることを想定する。
プロジェクションデバイス200は、プロセッサ210と、メモリ220と、投影部240と、近距離無線通信部280と、ネットワーク通信部290とを備える。
プロセッサ210は、プロジェクションデバイス200の各部を制御する処理装置である。メモリ220は、プロセッサ210の動作に必要なデータ等を記憶するメモリである。例えば、メモリ220には、携帯端末100から受信した映像信号が記憶される。プロセッサ210は、メモリ220に記憶された映像信号の再生処理を行う。なお、メモリ220は、特許請求の範囲に記載の記憶部の一例である。
投影部240は、プロセッサ210によって再生された映像を投影面に投影するものである。この投影部240は、ランプやレーザなどの光源を用いて映像を投影面に投影させる。特に、レーザ光源を用いた場合には、投影面において走査により点描画するため、黒い部分を明るくすることなく、投影面の全ての位置においてピントを合わせることが可能である。
近距離無線通信部280は、携帯端末100との間で近距離無線通信を行うものである。この近距離無線通信部280は、携帯端末100から送信されたジャイロセンサ130および加速度センサ140による検知結果を受信して、その検知結果をプロセッサ210に供給する。
ネットワーク通信部290は、携帯端末100との間でネットワーク通信を行うものである。このネットワーク通信部290は、携帯端末100から転送された映像信号を受信して、その映像信号をプロセッサ210に供給する。
クレードル300は、プロセッサ310と、モータ駆動部350と、モータ360とを備える。
プロセッサ310は、クレードル300の各部を制御する処理装置である。モータ360は、クレードル300に搭載されたプロジェクションデバイス200を上下左右に回動させるための動力を発生する動力源である。モータ360としては、例えばステッピングモータが想定される。モータ駆動部350は、モータ360を駆動するための機構である。
プロジェクションデバイス200がクレードル300に搭載された状態においては、プロセッサ310とプロセッサ210との間は電気的に接続される。したがって、クレードル300のプロセッサ310は、プロジェクションデバイス200のプロセッサ210からジャイロセンサ130および加速度センサ140による検知結果を受け取ることができる。プロセッサ310は、この検知結果に従ってプロジェクションデバイス200の姿勢を変化させる制御信号を生成する。モータ駆動部350は、この生成された制御信号に従ってモータ360を駆動する。これにより、携帯端末100の姿勢の変化に基づいて、プロジェクションデバイス200による映像の投影位置が変化する。
なお、プロセッサ110、210、310は、特許請求の範囲に記載の制御信号生成部の一例である。また、プロセッサ210は、特許請求の範囲に記載の制御信号送信部の一例である。また、プロセッサ310は、特許請求の範囲に記載の検知信号受信部の一例である。
[投影システムの動作]
図3は、本技術の第1の実施の形態における投影システムの動作の第1の例を示すシーケンス図である。以下では、検知結果の伝達に着目して説明するが、これと並行して、携帯端末100からプロジェクションデバイス200には映像信号が転送され、上述のように投影部240によって投影が行われる。
図3は、本技術の第1の実施の形態における投影システムの動作の第1の例を示すシーケンス図である。以下では、検知結果の伝達に着目して説明するが、これと並行して、携帯端末100からプロジェクションデバイス200には映像信号が転送され、上述のように投影部240によって投影が行われる。
携帯端末100の姿勢が変化すると、ジャイロセンサ130および加速度センサ140によって角速度および加速度が検出される。これにより、携帯端末100のプロセッサ110は、角速度および加速度の検知結果であるセンサ情報を取得する(711)。携帯端末100の近距離無線通信部180は、このセンサ情報をプロジェクションデバイス200に送信する(713)。
プロジェクションデバイス200の近距離無線通信部280は、携帯端末100からセンサ情報を受信する(714)。プロジェクションデバイス200のプロセッサ210は、受信したセンサ情報をモータ駆動のためのパン・チルト信号に変換する(715)。すなわち、センサ情報に基づいて携帯端末100の姿勢の変化を認識し、その姿勢の変化に対応する動作を行うようにクレードル300のモータ360のパン・チルト信号を生成する。例えば、モータ360がステッピングモータであれば、プロセッサ210はその減速比を生成する。プロジェクションデバイス200のプロセッサ210は、電気的接続を介してクレードル300にパン・チルト信号を送信する(716)。なお、パン・チルト信号は、特許請求の範囲に記載の、モータを駆動するための制御信号の一例である。パンは左右方向の振りを行う動作であり、チルトは上下方向の振りを行う動作である。
クレードル300のプロセッサ310は、プロジェクションデバイス200からパン・チルト信号を受信する(717)。プロセッサ310は、パン・チルト信号をモータ駆動部350に供給する。モータ駆動部350は、パン・チルト信号によりモータ360を駆動する(719)。
図4は、本技術の第1の実施の形態における投影システムの動作の第2の例を示すシーケンス図である。上述の例ではプロジェクションデバイス200のプロセッサ210がパン・チルト信号を生成していたが、この例では携帯端末100においてこのパン・チルト信号を生成することを想定する。
携帯端末100の姿勢が変化すると、ジャイロセンサ130および加速度センサ140によって角速度および加速度が検出される。これにより、携帯端末100のプロセッサ110は、角速度および加速度の検知結果であるセンサ情報を取得する(721)。そして、プロセッサ110は、そのセンサ情報をモータ駆動のためのパン・チルト信号に変換する(722)。携帯端末100の近距離無線通信部180は、このパン・チルト信号をプロジェクションデバイス200に送信する(723)。
プロジェクションデバイス200の近距離無線通信部280は、携帯端末100からパン・チルト信号を受信する(724)。プロジェクションデバイス200のプロセッサ210は、電気的接続を介してクレードル300にパン・チルト信号を送信する(726)。
クレードル300のプロセッサ310は、プロジェクションデバイス200からパン・チルト信号を受信する(727)。プロセッサ310は、パン・チルト信号をモータ駆動部350に供給する。モータ駆動部350は、パン・チルト信号によりモータ360を駆動する(729)。このクレードル300における動作は、上述の第1の例と同様である。
図5は、本技術の第1の実施の形態における投影システムの動作の第3の例を示すシーケンス図である。上述の例では携帯端末100やプロジェクションデバイス200がパン・チルト信号を生成していたが、この例ではクレードル300においてこのパン・チルト信号を生成することを想定する。
携帯端末100の姿勢が変化すると、ジャイロセンサ130および加速度センサ140によって角速度および加速度が検出される。これにより、携帯端末100のプロセッサ110は、角速度および加速度の検知結果であるセンサ情報を取得する(731)。携帯端末100の近距離無線通信部180は、このセンサ情報をプロジェクションデバイス200に送信する(733)。この携帯端末100における動作は、上述の第1の例と同様である。
プロジェクションデバイス200の近距離無線通信部280は、携帯端末100からセンサ情報を受信する(734)。プロジェクションデバイス200のプロセッサ210は、電気的接続を介してクレードル300にセンサ情報を送信する(736)。
クレードル300のプロセッサ310は、プロジェクションデバイス200からセンサ情報を受信する(737)。そして、プロセッサ310は、そのセンサ情報をモータ駆動のためのパン・チルト信号に変換する(738)。プロセッサ310は、パン・チルト信号をモータ駆動部350に供給する。モータ駆動部350は、パン・チルト信号によりモータ360を駆動する(739)。
[投影システムの応用例]
図6は、本技術の第1の実施の形態における投影システムの第1の応用例を示す図である。この応用例は、ドライブゲームを想定したものである。携帯端末100のジャイロセンサ130および加速度センサ140を利用して、傾きによってプロジェクションデバイス200のパン・チルト操作を可能とする。これにより、ハンドルを切るように携帯端末100を傾けることによって、傾けた方向の映像を映し出すことができる。
図6は、本技術の第1の実施の形態における投影システムの第1の応用例を示す図である。この応用例は、ドライブゲームを想定したものである。携帯端末100のジャイロセンサ130および加速度センサ140を利用して、傾きによってプロジェクションデバイス200のパン・チルト操作を可能とする。これにより、ハンドルを切るように携帯端末100を傾けることによって、傾けた方向の映像を映し出すことができる。
ユーザが携帯端末100を水平持ちしている場合、プロジェクションデバイス200から投影される映像611は投影面の中央部分に映し出される。ユーザが携帯端末100を左側に傾けると(613)、携帯端末100の姿勢変化がプロジェクションデバイス200を介してクレードル300に伝達され、クレードル300はプロジェクションデバイス200を左側に傾ける。これにより、プロジェクションデバイス200から投影される映像612は投影面の左側に映し出される。このようにして、運転中にハンドルを切るように運転席から見た特定の方向の景色を映像として表示することができる。
図7は、本技術の第1の実施の形態における投影システムの第2の応用例を示す図である。この応用例は、迷宮(ダンジョン)探検ゲームを想定したものである。携帯端末100の傾きによってプロジェクションデバイス200のパン・チルト操作を可能とすることにより、サーチライトを振るように携帯端末100を傾けることによって、傾けた方向の迷宮内の映像を映し出すことができる。このとき、携帯端末100の画面には、迷宮の地図とキャラクタの位置を表示することができる。すなわち、プロジェクションデバイス200からは、携帯端末100の画面表示とは異なる映像を映し出すことができる。
ユーザが携帯端末100を水平持ちしている場合、プロジェクションデバイス200から投影される映像621の位置は投影面において変化しない。ユーザが携帯端末100を右側に傾けると(623)、携帯端末100の姿勢変化がプロジェクションデバイス200を介してクレードル300に伝達され、クレードル300はプロジェクションデバイス200を右側に傾ける。これにより、プロジェクションデバイス200から投影される映像622の位置は右側に変化する。このようにして、迷宮内であたかもサーチライトを振る動作が行われたかのように映像を表示することができ、この例のように宝箱を発見することができる。
図8は、本技術の第1の実施の形態における投影システムの第3の応用例を示す図である。この応用例は、FPS(First-Person Shooter)ゲームを想定したものである。このFPSゲームは、主人公の視点からゲーム内の空間を移動して、敵と戦うゲームの一種である。携帯端末100の傾きによってプロジェクションデバイス200のパン・チルト操作を可能とすることにより、ライフルのスコープから標的を拡大表示するように任意の映像を映し出すことができる。このとき、携帯端末100の画面には、人の目線における表示や、キャラクタの移動操作を行うインターフェースの表示を行うことができる。すなわち、プロジェクションデバイス200からは、携帯端末100の画面表示とは異なる映像を映し出すことができる。
ユーザが携帯端末100を水平持ちしている場合、プロジェクションデバイス200から投影される映像631の位置は投影面において変化しない。ユーザが携帯端末100を右側に傾けると(633)、携帯端末100の姿勢変化がプロジェクションデバイス200を介してクレードル300に伝達され、クレードル300はプロジェクションデバイス200を右側に傾ける。これにより、プロジェクションデバイス200から投影される映像632の位置は右側に変化する。このようにして、ライフルのスコープを見ながらあたかもライフルを振る動作が行われたかのように映像を表示することができ、この例のように敵の兵士を発見することができる。
図9および図10は、本技術の第1の実施の形態における投影システムの第4の応用例を示す図である。この応用例は、360度映像表示を想定したものである。携帯端末100の傾きまたはスライドによってプロジェクションデバイス200のパン・チルト操作を可能とすることにより、360度映像の見たい方向の映像を映し出すことができる。
例えば、図9に示すように、360度映像651において、特定の部分の映像652を表示しているときに携帯端末100において左上方向のスライド操作が行われた場合、左上方向の部分の映像653を表示することができる。
また、図10に示すように、ユーザが携帯端末100を水平持ちしている場合、プロジェクションデバイス200から投影される映像641の位置は投影面において変化しない。ユーザが携帯端末100を左上に傾け(643)、または、左上にスライドさせると(644)、携帯端末100の姿勢変化がプロジェクションデバイス200を介してクレードル300に伝達され、クレードル300はプロジェクションデバイス200を左上に傾ける。これにより、プロジェクションデバイス200から投影される映像642の位置は左上に変化する。このようにして、携帯端末100を動かした方向の映像が表示されるように、ユーザが見たい部分の360度映像を映し出すことができる。すなわち、上述のゲームの例のみならず、この実施の形態は映像表示全般に適用可能であり、例えば、広くAR(Augmented Reality:拡張現実)等にも応用することができる。
このように、本技術の第1の実施の形態では、携帯端末100の姿勢の変化の検知結果を、プロジェクションデバイス200を介してクレードル300に転送する。これにより、携帯端末100の姿勢の変化に従ってクレードル300がプロジェクションデバイス200の姿勢を変化させて、携帯端末100の姿勢変化に連動して映像の投影位置を変化させることができる。
[第1の変形例]
図11は、本技術の第1の実施の形態における投影システムの第1の変形例を示す図である。上述の実施の形態では、ネットワーク通信部によって携帯端末100からプロジェクションデバイス200に映像信号を供給していたが、他の方法によって映像信号を供給するようにしてもよい。この第1の変形例では、メモリカード231に記憶されている映像を表示することを想定する。
図11は、本技術の第1の実施の形態における投影システムの第1の変形例を示す図である。上述の実施の形態では、ネットワーク通信部によって携帯端末100からプロジェクションデバイス200に映像信号を供給していたが、他の方法によって映像信号を供給するようにしてもよい。この第1の変形例では、メモリカード231に記憶されている映像を表示することを想定する。
この第1の変形例では、プロジェクションデバイス200はメモリカードインターフェース230を備える。このメモリカードインターフェース230は、メモリカード231に記憶されている映像を読み出すためのインターフェースである。プロジェクションデバイス200のプロセッサ210は、メモリカードインターフェース230を介してメモリカード231に記憶されている映像を読み出して、メモリ220に記憶する。そして、プロセッサ210は、メモリ220に記憶された映像信号の再生処理を行う。他の構成については、上述の実施の形態と同様であるため、詳細な説明は省略する。なお、メモリ220およびメモリカード231は、特許請求の範囲に記載の記憶部の一例である。
[第2の変形例]
図12は、本技術の第1の実施の形態における投影システムの第2の変形例を示す図である。この第2の変形例では、携帯端末100は音声出力部170を備え、プロジェクションデバイス200は音声出力部270を備える。なお、音声出力部170は特許請求の範囲に記載の第1の音声出力部の一例であり、音声出力部270は特許請求の範囲に記載の第2の音声出力部の一例である。
図12は、本技術の第1の実施の形態における投影システムの第2の変形例を示す図である。この第2の変形例では、携帯端末100は音声出力部170を備え、プロジェクションデバイス200は音声出力部270を備える。なお、音声出力部170は特許請求の範囲に記載の第1の音声出力部の一例であり、音声出力部270は特許請求の範囲に記載の第2の音声出力部の一例である。
音声出力部170および音声出力部270は、それぞれ異なる音声を出力することができる。例えば、携帯端末100の音声出力部170からはゲームのBGM(Back Ground Music)が出力され、一方、プロジェクションデバイス200の音声出力部270からは映像における発生音(例えば、迷宮における金属探知音)などが出力される。これにより、プロジェクションデバイス200による投影面における臨場感等を向上させることができる。
[第3の変形例]
上述の実施の形態においては、携帯端末100、プロジェクションデバイス200およびクレードル300は、それぞれ1台ずつであることを想定していた。しかし、これらはシステム全体としてはそれぞれ複数台を設けるようにしてもよい。その場合、1台の携帯端末100に対して1組のプロジェクションデバイス200およびクレードル300を対応させて、それらを複数設けることが想定される。例えば、携帯端末100のそれぞれにゲームのキャラクタを割り当てて、対応する携帯端末100の姿勢変化に応じてキャラクタの投影位置を変化させる。これにより、キャラクタ同士が連携して動作するようなゲームを実現することができる。
上述の実施の形態においては、携帯端末100、プロジェクションデバイス200およびクレードル300は、それぞれ1台ずつであることを想定していた。しかし、これらはシステム全体としてはそれぞれ複数台を設けるようにしてもよい。その場合、1台の携帯端末100に対して1組のプロジェクションデバイス200およびクレードル300を対応させて、それらを複数設けることが想定される。例えば、携帯端末100のそれぞれにゲームのキャラクタを割り当てて、対応する携帯端末100の姿勢変化に応じてキャラクタの投影位置を変化させる。これにより、キャラクタ同士が連携して動作するようなゲームを実現することができる。
<2.第2の実施の形態>
[投影システムの構成]
図13は、本技術の第2の実施の形態における投影システムの機能構成例を示す図である。
[投影システムの構成]
図13は、本技術の第2の実施の形態における投影システムの機能構成例を示す図である。
この第2の実施の形態では、携帯端末100内で検知された姿勢変化の検知結果は、プロジェクションデバイス200を介さずに直接、クレードル300に供給される。そのため、この第2の実施の形態では、クレードル300は、近距離無線通信部380を備えて、携帯端末100との間で近距離無線通信を行う。この近距離無線通信により、クレードル300は、携帯端末100のジャイロセンサ130および加速度センサ140によって得られた検知結果を受信する。他の構成については、上述の実施の形態と同様であるため、詳細な説明は省略する。
[投影システムの動作]
図14は、本技術の第2の実施の形態における投影システムの動作の第1の例を示すシーケンス図である。
図14は、本技術の第2の実施の形態における投影システムの動作の第1の例を示すシーケンス図である。
携帯端末100の姿勢が変化すると、ジャイロセンサ130および加速度センサ140によって角速度および加速度が検出される。これにより、携帯端末100のプロセッサ110は、角速度および加速度の検知結果であるセンサ情報を取得する(741)。携帯端末100の近距離無線通信部180は、このセンサ情報をクレードル300に送信する(743)。
クレードル300の近距離無線通信部380は、携帯端末100からセンサ情報を受信する(744)。そして、クレードル300のプロセッサ310は、そのセンサ情報をモータ駆動のためのパン・チルト信号に変換する(745)。プロセッサ310は、パン・チルト信号をモータ駆動部350に供給する。モータ駆動部350は、パン・チルト信号によりモータ360を駆動する(749)。
なお、この図においては省略されているが、これと並行してプロジェクションデバイス200の投影部240から映像が投射される。
図15は、本技術の第2の実施の形態における投影システムの動作の第2の例を示すシーケンス図である。上述の例ではクレードル300のプロセッサ310がパン・チルト信号を生成していたが、この例では携帯端末100においてこのパン・チルト信号を生成することを想定する。
携帯端末100の姿勢が変化すると、ジャイロセンサ130および加速度センサ140によって角速度および加速度が検出される。これにより、携帯端末100のプロセッサ110は、角速度および加速度の検知結果であるセンサ情報を取得する(751)。そして、プロセッサ110は、そのセンサ情報をモータ駆動のためのパン・チルト信号に変換する(752)。携帯端末100の近距離無線通信部180は、このパン・チルト信号をクレードル300に送信する(753)。
クレードル300の近距離無線通信部380は、携帯端末100からパン・チルト信号を受信する(754)。プロセッサ310は、パン・チルト信号をモータ駆動部350に供給する。モータ駆動部350は、パン・チルト信号によりモータ360を駆動する(759)。
このように、本技術の第2の実施の形態では、携帯端末100の姿勢の変化の検知結果を、プロジェクションデバイス200を介さずに直接、クレードル300に転送する。これにより、携帯端末100の姿勢の変化に従ってクレードル300がプロジェクションデバイス200の姿勢を変化させて、携帯端末100の姿勢変化に連動して映像の投影位置を変化させることができる。
なお、上述の第1の実施の形態において説明した第1乃至第3の変形例は、この第2の実施の形態にも適用することができる。
<3.第3の実施の形態>
[投影システムの構成]
図16は、本技術の第3の実施の形態における投影システムの機能構成例を示す図である。上述の第1および第2の実施の形態では、プロジェクションデバイス200とクレードル300はそれぞれ独立した装置として構成されることを想定したが、この第3の実施の形態では、プロジェクションデバイス200がモータを備えて、クレードルと同様の機能を備えることを想定する。すなわち、プロジェクションデバイスとクレードルが一体化した装置として構成される。
[投影システムの構成]
図16は、本技術の第3の実施の形態における投影システムの機能構成例を示す図である。上述の第1および第2の実施の形態では、プロジェクションデバイス200とクレードル300はそれぞれ独立した装置として構成されることを想定したが、この第3の実施の形態では、プロジェクションデバイス200がモータを備えて、クレードルと同様の機能を備えることを想定する。すなわち、プロジェクションデバイスとクレードルが一体化した装置として構成される。
この第3の実施の形態におけるプロジェクションデバイス200は、プロセッサ210、メモリ220、投影部240、近距離無線通信部280、ネットワーク通信部290に加えて、モータ駆動部250とモータ260とを備える。モータ260は、プロジェクションデバイス200を上下左右に回動させるための動力を発生する動力源である。モータ260としては、例えばステッピングモータが想定される。モータ駆動部250は、モータ260を駆動するための機構である。
他の構成については、上述の第1および第2の実施の形態と同様であるため、詳細な説明は省略する。
[投影システムの動作]
図17は、本技術の第3の実施の形態における投影システムの動作の第1の例を示すシーケンス図である。
図17は、本技術の第3の実施の形態における投影システムの動作の第1の例を示すシーケンス図である。
携帯端末100の姿勢が変化すると、ジャイロセンサ130および加速度センサ140によって角速度および加速度が検出される。これにより、携帯端末100のプロセッサ110は、角速度および加速度の検知結果であるセンサ情報を取得する(761)。携帯端末100の近距離無線通信部180は、このセンサ情報をプロジェクションデバイス200に送信する(763)。
プロジェクションデバイス200の近距離無線通信部280は、携帯端末100からセンサ情報を受信する(764)。そして、プロジェクションデバイス200のプロセッサ210は、そのセンサ情報をモータ駆動のためのパン・チルト信号に変換する(765)。プロセッサ210は、パン・チルト信号をモータ駆動部250に供給する。モータ駆動部250は、パン・チルト信号によりモータ260を駆動する(769)。
なお、この図においては省略されているが、これと並行してプロジェクションデバイス200の投影部240から映像が投射される。
図18は、本技術の第3の実施の形態における投影システムの動作の第2の例を示すシーケンス図である。上述の例ではプロジェクションデバイス200がパン・チルト信号を生成していたが、この例では携帯端末100においてこのパン・チルト信号を生成することを想定する。
携帯端末100の姿勢が変化すると、ジャイロセンサ130および加速度センサ140によって角速度および加速度が検出される。これにより、携帯端末100のプロセッサ110は、角速度および加速度の検知結果であるセンサ情報を取得する(771)。そして、プロセッサ110は、そのセンサ情報をモータ駆動のためのパン・チルト信号に変換する(772)。携帯端末100の近距離無線通信部180は、このパン・チルト信号をプロジェクションデバイス200に送信する(773)。
プロジェクションデバイス200の近距離無線通信部280は、携帯端末100からパン・チルト信号を受信する(774)。プロジェクションデバイス200のプロセッサ210は、パン・チルト信号をモータ駆動部250に供給する。モータ駆動部250は、パン・チルト信号によりモータ260を駆動する(779)
このように、本技術の第3の実施の形態では、携帯端末100の姿勢の変化の検知結果を、プロジェクションデバイス200に転送する。これにより、携帯端末100の姿勢の変化に従ってプロジェクションデバイス200が自身の姿勢を変化させて、携帯端末100の姿勢変化に連動して映像の投影位置を変化させることができる。
なお、上述の第1の実施の形態において説明した第1乃至第3の変形例は、この第3の実施の形態にも適用することができる。
ここまで説明したように、本技術の実施の形態では、携帯端末100の姿勢の変化の検知結果に従ってプロジェクションデバイス200の姿勢を変化させることにより、携帯端末100の姿勢変化に連動して映像の投影位置を変化させることができる。
なお、上述の実施の形態では、携帯端末100の姿勢の変化の検知結果に従ってプロジェクションデバイス200の姿勢を変化させることを想定したが、携帯端末100における画面上の操作に従ってプロジェクションデバイス200の姿勢を変化させてもよい。例えば、ユーザが携帯端末100の画面を突っつく操作(タップ操作)や、画面上をなぞる操作(スライド操作)により映像の変化を指示した場合に、プロジェクションデバイス200を回動等させるようにしてもよい。
なお、上述の実施の形態は本技術を具現化するための一例を示したものであり、実施の形態における事項と、特許請求の範囲における発明特定事項とはそれぞれ対応関係を有する。同様に、特許請求の範囲における発明特定事項と、これと同一名称を付した本技術の実施の形態における事項とはそれぞれ対応関係を有する。ただし、本技術は実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において実施の形態に種々の変形を施すことにより具現化することができる。
また、上述の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。この記録媒体として、例えば、CD(Compact Disc)、MD(MiniDisc)、DVD(Digital Versatile Disc)、メモリカード、ブルーレイディスク(Blu-ray(登録商標)Disc)等を用いることができる。
なお、本明細書に記載された効果はあくまで例示であって、限定されるものではなく、また、他の効果があってもよい。
なお、本技術は以下のような構成もとることができる。
(1)自身の姿勢の変化を検知する携帯端末と、
映像信号を再生して投影面に投影するプロジェクションデバイスと、
前記プロジェクションデバイスを支えるとともに前記携帯端末の検知結果に従って前記プロジェクションデバイスの姿勢を変化させるクレードルと
を具備する投影システム。
(2)前記携帯端末は、加速度センサおよびジャイロセンサのうち少なくとも1つのセンサにより前記姿勢の変化を検知する前記(1)に記載の投影システム。
(3)前記クレードルは、前記プロジェクションデバイスの姿勢を変化させるモータと、前記モータを駆動するモータ駆動部とを備え、
前記携帯端末、前記プロジェクションデバイスおよび前記クレードルの何れかは、前記携帯端末の姿勢の変化に基づいて前記モータを駆動するための制御信号を生成する制御信号生成部を備える
前記(2)に記載の投影システム。
(4)前記携帯端末は、前記映像信号を前記プロジェクションデバイスに供給する
前記(1)から(3)のいずれかに記載の投影システム。
(5)前記プロジェクションデバイスは、前記映像信号を記憶する記憶部を備え、前記記憶部から前記映像信号を読み出して前記再生を行う
前記(1)から(3)のいずれかに記載の投影システム。
(6)前記携帯端末は、第1の音声出力部を備え、
前記プロジェクションデバイスは、第2の音声出力部を備え、
前記第1および第2の音声出力部は、前記映像信号に対応する互いに異なる音声信号をそれぞれ出力する
前記(1)から(5)のいずれかに記載の投影システム。
(7)前記携帯端末、前記プロジェクションデバイスおよび前記クレードルを1組として、複数組を具備する前記(1)から(6)のいずれかに記載の投影システム。
(8)携帯端末の姿勢の変化を検知結果として受信する検知信号受信部と、
前記検知結果に基づいて自身の姿勢を変化させるための制御信号を生成する制御信号生成部と、
自身を支えるためのクレードルに前記制御信号を送信する制御信号送信部と
前記検知結果に基づく投影方向に映像信号を投影する投影部と
を具備するプロジェクションデバイス。
(9)携帯端末の姿勢の変化を検知結果として受信する検知信号受信部と、
前記検知結果に基づいて自身の姿勢を変化させるための制御信号を生成する制御信号生成部と、
前記自身の姿勢を変化させるモータと、
前記制御信号に従って前記モータを駆動するモータ駆動部と、
前記検知結果に基づく投影方向に映像信号を投影する投影部と
を具備するプロジェクションデバイス。
(10)携帯端末の姿勢の変化を検知結果として受信する検知信号受信部と、
前記プロジェクションデバイスの姿勢を変化させるモータと、
前記検知結果に基づいて前記モータを駆動するための制御信号を生成する制御信号生成部と、
前記制御信号に従って前記モータを駆動するモータ駆動部とを具備して、
前記プロジェクションデバイスを支えるクレードル。
(1)自身の姿勢の変化を検知する携帯端末と、
映像信号を再生して投影面に投影するプロジェクションデバイスと、
前記プロジェクションデバイスを支えるとともに前記携帯端末の検知結果に従って前記プロジェクションデバイスの姿勢を変化させるクレードルと
を具備する投影システム。
(2)前記携帯端末は、加速度センサおよびジャイロセンサのうち少なくとも1つのセンサにより前記姿勢の変化を検知する前記(1)に記載の投影システム。
(3)前記クレードルは、前記プロジェクションデバイスの姿勢を変化させるモータと、前記モータを駆動するモータ駆動部とを備え、
前記携帯端末、前記プロジェクションデバイスおよび前記クレードルの何れかは、前記携帯端末の姿勢の変化に基づいて前記モータを駆動するための制御信号を生成する制御信号生成部を備える
前記(2)に記載の投影システム。
(4)前記携帯端末は、前記映像信号を前記プロジェクションデバイスに供給する
前記(1)から(3)のいずれかに記載の投影システム。
(5)前記プロジェクションデバイスは、前記映像信号を記憶する記憶部を備え、前記記憶部から前記映像信号を読み出して前記再生を行う
前記(1)から(3)のいずれかに記載の投影システム。
(6)前記携帯端末は、第1の音声出力部を備え、
前記プロジェクションデバイスは、第2の音声出力部を備え、
前記第1および第2の音声出力部は、前記映像信号に対応する互いに異なる音声信号をそれぞれ出力する
前記(1)から(5)のいずれかに記載の投影システム。
(7)前記携帯端末、前記プロジェクションデバイスおよび前記クレードルを1組として、複数組を具備する前記(1)から(6)のいずれかに記載の投影システム。
(8)携帯端末の姿勢の変化を検知結果として受信する検知信号受信部と、
前記検知結果に基づいて自身の姿勢を変化させるための制御信号を生成する制御信号生成部と、
自身を支えるためのクレードルに前記制御信号を送信する制御信号送信部と
前記検知結果に基づく投影方向に映像信号を投影する投影部と
を具備するプロジェクションデバイス。
(9)携帯端末の姿勢の変化を検知結果として受信する検知信号受信部と、
前記検知結果に基づいて自身の姿勢を変化させるための制御信号を生成する制御信号生成部と、
前記自身の姿勢を変化させるモータと、
前記制御信号に従って前記モータを駆動するモータ駆動部と、
前記検知結果に基づく投影方向に映像信号を投影する投影部と
を具備するプロジェクションデバイス。
(10)携帯端末の姿勢の変化を検知結果として受信する検知信号受信部と、
前記プロジェクションデバイスの姿勢を変化させるモータと、
前記検知結果に基づいて前記モータを駆動するための制御信号を生成する制御信号生成部と、
前記制御信号に従って前記モータを駆動するモータ駆動部とを具備して、
前記プロジェクションデバイスを支えるクレードル。
100 携帯端末
110 プロセッサ
130 ジャイロセンサ
140 加速度センサ
170 音声出力部
180 近距離無線通信部
190 ネットワーク通信部
200 プロジェクションデバイス
210 プロセッサ
220 メモリ
230 メモリカードインターフェース
231 メモリカード
240 投影部
250 モータ駆動部
260 モータ
270 音声出力部
280 近距離無線通信部
290 ネットワーク通信部
300 クレードル
310 プロセッサ
350 モータ駆動部
360 モータ
380 近距離無線通信部
110 プロセッサ
130 ジャイロセンサ
140 加速度センサ
170 音声出力部
180 近距離無線通信部
190 ネットワーク通信部
200 プロジェクションデバイス
210 プロセッサ
220 メモリ
230 メモリカードインターフェース
231 メモリカード
240 投影部
250 モータ駆動部
260 モータ
270 音声出力部
280 近距離無線通信部
290 ネットワーク通信部
300 クレードル
310 プロセッサ
350 モータ駆動部
360 モータ
380 近距離無線通信部
Claims (10)
- 自身の姿勢の変化を検知する携帯端末と、
映像信号を再生して投影面に投影するプロジェクションデバイスと、
前記プロジェクションデバイスを支えるとともに前記携帯端末の検知結果に従って前記プロジェクションデバイスの姿勢を変化させるクレードルと
を具備する投影システム。 - 前記携帯端末は、加速度センサおよびジャイロセンサのうち少なくとも1つのセンサにより前記姿勢の変化を検知する請求項1記載の投影システム。
- 前記クレードルは、前記プロジェクションデバイスの姿勢を変化させるモータと、前記モータを駆動するモータ駆動部とを備え、
前記携帯端末、前記プロジェクションデバイスおよび前記クレードルの何れかは、前記携帯端末の姿勢の変化に基づいて前記モータを駆動するための制御信号を生成する制御信号生成部を備える
請求項2記載の投影システム。 - 前記携帯端末は、前記映像信号を前記プロジェクションデバイスに供給する
請求項1記載の投影システム。 - 前記プロジェクションデバイスは、前記映像信号を記憶する記憶部を備え、前記記憶部から前記映像信号を読み出して前記再生を行う
請求項1記載の投影システム。 - 前記携帯端末は、第1の音声出力部を備え、
前記プロジェクションデバイスは、第2の音声出力部を備え、
前記第1および第2の音声出力部は、前記映像信号に対応する互いに異なる音声信号をそれぞれ出力する
請求項1記載の投影システム。 - 前記携帯端末、前記プロジェクションデバイスおよび前記クレードルを1組として、複数組を具備する請求項1記載の投影システム。
- 携帯端末の姿勢の変化を検知結果として受信する検知信号受信部と、
前記検知結果に基づいて自身の姿勢を変化させるための制御信号を生成する制御信号生成部と、
自身を支えるためのクレードルに前記制御信号を送信する制御信号送信部と
前記検知結果に基づく投影方向に映像信号を投影する投影部と
を具備するプロジェクションデバイス。 - 携帯端末の姿勢の変化を検知結果として受信する検知信号受信部と、
前記検知結果に基づいて自身の姿勢を変化させるための制御信号を生成する制御信号生成部と、
前記自身の姿勢を変化させるモータと、
前記制御信号に従って前記モータを駆動するモータ駆動部と、
前記検知結果に基づく投影方向に映像信号を投影する投影部と
を具備するプロジェクションデバイス。 - 携帯端末の姿勢の変化を検知結果として受信する検知信号受信部と、
前記プロジェクションデバイスの姿勢を変化させるモータと、
前記検知結果に基づいて前記モータを駆動するための制御信号を生成する制御信号生成部と、
前記制御信号に従って前記モータを駆動するモータ駆動部とを具備して、
前記プロジェクションデバイスを支えるクレードル。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP17888109.0A EP3562148B1 (en) | 2016-12-26 | 2017-09-11 | Projection system, projection device, and cradle |
CN201780078503.2A CN110100432B (zh) | 2016-12-26 | 2017-09-11 | 投影系统、投影设备、及底座 |
US16/462,413 US10582145B2 (en) | 2016-12-26 | 2017-09-11 | Projection system, projection device, and cradle |
JP2018558810A JP7059940B2 (ja) | 2016-12-26 | 2017-09-11 | 投影システム、プロジェクションデバイスおよびクレードル |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016250602 | 2016-12-26 | ||
JP2016-250602 | 2016-12-26 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2018123152A1 true WO2018123152A1 (ja) | 2018-07-05 |
Family
ID=62707144
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2017/032714 WO2018123152A1 (ja) | 2016-12-26 | 2017-09-11 | 投影システム、プロジェクションデバイスおよびクレードル |
Country Status (5)
Country | Link |
---|---|
US (1) | US10582145B2 (ja) |
EP (1) | EP3562148B1 (ja) |
JP (1) | JP7059940B2 (ja) |
CN (1) | CN110100432B (ja) |
WO (1) | WO2018123152A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7043104B1 (ja) * | 2021-05-31 | 2022-03-29 | 株式会社N sketch | デバイス管理システム及びその管理方法、物品管理システム及びその管理方法、並びにデバイス及びその通信方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007101836A (ja) * | 2005-10-04 | 2007-04-19 | Seiko Epson Corp | プロジェクタ装置 |
JP2008072244A (ja) * | 2006-09-12 | 2008-03-27 | Sony Computer Entertainment Inc | 映像表示システム、映像表示装置、その制御方法及びプログラム |
JP2008288682A (ja) * | 2007-05-15 | 2008-11-27 | Nikon Corp | 載置台 |
JP2009182435A (ja) * | 2008-01-29 | 2009-08-13 | Seiko Epson Corp | 投影システム、リモコン、プロジェクタ、投影システムの操作方法およびプログラム |
JP2012138686A (ja) | 2010-12-24 | 2012-07-19 | Kyocera Corp | 携帯電子機器 |
JP2013146049A (ja) * | 2011-12-15 | 2013-07-25 | Sanyo Electric Co Ltd | 画像表示装置および携帯機器 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005309213A (ja) | 2004-04-23 | 2005-11-04 | Seiko Epson Corp | プロジェクタシステム |
JP2006042000A (ja) * | 2004-07-28 | 2006-02-09 | Sanyo Electric Co Ltd | デジタルカメラ用クレードルおよびデジタルカメラシステム |
CN201210221Y (zh) * | 2008-05-30 | 2009-03-18 | 北京恒基伟业投资发展有限公司 | 一种投影角度调节装置 |
CN101968631B (zh) * | 2009-07-27 | 2014-07-02 | 联想(北京)有限公司 | 便携终端的显示控制方法及便携终端 |
KR101657565B1 (ko) * | 2010-04-21 | 2016-09-19 | 엘지전자 주식회사 | 증강 원격제어장치 및 그 동작 방법 |
CN101815191A (zh) * | 2010-04-24 | 2010-08-25 | 中兴通讯股份有限公司 | 一种调整便携终端投影仪显示画面的方法、一种便携终端 |
US9134799B2 (en) * | 2010-07-16 | 2015-09-15 | Qualcomm Incorporated | Interacting with a projected user interface using orientation sensors |
KR101714050B1 (ko) * | 2010-11-01 | 2017-03-08 | 삼성전자주식회사 | 휴대단말기의 데이터 표시장치 및 방법 |
JP2012163796A (ja) * | 2011-02-08 | 2012-08-30 | Seiko Epson Corp | プロジェクターおよび認証方法 |
KR20120129664A (ko) * | 2011-05-20 | 2012-11-28 | 삼성전자주식회사 | 프로젝터 및 프로젝터 제어방법 |
KR20120134412A (ko) * | 2011-06-02 | 2012-12-12 | 삼성전자주식회사 | 디스플레이 장치, 디스플레이 시스템 및 그 영상 표시 방법 |
US8789953B2 (en) * | 2012-01-30 | 2014-07-29 | Yang Pan | Video delivery system using tablet computer and detachable micro projectors |
CN103366659B (zh) * | 2012-03-26 | 2016-07-06 | 联想(北京)有限公司 | 显示控制方法及相关设备 |
JP5849832B2 (ja) | 2012-03-30 | 2016-02-03 | 株式会社Jvcケンウッド | 投射装置 |
WO2013147068A1 (ja) * | 2012-03-30 | 2013-10-03 | 株式会社Jvcケンウッド | 投射装置 |
US9406280B2 (en) * | 2013-03-18 | 2016-08-02 | Seiko Epson Corporation | Image display device, image display system, and method of controlling image display device |
TWI502486B (zh) * | 2013-10-21 | 2015-10-01 | Acer Inc | 投影機、影像輸出裝置及其控制方法 |
JP6360296B2 (ja) * | 2013-12-10 | 2018-07-18 | キヤノン株式会社 | 画像送信装置、画像提示システム、制御方法、及びプログラム |
JP6387641B2 (ja) * | 2014-01-15 | 2018-09-12 | セイコーエプソン株式会社 | プロジェクター、表示装置、表示システムおよび表示装置の制御方法 |
TWI597658B (zh) * | 2014-03-10 | 2017-09-01 | 緯創資通股份有限公司 | 電子裝置、顯示系統及影像處理方法 |
CN103916697A (zh) * | 2014-04-04 | 2014-07-09 | 深圳市同洲电子股份有限公司 | 一种多应用显示的方法及相关智能终端 |
JP6386809B2 (ja) * | 2014-06-23 | 2018-09-05 | キヤノン株式会社 | 情報処理装置およびその制御方法、システム、並びにプログラム |
CN105163054A (zh) * | 2015-10-22 | 2015-12-16 | 高国华 | 一种兼容视频采集的无线超短焦投影仪系统及方法 |
-
2017
- 2017-09-11 JP JP2018558810A patent/JP7059940B2/ja active Active
- 2017-09-11 CN CN201780078503.2A patent/CN110100432B/zh active Active
- 2017-09-11 WO PCT/JP2017/032714 patent/WO2018123152A1/ja active Application Filing
- 2017-09-11 EP EP17888109.0A patent/EP3562148B1/en active Active
- 2017-09-11 US US16/462,413 patent/US10582145B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007101836A (ja) * | 2005-10-04 | 2007-04-19 | Seiko Epson Corp | プロジェクタ装置 |
JP2008072244A (ja) * | 2006-09-12 | 2008-03-27 | Sony Computer Entertainment Inc | 映像表示システム、映像表示装置、その制御方法及びプログラム |
JP2008288682A (ja) * | 2007-05-15 | 2008-11-27 | Nikon Corp | 載置台 |
JP2009182435A (ja) * | 2008-01-29 | 2009-08-13 | Seiko Epson Corp | 投影システム、リモコン、プロジェクタ、投影システムの操作方法およびプログラム |
JP2012138686A (ja) | 2010-12-24 | 2012-07-19 | Kyocera Corp | 携帯電子機器 |
JP2013146049A (ja) * | 2011-12-15 | 2013-07-25 | Sanyo Electric Co Ltd | 画像表示装置および携帯機器 |
Non-Patent Citations (1)
Title |
---|
See also references of EP3562148A4 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7043104B1 (ja) * | 2021-05-31 | 2022-03-29 | 株式会社N sketch | デバイス管理システム及びその管理方法、物品管理システム及びその管理方法、並びにデバイス及びその通信方法 |
CN115481768A (zh) * | 2021-05-31 | 2022-12-16 | 株式会社恩斯凯驰 | 设备管理系统及其管理方法、物品管理系统及其管理方法、以及设备及其通信方法 |
US11546891B2 (en) | 2021-05-31 | 2023-01-03 | N sketch Inc. | Device management system and its management method, device and communication method |
CN115481768B (zh) * | 2021-05-31 | 2023-06-02 | 株式会社恩斯凯驰 | 设备管理系统及其管理方法、物品管理系统及其管理方法、以及设备及其通信方法 |
Also Published As
Publication number | Publication date |
---|---|
EP3562148B1 (en) | 2023-05-31 |
CN110100432A (zh) | 2019-08-06 |
JPWO2018123152A1 (ja) | 2019-10-31 |
JP7059940B2 (ja) | 2022-04-26 |
EP3562148A4 (en) | 2020-04-22 |
CN110100432B (zh) | 2022-04-08 |
US10582145B2 (en) | 2020-03-03 |
US20190356879A1 (en) | 2019-11-21 |
EP3562148A1 (en) | 2019-10-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11697061B2 (en) | Systems and methods for reducing hops associated with a head mounted system | |
JP6484340B2 (ja) | ヘッドマウントディスプレイを用いた仮想または拡張現実シーン内のユーザ対話の方法及びシステム | |
KR102378669B1 (ko) | 감소된 홉을 이용해 두부 장착형 시스템 내에서 증강 가상 현실 장면을 생성하기 위한 시스템 및 방법 | |
US10864433B2 (en) | Using a portable device to interact with a virtual space | |
JP6001542B2 (ja) | 携帯デバイスによるインタラクティブアプリケーションのビデオキャプチャを可能とするためのシステム | |
CN103390287B (zh) | 用于增强现实的装置和方法 | |
JP2017111669A (ja) | 情報処理装置および操作受付方法 | |
JP6396070B2 (ja) | 画像融合システム、情報処理装置、情報端末、および情報処理方法 | |
CN1934584A (zh) | 显示控制方法及装置、程序以及便携设备 | |
JPWO2016136311A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2019004243A (ja) | 表示システム、表示装置、及び、表示システムの制御方法 | |
WO2018123152A1 (ja) | 投影システム、プロジェクションデバイスおよびクレードル | |
KR102195450B1 (ko) | 줌 장치 및 관련된 방법 | |
JP6530453B2 (ja) | ゲームプログラム及びゲームシステム | |
JP6603291B2 (ja) | ゲームプログラムおよびゲームシステム | |
WO2020054585A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
WO2023248832A1 (ja) | 遠隔視認システム、現地撮像システム | |
JP5377867B2 (ja) | プログラム、情報記憶媒体、およびゲームシステム | |
KR101570935B1 (ko) | 트레이밀 장치 | |
JP2020113314A (ja) | 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法 | |
KR20180096940A (ko) | 전자 장치 및 그 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17888109 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2018558810 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2017888109 Country of ref document: EP |