WO2017061488A1 - 制御装置、ヘッドマウントディスプレイ、制御システム、制御方法及びプログラム - Google Patents

制御装置、ヘッドマウントディスプレイ、制御システム、制御方法及びプログラム Download PDF

Info

Publication number
WO2017061488A1
WO2017061488A1 PCT/JP2016/079662 JP2016079662W WO2017061488A1 WO 2017061488 A1 WO2017061488 A1 WO 2017061488A1 JP 2016079662 W JP2016079662 W JP 2016079662W WO 2017061488 A1 WO2017061488 A1 WO 2017061488A1
Authority
WO
WIPO (PCT)
Prior art keywords
light emitting
luminance
emitting unit
image
unit
Prior art date
Application number
PCT/JP2016/079662
Other languages
English (en)
French (fr)
Inventor
武司 明見
Original Assignee
株式会社ソニー・インタラクティブエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソニー・インタラクティブエンタテインメント filed Critical 株式会社ソニー・インタラクティブエンタテインメント
Priority to EP16853642.3A priority Critical patent/EP3343906B1/en
Priority to US15/761,970 priority patent/US10368007B2/en
Priority to CN201680057688.4A priority patent/CN108141558B/zh
Priority to JP2017544536A priority patent/JP6517358B2/ja
Publication of WO2017061488A1 publication Critical patent/WO2017061488A1/ja
Priority to US16/410,561 priority patent/US10488654B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Definitions

  • the present invention relates to a control device, a head mounted display, a control system, a control method, and a program.
  • HMD head-mounted display
  • Some HMDs include a plurality of light emitting units that emit light at a luminance corresponding to a driving current, such as LEDs, and the posture of the HMD can be specified based on images obtained by photographing the plurality of light emitting units with a camera. is there.
  • the attitude of the HMD When specifying the attitude of the HMD on the basis of an image obtained by photographing the light emitting part with a camera, if the luminance of the light emitting part is low, the accuracy of specifying the attitude of the HMD is lowered. On the other hand, since the power consumption of the light emitting unit increases as the luminance of the light emitting unit increases, it is desirable that the luminance of the light emitting unit is as small as possible. For example, when the environment around the HMD is bright, the luminance of the light emitting unit may have to be increased in order to specify the attitude of the HMD.
  • the relationship between the driving current and the luminance of the light emitting unit depends on the characteristics of the element, the length of use time, the ambient temperature during use, and the luminance of the light emitting unit depends on the magnitude of the driving current. It is not determined uniquely.
  • the present invention has been made in view of the above circumstances, and one of its purposes is a device for measuring the luminance of a light emitting unit in a head mounted display having a light emitting unit for specifying a posture.
  • the object is to make it possible to control the luminance of the light emitting part without providing it separately.
  • control device configured to control the light emitting unit based on a posture identifying image including an image of a light emitting unit that emits light with a luminance corresponding to a driving current.
  • An orientation identifying unit that identifies the orientation of the head mounted display, and an image for identifying the brightness including an image of the light emitting unit that is captured by the camera that captures the image for identifying the orientation.
  • a luminance information specifying unit that specifies information indicating luminance; and a drive current control unit that controls the driving current of the light emitting unit based on the specified information indicating the luminance of the light emitting unit.
  • the luminance information specifying unit specifies information indicating the luminance of the light emitting unit based on a region occupied by the light emitting unit in an image for specifying luminance including an image of the light emitting unit.
  • the posture specifying image and the luminance specifying image are the same image.
  • the apparatus further includes a target value determining unit that determines a target value of the information indicating the luminance based on brightness of the environment, and the driving current control unit includes the target value of the information indicating the luminance.
  • the drive current of the light emitting unit is controlled according to the above.
  • the luminance information specifying unit notifies the fact that information indicating the luminance of the light emitting unit cannot be specified.
  • the head-mounted display includes a plurality of the light emitting units, and the luminance information specifying unit has information indicating luminance when information indicating luminance of any of the plurality of light emitting units cannot be specified. You may perform notification according to the said light emission part which cannot be specified.
  • the head mounted display includes an attitude specifying unit that specifies an attitude of the head mounted display based on an image for specifying an attitude including an image of the light emitting unit, which is captured by a camera, and the attitude specifying
  • a luminance information specifying unit that specifies information indicating luminance of the light emitting unit based on an image for specifying luminance including the image of the light emitting unit, which is captured by the camera that captures the image of the image, and the specified light emitting unit
  • a driving current control unit that controls the driving current of the light emitting unit based on information indicating the luminance of the light emitting unit.
  • control system provides a posture of the head mounted display including the light emitting unit based on an image for posture identification including an image of the light emitting unit that emits light with luminance corresponding to the driving current.
  • a drive current control unit that controls a drive current of the light emitting unit based on information indicating the luminance of the specified light emitting unit.
  • control method includes a posture of a head mounted display including the light emitting unit based on an image for posture identification including an image of a light emitting unit that emits light with luminance corresponding to a driving current. And specifying information indicating the luminance of the light emitting unit based on an image for specifying the luminance including the image of the light emitting unit, which is captured by the camera that captures the image for specifying the posture. And controlling the drive current of the light emitting unit based on the information indicating the luminance of the specified light emitting unit.
  • the program according to the present invention sets the posture of the head mounted display including the light emitting unit based on an image for posture identification including an image of the light emitting unit that is photographed by the camera and emits light with luminance according to the drive current.
  • a procedure for specifying a procedure for specifying information indicating luminance of the light emitting unit based on an image for specifying luminance including an image of the light emitting unit taken by the camera that captures the image for specifying the posture
  • the computer executes a procedure for controlling the drive current of the light emitting unit.
  • FIG. 1 is a diagram showing an example of the overall configuration of a video display system 10 according to an embodiment of the present invention.
  • FIG. 2A is a diagram illustrating an example of the configuration of the head mounted display (HMD) 12 according to the present embodiment.
  • FIG. 2B is a diagram illustrating an example of the configuration of the entertainment apparatus 14 according to the present embodiment.
  • HMD head mounted display
  • the video display system 10 includes an HMD 12, an entertainment device 14, a relay device 16, a display 18, a camera microphone unit 20, and a controller 22.
  • the HMD 12 includes a control unit 30, a storage unit 31, an input / output unit 32, a display unit 33, a drive circuit 34, a plurality of light emitting units 35, a sensor unit 36, and an audio output.
  • Part 37 is included.
  • the control unit 30 is a program control device such as a microprocessor that operates according to a program installed in the HMD 12, for example.
  • the storage unit 31 is a storage element such as a ROM or a RAM, for example.
  • the storage unit 31 stores a program executed by the control unit 30.
  • the input / output unit 32 is an input / output port such as an HDMI (registered trademark) (High-Definition Multimedia Interface) port, a USB port, an AUX port, or the like.
  • HDMI registered trademark
  • AUX AUX port
  • the display unit 33 is a display such as a liquid crystal display or an organic EL display disposed on the front side of the HMD 12 and displays a video generated by the entertainment device 14.
  • the display unit 33 is housed in the housing 38 of the HMD 12.
  • the display unit 33 may receive a video signal output from the entertainment device 14 and relayed by the relay device 16 and output a video represented by the video signal.
  • the display unit 33 according to the present embodiment can display a three-dimensional image by displaying a left-eye image and a right-eye image, for example. Note that the display unit 33 may not be able to display a three-dimensional image but only a two-dimensional image.
  • the drive circuit 34 is a circuit such as an LED driver for driving a plurality of light emitting units 35, for example.
  • the light emitting unit 35 is composed of a light emitting element such as an LED, and emits light with a luminance corresponding to the drive current output from the drive circuit 34.
  • the HMD 12 according to the present embodiment includes a plurality of light emitting units 35.
  • One of the plurality of light emitting units 35 is disposed in the center of the front surface of the housing 38.
  • light emitting portions 35 are also arranged at each of the four corners of the front surface so as to hang over the front surface and the side surface of the housing 38.
  • Each of the four light emitting units 35 is disposed obliquely with respect to the front surface of the housing 38 so as to face the outside of the outer edge of the front surface of the housing 38.
  • a light emitting unit 35 is also disposed on each of the left and right side surfaces of the housing 38. Two light emitting portions 35 are also disposed on the mounting band 39 that supports the housing 38. As described above, the HMD 12 according to the present embodiment includes nine light emitting units 35. The light emitting unit 35 according to the present embodiment emits blue light.
  • the sensor unit 36 is a sensor such as an acceleration sensor or a motion sensor.
  • the sensor unit 36 outputs measurement results such as the rotation amount and movement amount of the HMD 12 to the control unit 30 at a predetermined frame rate.
  • the sound output unit 37 is, for example, a headphone or a speaker, and outputs sound represented by sound data generated by the entertainment device 14.
  • the audio output unit 37 receives an audio signal output from the entertainment device 14 and relayed by the relay device 16, for example, and outputs the audio represented by the audio signal.
  • the entertainment device 14 is a computer such as a game console, a DVD player, a Blu-ray (registered trademark) player, or the like.
  • the entertainment device 14 according to the present embodiment generates video and audio by, for example, executing a stored game program or reproducing content recorded on an optical disc. Then, the entertainment device 14 according to the present embodiment outputs a video signal representing the generated video and an audio signal representing the generated audio to the HMD 12 and the display 18 via the relay device 16.
  • the entertainment device 14 includes a control unit 40, a storage unit 41, a communication unit 42, and an input / output unit 43, for example, as shown in FIG. 2B.
  • the control unit 40 is a program control device such as a CPU that operates according to a program installed in the entertainment device 14, for example.
  • the control unit 40 according to the present embodiment also includes a GPU (Graphics Processing Unit) that draws an image in a frame buffer based on graphics commands and data supplied from the CPU.
  • GPU Graphics Processing Unit
  • the storage unit 41 is, for example, a storage element such as a ROM or a RAM, a hard disk drive, or the like.
  • the storage unit 41 stores a program executed by the control unit 40.
  • a frame buffer area in which an image is rendered by the GPU is secured.
  • the communication unit 42 is, for example, a communication interface such as an Ethernet (registered trademark) module or a wireless LAN module.
  • the input / output unit 43 is an input / output port such as an HDMI (registered trademark) (High-Definition Multimedia Interface) port or a USB port.
  • HDMI registered trademark
  • High-Definition Multimedia Interface High-Definition Multimedia Interface
  • the relay device 16 is a computer that relays video signals and audio signals output from the entertainment device 14 and outputs them to the HMD 12 and the display 18.
  • the display 18 is, for example, a liquid crystal display, and displays a video or the like represented by a video signal output from the entertainment device 14.
  • the camera microphone unit 20 includes, for example, a camera 20a that outputs an image obtained by imaging a subject to the entertainment device 14, and a microphone that acquires surrounding audio, converts the audio to audio data, and outputs the audio data to the entertainment device 14. 20b is included.
  • the camera 20a according to this embodiment is a stereo camera.
  • the HMD 12 and the relay device 16 are connected via, for example, an HDMI cable or a USB cable.
  • the entertainment device 14 and the relay device 16 are connected via, for example, an HDMI cable or a USB cable.
  • the relay device 16 and the display 18 are connected via, for example, an HDMI cable.
  • the entertainment apparatus 14 and the camera microphone unit 20 are connected via, for example, an AUX cable.
  • the controller 22 is an operation input device for performing operation input to the entertainment device 14.
  • the user can perform various operation inputs using the controller 22 by pressing a direction key or button provided in the controller 22 or tilting an operation stick.
  • the controller 22 outputs input data associated with the operation input to the entertainment device 14.
  • the controller 22 according to the present embodiment includes a USB port. And the controller 22 can output input data to the entertainment apparatus 14 with a wire by connecting with the entertainment apparatus 14 with a USB cable.
  • the controller 22 according to the present embodiment includes a wireless communication module and the like, and can output input data to the entertainment apparatus 14 wirelessly.
  • FIG. 3 is a diagram illustrating an example of a captured image 50 that is an image captured by the camera 20a.
  • the captured image 50 shown in FIG. 3 includes images of the light emitting unit 35 arranged at the right side of the housing 38, the front center, the upper left corner of the front when viewed from the front, and the upper right corner of the front when viewed from the front. include.
  • the attitude of the HMD 12 such as the position and orientation of the HMD 12 is specified based on the position of the image of the light emitting unit 35 in the captured image 50 illustrated in FIG.
  • the attitude of the HMD 12 may be specified based on the position of the image of the light emitting unit 35 in the captured image 50 and the detection result of the movement amount and the rotation amount by the sensor unit 36.
  • the video displayed on the display unit 33 and the objects displayed on the display unit 33 are controlled according to the posture of the HMD 12 specified in this way.
  • the captured image 50 includes any image of the light emitting unit 35 regardless of the direction the user is facing. There is a high possibility that.
  • the luminance of the light emitting unit 35 is preferably small. For the above reason, it is desirable that the luminance of the light emitting unit 35 provided in the HMD 12 according to the present embodiment is within a predetermined range.
  • the luminance of the light emitting unit 35 including the image in the captured image 50 is also specified based on the captured image 50 for specifying the posture of the HMD 12. Then, the drive current for driving the light emitting unit 35 is controlled so that the luminance of the light emitting unit 35 falls within a predetermined range. In this way, in the video display system 10 according to the present embodiment, the luminance of the light emitting unit 35 falls within a predetermined range.
  • a light emitting portion extraction image 52 illustrated in FIG. 4 may be generated by extracting an area occupied by the light emitting portion 35 in the captured image 50. For example, by performing image processing that extracts, for example, pixels that satisfy a predetermined condition, for example, pixels in which a blue pixel value is in a predetermined range, from the captured image 50, a light-emitting portion extraction image 52 illustrated in FIG. You may be made to do. Based on the area occupied by the light emitting unit 35 in the light emitting unit extracted image 52 generated in this way, the orientation of the HMD 12 is specified, and the luminance of the light emitting unit 35 including the image in the light emitting unit extracted image 52 is determined. Identification may be performed.
  • the photographed image 50 shown in FIG. 3 and the light emitting part extracted image 52 shown in FIG. 4 include a plurality of images of the light emitting part 35.
  • this embodiment by using a known pattern recognition technique, it is possible to specify at which position the image of each light emitting unit 35 is the image of the light emitting unit 35 arranged.
  • the HMD 12 according to the present embodiment can be turned on or off individually for each of the plurality of light emitting units 35. Therefore, the position of the specific light emitting unit 35 can be specified by causing only the specific light emitting unit 35 to emit light. In this way, it may be specified at which position the image of the light emitting unit 35 is arranged with respect to each of the images of the plurality of light emitting units 35.
  • 5 and 6 are explanatory diagrams for explaining an example of adjustment of the luminance of the light emitting unit 35 in the embodiment of the present invention.
  • 5 and 6 show a target luminance Lt that is a target luminance.
  • the target luminance Lt may be a predetermined luminance or a luminance determined based on the brightness around the HMD 12 or the distance from the camera 20a.
  • the luminance L of the four light emitting units 35 whose images are included in the captured image 50 shown in FIG. 3 is indicated by cross marks.
  • the luminance L of the light emitting unit 35 when the HMD 12 is shipped, the luminance L of the light emitting unit 35 is set high as shown in FIG. In this case, by controlling the drive current of these four light emitting units 35, the luminance of the light emitting unit 35 is controlled to fall within a predetermined range centered on the target luminance Lt. In the present embodiment, for example, if the difference threshold between the target luminance Lt and the luminance L is ⁇ L, the luminance of the light emitting unit 35 is controlled to be Lt + ⁇ L or smaller than Lt + ⁇ L. By doing in this way, according to this embodiment, the power consumption of the light emission part 35 can be suppressed.
  • the luminance of the light emitting unit 35 is controlled to fall within a predetermined range centered on the target luminance Lt.
  • the luminance of the light emitting unit 35 is controlled to be Lt ⁇ L or larger than Lt ⁇ t. In this manner, according to the present embodiment, the luminance of the light emitting unit 35 can be controlled to be equal to or higher than the minimum luminance that can identify the attitude of the HMD 12 based on the captured image 50, for example.
  • the captured image 50 for specifying the posture of the HMD 12 is also used for specifying the luminance of the light emitting unit 35, so that a device for measuring the luminance of the light emitting unit 35 is not provided separately.
  • the luminance of the light emitting unit 35 can be controlled.
  • the posture specifying image for specifying the posture of the HMD 12 and the luminance specifying image for specifying the luminance of the light emitting unit 35 are the same image, but the posture specifying image and the luminance are the same.
  • the specific image may be a different image.
  • an image for specifying the posture and an image for specifying the luminance may be alternately captured by the camera 20a.
  • the function of the entertainment apparatus 14 according to the present embodiment and the processing executed by the entertainment apparatus 14 according to the present embodiment will be further described with a focus on the control of the luminance of the light emitting unit 35.
  • FIG. 7 is a functional block diagram showing an example of functions implemented by the entertainment device 14 according to the present embodiment. Note that the entertainment apparatus 14 according to this embodiment does not have to include all of the functions shown in FIG. 7, and may have functions other than the functions shown in FIG.
  • the entertainment device 14 functionally includes, for example, a captured image acquisition unit 60, a posture specifying unit 62, a luminance information specifying unit 64, and a drive current control unit 66. .
  • the captured image acquisition unit 60, the posture specifying unit 62, and the drive current control unit 66 are mainly implemented by the control unit 40 and the input / output unit 43.
  • the luminance information specifying unit 64 is mainly implemented by the control unit 40.
  • the entertainment device 14 according to the present embodiment plays a role as a control device that controls the luminance of the light emitting unit 35.
  • the above functions are implemented by causing the control unit 40 to execute a program that is installed in the entertainment device 14 that is a computer and that includes instructions corresponding to the above functions.
  • This program is supplied to the entertainment apparatus 14 via a computer-readable information storage medium such as an optical disk, a magnetic disk, a magnetic tape, a magneto-optical disk, or a flash memory, or via the Internet.
  • the captured image acquisition unit 60 acquires the captured image 50 captured by the camera 20a.
  • the posture identifying unit 62 identifies the posture of the HMD 12 based on the captured image 50 captured by the camera 20a.
  • the posture specifying unit 62 may receive data indicating the detection result of the movement amount and the rotation amount by the sensor unit 36 from the HMD 12 and specify the posture of the HMD 12 based on the received data and the captured image 50.
  • the luminance information specifying unit 64 specifies information indicating the luminance of the light emitting unit 35 based on the captured image 50 including the image of the light emitting unit 35 taken by the camera 20a.
  • the luminance information specifying unit 64 specifies the luminance of the light emitting unit 35 in which an image is included in the captured image 50 acquired by the captured image acquisition unit 60.
  • the luminance information specifying unit 64 acquires information indicating the luminance specified by the camera 20a from the camera 20a. May be. Then, the luminance information specifying unit 64 may specify the luminance of the light emitting unit 35 based on information indicating the luminance acquired from the camera 20a.
  • the luminance information specifying unit 64 may specify the luminance of the light emitting unit 35 based on the area occupied by the light emitting unit 35 in the captured image 50.
  • the luminance information specifying unit 64 may specify the luminance of the light emitting unit 35 based on the pixels in the region extracted as the region occupied by the light emitting unit 35 in the light emitting unit extracted image 52.
  • the luminance information specifying unit 64 may specify the luminance of the light emitting unit 35 based on the comparison result between each of the plurality of reference images and the captured image 50 acquired by the captured image acquisition unit 60. Specifically, for example, a reference image most similar to the captured image 50 may be specified, and the luminance associated with the reference image may be specified as the luminance of the light emitting unit 35.
  • the drive current control unit 66 controls the drive current of the light emitting unit 35 based on the specified luminance of the light emitting unit 35. In the present embodiment, for example, when the luminance L of the light emitting unit 35 specified by the luminance information specifying unit 64 is smaller than Lt ⁇ L, the drive current control unit 66 increases the drive current of the light emitting unit 35. On the other hand, when the luminance L of the light emitting unit 35 specified by the luminance information specifying unit 64 is larger than Lt + ⁇ L, the drive current control unit 66 decreases the drive current of the light emitting unit 35. In the present embodiment, for example, the drive current control unit 66 transmits data indicating the value of the drive current to the HMD 12.
  • control part 30 of HMD12 controls the drive circuit 34 so that it may become the value of the drive current which the data received from the entertainment apparatus 14 show.
  • the drive current control unit 66 may transmit data indicating an increase or decrease in the drive current to the HMD 12.
  • the control unit 30 of the HMD 12 may control the drive circuit 34 so that the value of the drive current corresponds to the increase amount or the decrease amount indicated by the data received from the entertainment device 14.
  • the brightness control process shown in FIG. 8 is repeatedly executed.
  • the brightness control process may be repeatedly executed at the shooting interval of the captured image 50 for specifying the brightness, for example.
  • the luminance control process shown in FIG. May be executed.
  • the captured image 50 is captured by the camera 20a at 1/60 second intervals and the captured image 50 for specifying the posture and the captured image 50 for specifying the brightness are alternately captured, FIG.
  • the luminance control process shown may be executed at 1/30 second intervals.
  • the captured image acquisition unit 60 acquires the captured image 50 (S101). Then, the luminance information specifying unit 64 specifies the luminance L of the light emitting unit 35 disposed in the center of the front surface of the housing 38 based on the captured image 50 acquired in the process shown in S101 (S102). In the process shown in S102, as described above, the luminance information specifying unit 64 specifies the luminance L of the light emitting unit 35 based on the pixels in the area occupied by the light emitting unit 35 in the captured image 50 acquired in the process shown in S101. May be.
  • the luminance information specifying unit 64 generates the light emitting unit extracted image 52 based on the captured image 50 acquired in the process shown in S101, and the light emitting unit is based on the pixels in the region occupied by the light emitting unit 35 in the light emitting unit extracted image 52.
  • a luminance L of 35 may be specified.
  • the drive current control part 66 confirms whether the brightness
  • the luminance L of the light emitting unit 35 may not be specified, for example, when the captured image 50 does not include the image of the light emitting unit 35 disposed at the front center of the housing 38. . If the brightness L cannot be specified in the process shown in S102 (S103: N), the process returns to S101. In this case, the luminance L of the light emitting unit 35 disposed in the center of the front surface of the housing 38 does not change in the frame.
  • the drive current control unit 66 checks whether the brightness L specified in the process shown in S102 is greater than Lt + ⁇ L (S104). When the luminance L specified in the process shown in S102 is larger than Lt + ⁇ L (S104: Y), the drive current control unit 66 reduces the drive current i of the light emitting unit 35 disposed in the front center of the housing 38 by ⁇ i. (S105), and the process returns to S101.
  • ⁇ i is, for example, 1 mA.
  • the drive current control unit 66 determines whether the luminance L specified in the process shown in S102 is smaller than Lt ⁇ L. Confirm (S106). When the luminance L specified in the process shown in S102 is smaller than Lt ⁇ L (S106: Y), the drive current control unit 66 sets the drive current i of the light emitting unit 35 disposed at the front center of the housing 38 to ⁇ i. (S107), and the process returns to S101.
  • ⁇ i described above may be a value smaller than 1 mA, for example, 0.1 mA. As the value of ⁇ i is smaller, the luminance of the light emitting unit 35 can be finely controlled, while the luminance that can be changed at the execution interval of the process shown in FIG.
  • FIG. 8 shows an example of the flow of the luminance control process for the light emitting unit 35 disposed in the center of the front surface of the housing 38.
  • the luminance control process is performed for each of the plurality of light emitting units 35 provided in the HMD 12. Performed independently.
  • the brightness control processing shown in FIG. 8 may be executed in parallel, or may be executed sequentially for each of the plurality of light emitting units 35.
  • the luminance of the light emitting unit 35 is controlled to approach a predetermined range centered on the target luminance Lt. Become.
  • the luminance information specifying unit 64 may specify the brightness of the environment, for example, the brightness of the space around the HMD 12 based on the captured image 50 acquired in the process shown in S101. Then, the luminance information specifying unit 64 may determine a target value of information indicating the luminance of the light emitting unit 35 such as the target luminance Lt based on the brightness of the specified environment.
  • the target luminance Lt may be determined so as to increase as the brightness of the specified environment becomes brighter.
  • the brightness of an environment may be specified based on the measurement result by the said brightness sensor.
  • the drive current control part 66 may control the drive current of the said light emission part 35 according to the target value of the information which shows the brightness
  • the luminance information specifying unit 64 may determine the target luminance Lt based on the distance from the camera 20a to the light emitting unit 35.
  • the target luminance Lt may be determined so as to increase as the distance from the camera 20a to the light emitting unit 35 increases.
  • the luminance of the light emitting unit 35 can be controlled to be a luminance according to the distance from the camera 20a. Specifically, for example, the longer the distance from the camera 20a, the higher the luminance of the light emitting unit 35 can be controlled.
  • the luminance information specifying unit 64 may also serve as a target value determining unit that determines the target luminance Lt based on the brightness of the environment and the distance from the camera 20a.
  • the luminance information specifying unit 64 may determine the target luminance Lt based on the combination of the brightness of the environment and the distance from the camera 20a. Then, the target brightness Lt determined as described above may be used in the process shown in S104 and the process shown in S106.
  • the drive current control unit 66 when the drive current i is increased by ⁇ i and exceeds a predetermined maximum current (for example, 30 mA), the drive current control unit 66 does not have to increase the drive current i in the process shown in S107. In this case, the drive current control unit 66 may output a message. For example, the drive current control unit 66 may transmit a command to display and output a message on the display unit 33 to the HMD 12, and the HMD 12 may display and output the message on the display unit 33. Alternatively, the drive current control unit 66 may control the HMD 12 to output a predetermined sound from the sound output unit 37 by transmitting a command for outputting the predetermined sound to the HMD 12. In this way, for example, the user can recognize that the luminance does not fall within the predetermined range even when a predetermined maximum current is supplied to the light emitting unit 35 due to the end of the lifetime.
  • a predetermined maximum current for example, 30 mA
  • the luminance information specifying unit 64 may specify the light emitting unit 35 having the lowest luminance.
  • the drive current control part 66 may control the drive current of the other light emission part 35 so that the said brightness
  • the 8 may be performed, for example, during a game play, that is, during a period in which a moving image generated by the entertainment device 14 executing the game program is displayed on the display unit 33. It may be performed before game play is started.
  • the luminance information specifying unit 64 may notify that when the luminance of the light emitting unit 35 cannot be specified in the process shown in S102 described above. Further, the luminance information specifying unit 64 may perform notification according to the light emitting unit 35 whose luminance cannot be specified when any one of the plurality of light emitting units 35 cannot be specified. For example, when there is a light emitting unit 35 for which the luminance L cannot be specified in the luminance control processing performed before the game play is started, the luminance information specifying unit 64 captures the light emitting unit 35 with the camera 20a. A notification that prompts the user to rotate the head may be output.
  • the luminance information specifying unit 64 when the image of the light emitting unit 35 arranged at the upper right corner of the front side when viewed from the front is not included in the captured image 50, the luminance information specifying unit 64 outputs a message “Please turn right”. A command to be sent may be transmitted to the HMD 12. Then, the HMD 12 that has received the command may cause the display unit 33 to display and output the message. Alternatively, in the above-described case, the luminance information specifying unit 64 may transmit a command to the HMD 12 to output a voice message “Please turn right”. Then, the HMD 12 that has received the command may be controlled to output the message from the voice output unit 37.
  • the light emitting unit 35 emits visible light (for example, blue light). However, the light emitting unit 35 may emit light other than visible light, for example, infrared light. Further, the camera 20a may be a camera capable of photographing infrared rays.
  • the drive current control unit 66 may turn off the light emitting unit 35.
  • the luminance information specifying unit 64 may specify information indicating luminance, for example, information such as a color, a pixel value, and an area of the light emitting unit 35, instead of the luminance of the light emitting unit 35.
  • the drive current control unit 66 may control the drive current of the light emitting unit 35 based on information such as the specified color, pixel value, area, etc. of the light emitting unit 35.
  • the division of roles of the HMD 12, the entertainment device 14, and the relay device 16 is not limited to the above.
  • part or all of the functions illustrated in FIG. 7 may be implemented by the HMD 12 or the relay device 16.
  • the functions illustrated in FIG. 7 may be distributed and implemented in the HMD 12, the entertainment device 14, or the relay device 16 configuring the video display system 10.
  • the function shown in FIG. 7 may be implemented by executing a program including instructions corresponding to the above functions installed in the computer HMD 12 by the control unit 30. Further, this program may be supplied to the HMD 12 via a computer-readable information storage medium such as an optical disk, a magnetic disk, a magnetic tape, a magneto-optical disk, or a flash memory, or via the Internet.
  • a computer-readable information storage medium such as an optical disk, a magnetic disk, a magnetic tape, a magneto-optical disk, or a flash memory, or via the Internet.
  • the control unit 30 may be implemented by causing the control unit 30 to execute a program that includes a part of the functions illustrated in FIG.
  • the program may be supplied to the HMD 12 via a computer-readable information storage medium such as an optical disk, a magnetic disk, a magnetic tape, a magneto-optical disk, or a flash memory, or via the Internet.
  • 7 may be implemented by causing the control unit 40 to execute a program including a command corresponding to the remaining function in the entertainment device 14 in which the remaining function illustrated in FIG. 7 is a computer.
  • the program may be supplied to the entertainment device 14 via a computer-readable information storage medium such as an optical disk, a magnetic disk, a magnetic tape, a magneto-optical disk, or a flash memory, or via the Internet.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

姿勢を特定するための発光部を備えているヘッドマウントディスプレイにおいて、発光部の輝度を測定するための機器を別途設けることなく発光部の輝度を制御できるようにする。姿勢特定部(62)は、カメラが撮影する、駆動電流に応じた輝度で発光する発光部の像を含む、姿勢特定用の画像に基づいて、発光部を備えるHMDの姿勢を特定する。輝度情報特定部(64)は、姿勢特定用の画像を撮影するカメラが撮影する、発光部の像を含む、輝度特定用の画像に基づいて、発光部の輝度を示す情報を特定する。駆動電流制御部(66)は、特定される発光部の輝度を示す情報に基づいて、発光部の駆動電流を制御する。

Description

制御装置、ヘッドマウントディスプレイ、制御システム、制御方法及びプログラム
 本発明は、制御装置、ヘッドマウントディスプレイ、制御システム、制御方法及びプログラムに関する。
 例えば特許文献1~3に記載されているような、ユーザが頭部に装着して映像を観賞等するためのヘッドマウントディスプレイ(HMD)が知られている。HMDのなかには、LEDなどといった駆動電流に応じた輝度で発光する発光部を複数備えており、当該複数の発光部をカメラで撮影した画像に基づいて、HMDの姿勢を特定することができるものがある。
特開2004-205711号公報 特開2012-2889号公報 特開2013-210588号公報
 発光部をカメラで撮影した画像に基づいてHMDの姿勢を特定するにあたって、発光部の輝度が小さいとHMDの姿勢の特定精度が低下する。一方で発光部の輝度が大きいほど発光部の消費電力が大きいので、発光部の輝度はなるべく小さい方が望ましい。また例えばHMDの周辺の環境が明るい場合には、HMDの姿勢を特定するために発光部の輝度を大きくしなければならない場合がある。
 ここで発光部の駆動電流と輝度との関係は、素子の特性、使用時間の長さ、使用されている際の周囲の温度などに依存するので、駆動電流の大きさによって発光部の輝度は一意に定まらない。
 そのため発光部の輝度がある程度の大きさに保たれるようにするためには、発光部の輝度の測定結果に基づく当該発光部に流れる駆動電流の制御を行う必要がある。しかし従来はこのような制御を行うために輝度を測定するための機器を別途設ける必要があった。
 本発明は上記実情に鑑みてなされたものであって、その目的の一つは、姿勢を特定するための発光部を備えているヘッドマウントディスプレイにおいて、発光部の輝度を測定するための機器を別途設けることなく発光部の輝度を制御できるようにすることにある。
 上記課題を解決するために、本発明に係る制御装置は、カメラが撮影する、駆動電流に応じた輝度で発光する発光部の像を含む、姿勢特定用の画像に基づいて、前記発光部を備えるヘッドマウントディスプレイの姿勢を特定する姿勢特定部と、前記姿勢特定用の画像を撮影する前記カメラが撮影する、前記発光部の像を含む、輝度特定用の画像に基づいて、前記発光部の輝度を示す情報を特定する輝度情報特定部と、特定される前記発光部の輝度を示す情報に基づいて、前記発光部の駆動電流を制御する駆動電流制御部と、を含む。
 本発明の一態様では、前記輝度情報特定部は、前記発光部の像を含む輝度特定用の画像内における当該発光部が占める領域に基づいて、当該発光部の輝度を示す情報を特定する。
 また本発明の一態様では、前記姿勢特定用の画像と前記輝度特定用の画像は同一の画像である。
 また本発明の一態様では、環境の明るさに基づいて前記輝度を示す情報の目標値を決定する目標値決定部、をさらに含み、前記駆動電流制御部は、前記輝度を示す情報の目標値に応じた前記発光部の駆動電流の制御を行う。
 また本発明の一態様では、前記輝度情報特定部は、前記発光部の輝度を示す情報を特定不能である場合にその旨を通知する。
 この態様では、前記ヘッドマウントディスプレイが、前記発光部を複数含み、前記輝度情報特定部は、前記複数の発光部のいずれかの輝度を示す情報が特定不能である場合に、輝度を示す情報が特定不能である前記発光部に応じた通知を行ってもよい。
 また、本発明に係るヘッドマウントディスプレイは、カメラが撮影する、前記発光部の像を含む姿勢特定用の画像に基づいて、前記ヘッドマウントディスプレイの姿勢を特定する姿勢特定部と、前記姿勢特定用の画像を撮影する前記カメラが撮影する、前記発光部の像を含む輝度特定用の画像に基づいて、当該発光部の輝度を示す情報を特定する輝度情報特定部と、特定される前記発光部の輝度を示す情報に基づいて、前記発光部の駆動電流を制御する駆動電流制御部と、を含む。
 また、本発明に係る制御システムは、カメラが撮影する、駆動電流に応じた輝度で発光する発光部の像を含む、姿勢特定用の画像に基づいて、前記発光部を備えるヘッドマウントディスプレイの姿勢を特定する姿勢特定部と、前記姿勢特定用の画像を撮影する前記カメラが撮影する、前記発光部の像を含む、輝度特定用の画像に基づいて、前記発光部の輝度を示す情報を特定する輝度情報特定部と、特定される前記発光部の輝度を示す情報に基づいて、前記発光部の駆動電流を制御する駆動電流制御部と、を含む。
 また、本発明に係る制御方法は、カメラが撮影する、駆動電流に応じた輝度で発光する発光部の像を含む、姿勢特定用の画像に基づいて、前記発光部を備えるヘッドマウントディスプレイの姿勢を特定するステップと、前記姿勢特定用の画像を撮影する前記カメラが撮影する、前記発光部の像を含む、輝度特定用の画像に基づいて、前記発光部の輝度を示す情報を特定するステップと、特定される前記発光部の輝度を示す情報に基づいて、前記発光部の駆動電流を制御するステップと、を含む。
 また、本発明に係るプログラムは、カメラが撮影する、駆動電流に応じた輝度で発光する発光部の像を含む、姿勢特定用の画像に基づいて、前記発光部を備えるヘッドマウントディスプレイの姿勢を特定する手順、前記姿勢特定用の画像を撮影する前記カメラが撮影する、前記発光部の像を含む、輝度特定用の画像に基づいて、前記発光部の輝度を示す情報特定する手順、特定される前記発光部の輝度を示す情報に基づいて、前記発光部の駆動電流を制御する手順、をコンピュータに実行させる。
本発明の一実施形態に係る映像表示システムの全体構成の一例を示す図である。 本発明の一実施形態に係るヘッドマウントディスプレイの構成の一例を示す図である。 本発明の一実施形態に係るエンタテインメント装置の構成の一例を示す図である。 撮影画像の一例を示す図である。 発光部抽出画像の一例を示す図である。 本発明の一実施形態における発光部の輝度の調整の一例を説明する説明図である。 本発明の一実施形態における発光部の輝度の調整の別の一例を説明する説明図である。 本発明の一実施形態に係るヘッドマウントディスプレイで実装される機能の一例を示す機能ブロック図である。 本発明の一実施形態に係るヘッドマウントディスプレイにおいて行われる処理の流れの一例を示すフロー図である。
 以下、本発明の一実施形態について、図面を参照しながら説明する。
 図1は、本発明の一実施形態に係る映像表示システム10の全体構成の一例を示す図である。図2Aは、本実施形態に係るヘッドマウントディスプレイ(HMD)12の構成の一例を示す図である。図2Bは、本実施形態に係るエンタテインメント装置14の構成の一例を示す図である。
 図1に示すように、本実施形態に係る映像表示システム10は、HMD12とエンタテインメント装置14と中継装置16とディスプレイ18とカメラマイクユニット20とコントローラ22とを含んでいる。
 本実施形態に係るHMD12には、例えば図2Aに示すように、制御部30、記憶部31、入出力部32、表示部33、駆動回路34、複数の発光部35、センサ部36、音声出力部37が含まれる。
 制御部30は、例えばHMD12にインストールされるプログラムに従って動作するマイクロプロセッサ等のプログラム制御デバイスである。
 記憶部31は、例えばROMやRAM等の記憶素子などである。記憶部31には、制御部30によって実行されるプログラムなどが記憶される。
 入出力部32は、例えばHDMI(登録商標)(High-Definition Multimedia Interface)ポート、USBポート、AUXポートなどの入出力ポートである。
 表示部33は、HMD12の前側に配置されている、例えば液晶ディスプレイや有機ELディスプレイ等のディスプレイであり、エンタテインメント装置14が生成する映像などを表示させる。また表示部33は、HMD12の筐体38に収容される。表示部33は、例えばエンタテインメント装置14が出力して中継装置16で中継される映像信号を受信して、当該映像信号が表す映像を出力するようにしてもよい。本実施形態に係る表示部33は、例えば左目用の画像と右目用の画像を表示することによって三次元画像を表示させることができるようになっている。なお表示部33は三次元画像の表示ができず二次元画像の表示のみができるものであっても構わない。
 駆動回路34は、例えば複数の発光部35を駆動させるためのLEDドライバ等の回路である。
 発光部35は、LED等の発光素子によって構成されており、駆動回路34が出力する駆動電流に応じた輝度で発光する。本実施形態に係るHMD12は、複数の発光部35を備えている。複数の発光部35のうちの1個は、筐体38の前面中央に配置されている。また筐体38の前面と側面とに掛かるように、前面の4隅のそれぞれにも発光部35が配置されている。これら4個の発光部35のそれぞれは、筐体38の前面の外縁の外側を向くようにして、筐体38の前面に対して斜めに配置されている。また筐体38の左右の側面のそれぞれにも発光部35が配置されている。また筐体38を支持する装着バンド39にも2個の発光部35が配置されている。以上のように本実施形態に係るHMD12は9個の発光部35を備えている。本実施形態に係る発光部35は青色光を発する。
 センサ部36は、例えば加速度センサやモーションセンサなどといったセンサである。センサ部36は、HMD12の回転量、移動量などの計測結果を所定のフレームレートで、制御部30に出力する。
 音声出力部37は、例えばヘッドホンやスピーカ等であり、エンタテインメント装置14が生成する音声データが表す音声などを出力する。音声出力部37は、例えばエンタテインメント装置14が出力して中継装置16で中継される音声信号を受信して、当該音声信号が表す音声を出力する。
 本実施形態に係るエンタテインメント装置14は、例えばゲームコンソール、DVDプレイヤ、Blu-ray(登録商標)プレイヤなどといったコンピュータである。本実施形態に係るエンタテインメント装置14は、例えば記憶されているゲームプログラムの実行や光ディスクに記録されたコンテンツの再生などによって映像や音声を生成する。そして本実施形態に係るエンタテインメント装置14は、生成される映像を表す映像信号や生成される音声を表す音声信号を、中継装置16を経由して、HMD12やディスプレイ18に出力する。
 本実施形態に係るエンタテインメント装置14には、例えば図2Bに示すように、制御部40、記憶部41、通信部42、入出力部43が含まれる。
 制御部40は、例えばエンタテインメント装置14にインストールされるプログラムに従って動作するCPU等のプログラム制御デバイスである。本実施形態に係る制御部40には、CPUから供給されるグラフィックスコマンドやデータに基づいてフレームバッファに画像を描画するGPU(Graphics Processing Unit)も含まれている。
 記憶部41は、例えばROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部41には、制御部40によって実行されるプログラムなどが記憶される。また、本実施形態に係る記憶部41には、GPUにより画像が描画されるフレームバッファの領域が確保されている。
 通信部42は、例えばイーサネット(登録商標)モジュールや無線LANモジュールなどの通信インタフェースなどである。
 入出力部43は、HDMI(登録商標)(High-Definition Multimedia Interface)ポートやUSBポートなどの入出力ポートである。
 本実施形態に係る中継装置16は、エンタテインメント装置14から出力される映像信号や音声信号を中継してHMD12やディスプレイ18に出力するコンピュータである。
 本実施形態に係るディスプレイ18は、例えば液晶ディスプレイ等であり、エンタテインメント装置14から出力される映像信号が表す映像などを表示させる。
 本実施形態に係るカメラマイクユニット20は、例えば被写体を撮像した画像をエンタテインメント装置14に出力するカメラ20a及び周囲の音声を取得して当該音声を音声データに変換してエンタテインメント装置14に出力するマイク20bを含んでいる。また本実施形態に係るカメラ20aはステレオカメラである。
 HMD12と中継装置16とは、例えば、HDMIケーブルやUSBケーブルなどを介して接続されている。エンタテインメント装置14と中継装置16とは、例えば、HDMIケーブルやUSBケーブルなどを介して接続されている。中継装置16とディスプレイ18とは、例えば、HDMIケーブルなどを介して接続されている。エンタテインメント装置14とカメラマイクユニット20とは、例えば、AUXケーブルなどを介して接続されている。
 本実施形態に係るコントローラ22は、エンタテインメント装置14に対する操作入力を行うための操作入力装置である。ユーザは、コントローラ22が備える方向キーやボタンを押下したり、操作スティックを傾けたりすることで、コントローラ22を用いて各種の操作入力を行うことができる。そして本実施形態では、コントローラ22は、操作入力に対応付けられる入力データをエンタテインメント装置14に出力する。また本実施形態に係るコントローラ22は、USBポートを備えている。そしてコントローラ22は、USBケーブルでエンタテインメント装置14と接続することで、有線で入力データをエンタテインメント装置14に出力することができる。また本実施形態に係るコントローラ22は、無線通信モジュール等を備えており、無線で入力データをエンタテインメント装置14に出力することができるようにもなっている。
 本実施形態では、カメラ20aは、所定のフレームレートで画像を撮影する。図3は、カメラ20aが撮影する画像である撮影画像50の一例を示す図である。図3に示す撮影画像50には、筐体38の右側面、前面中央、前面から見て前面の左上隅、及び、前面から見て前面の右上隅に配置されている発光部35の像が含まれている。本実施形態では図3に例示する撮影画像50内における発光部35の像の位置に基づいて、HMD12の位置や向きなどといったHMD12の姿勢が特定される。なお撮影画像50内における発光部35の像の位置とセンサ部36による移動量や回転量の検出結果とに基づいて、HMD12の姿勢が特定されても構わない。このようにして特定されるHMD12の姿勢に応じて表示部33に表示される映像や表示部33に表示されるオブジェクトの制御が行われる。また本実施形態では上述のように様々な位置に発光部35が配置されているため、ユーザがどのような方向を向いていても、撮影画像50にいずれかの発光部35の像が含まれている可能性が高いこととなる。
 発光部35の輝度が小さすぎると撮影画像50内における発光部35の像の位置の特定精度が低くなる。一方で消費電力を抑える観点では発光部35の輝度は小さい方がよい。以上の理由で本実施形態に係るHMD12が備える発光部35の輝度は所定の範囲内におさまっていることが望ましい。本実施形態に係る映像表示システム10では、HMD12の姿勢特定用の撮影画像50に基づいて、当該撮影画像50に像が含まれる発光部35の輝度も特定される。そして発光部35の輝度が所定の範囲内に収まるよう発光部35を駆動する駆動電流が制御される。このようにして本実施形態に係る映像表示システム10では、発光部35の輝度が所定の範囲内におさまることとなる。
 なお撮影画像50内の発光部35が占める領域を抽出することで、図4に例示する発光部抽出画像52が生成されるようにしてもよい。例えば撮影画像50に対して例えば所定の条件を満足する画素、例えば青色の画素値が所定の範囲である画素を抽出する画像処理を行うことで、図4に例示する発光部抽出画像52が生成されるようにしてもよい。そしてこのようにして生成される発光部抽出画像52内における発光部35が占める領域に基づいて、HMD12の姿勢の特定や、当該発光部抽出画像52内に像が含まれる発光部35の輝度の特定が行われてもよい。
 図3に示す撮影画像50や図4に示す発光部抽出画像52には、発光部35の像が複数含まれている。本実施形態では公知のパターン認識技術を用いることにより、それぞれの発光部35の像がどの位置に配置された発光部35の像であるのかを特定可能になっている。
 また本実施形態に係るHMD12は、複数の発光部35のそれぞれについて個別に点灯あるいは消灯することができるようになっている。そのため特定の発光部35だけを発光させるようにすることで当該特定の発光部35の位置を特定することができる。このようにして複数の発光部35の像のそれぞれについてどの位置に配置された発光部35の像であるのかが特定されても構わない。
 図5及び図6は、それぞれ、本発明の一実施形態における発光部35の輝度の調整の一例を説明する説明図である。図5及び図6には、目標となる輝度である目標輝度Ltが示されている。目標輝度Ltは、所定の輝度であってもよいし、HMD12の周囲の明るさやカメラ20aからの距離に基づいて決定される輝度であってもよい。また図5及び図6には、図3に示す撮影画像50に像が含まれる4つの発光部35の輝度Lがバツ印で示されている。
 本実施形態ではHMD12の出荷時においては、図5に示すように、発光部35の輝度Lが高めに設定されている。この場合は、これら4つの発光部35の駆動電流を小さくすることで、発光部35の輝度が目標輝度Ltを中心とする所定の範囲内におさまるよう制御される。本実施形態では例えば、目標輝度Ltと輝度Lとの差の閾値をΔLとすると、発光部35の輝度は、Lt+ΔLとなるよう、あるいはLt+ΔLよりも小さくなるよう制御される。このようにすることで本実施形態によれば、発光部35の消費電力を抑えることができる。
 また発光部35は、一定の駆動電流により駆動していても使用時間が長くなるに従って輝度が下がってくる。また発光部35の周囲の温度によっても当該発光部35の輝度が低下する速度は異なる。図6の例では前面中央の発光部35及び前面の左上隅の発光部35については、輝度がLt-ΔLよりも小さい。この場合は、これら2つの発光部35の駆動電流を大きくすることで、発光部35の輝度が目標輝度Ltを中心とする所定の範囲内におさまるよう制御される。本実施形態では例えば、目標輝度Ltと輝度Lとの差の閾値をΔLとすると、発光部35の輝度は、Lt-ΔLとなる、あるいはLt-Δtよりも大きくなるよう制御される。このようにして本実施形態によれば発光部35の輝度が例えば撮影画像50に基づくHMD12の姿勢が特定可能な最小の輝度以上となるよう制御できる。
 以上説明したように、本実施形態では、HMD12の姿勢特定用の撮影画像50が発光部35の輝度の特定にも用いられるので、発光部35の輝度を測定するための機器を別途設けることなく発光部35の輝度を制御できることとなる。
 なお以上の説明ではHMD12の姿勢を特定するための姿勢特定用の画像と発光部35の輝度を特定するための輝度特定用の画像は同一の画像であったが、姿勢特定用の画像と輝度特定用の画像は異なる画像であってもよい。例えば姿勢特定用の画像と輝度特定用の画像とがカメラ20aによって交互に撮影されるようにしてもよい。
 以下、発光部35の輝度の制御を中心に、本実施形態に係るエンタテインメント装置14の機能並びに本実施形態に係るエンタテインメント装置14で実行される処理についてさらに説明する。
 図7は、本実施形態に係るエンタテインメント装置14で実装される機能の一例を示す機能ブロック図である。なお、本実施形態に係るエンタテインメント装置14で、図7に示す機能のすべてが実装される必要はなく、また、図7に示す機能以外の機能が実装されていても構わない。
 図7に示すように、本実施形態に係るエンタテインメント装置14は、機能的には例えば、撮影画像取得部60、姿勢特定部62、輝度情報特定部64、駆動電流制御部66、を含んでいる。撮影画像取得部60、姿勢特定部62、駆動電流制御部66は、制御部40及び入出力部43を主として実装される。輝度情報特定部64は、制御部40を主として実装される。本実施形態に係るエンタテインメント装置14は、発光部35の輝度を制御する制御装置としての役割を担うこととなる。
 そして以上の機能は、コンピュータであるエンタテインメント装置14にインストールされた、以上の機能に対応する指令を含むプログラムを制御部40で実行することにより実装されている。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介してエンタテインメント装置14に供給される。
 撮影画像取得部60は、本実施形態では、カメラ20aが撮影した撮影画像50を取得する。
 姿勢特定部62は、カメラ20aが撮影する撮影画像50に基づいて、HMD12の姿勢を特定する。姿勢特定部62は、センサ部36による移動量や回転量の検出結果を示すデータをHMD12から受信して、受信したデータと撮影画像50とに基づいて、HMD12の姿勢を特定してもよい。
 輝度情報特定部64は、カメラ20aが撮影する、発光部35の像を含む撮影画像50に基づいて、当該発光部35の輝度を示す情報を特定する。輝度情報特定部64は本実施形態では例えば、撮影画像取得部60が取得する撮影画像50に像が含まれている発光部35の輝度を特定する。また本実施形態に係るカメラ20aが、撮影画像50内の画素の輝度を特定する機能を備えている場合に、輝度情報特定部64は、カメラ20aが特定する輝度を示す情報をカメラ20aから取得してもよい。そして輝度情報特定部64が、カメラ20aから取得した輝度を示す情報に基づいて発光部35の輝度を特定してもよい。
 また輝度情報特定部64は、撮影画像50内における発光部35が占める領域に基づいて、当該発光部35の輝度を特定してもよい。例えば輝度情報特定部64は、発光部抽出画像52において発光部35が占める領域として抽出された領域内の画素に基づいて、当該発光部35の輝度を特定してもよい。
 なおエンタテインメント装置14にそれぞれが輝度に関連付けられた複数の参照画像が記憶されていてもよい。この場合に輝度情報特定部64が、複数の参照画像のそれぞれと、撮影画像取得部60が取得する撮影画像50と、の比較結果に基づいて、発光部35の輝度を特定してもよい。具体的には例えば、撮影画像50に最も類似する参照画像が特定され、当該参照画像に関連付けられる輝度が当該発光部35の輝度として特定されてもよい。
 駆動電流制御部66は、特定される発光部35の輝度に基づいて、発光部35の駆動電流を制御する。本実施形態では例えば、輝度情報特定部64によって特定された発光部35の輝度LがLt-ΔLよりも小さい場合に、駆動電流制御部66は当該発光部35の駆動電流を増加させる。一方輝度情報特定部64によって特定された発光部35の輝度LがLt+ΔLよりも大きい場合に、駆動電流制御部66は当該発光部35の駆動電流を減少させる。駆動電流制御部66は、本実施形態では例えば駆動電流の値を示すデータをHMD12に送信する。そしてHMD12の制御部30が、エンタテインメント装置14から受信したデータが示す駆動電流の値となるよう駆動回路34を制御する。なお駆動電流制御部66は、駆動電流の増加量又は減少量を示すデータをHMD12に送信してもよい。そしてHMD12の制御部30が、エンタテインメント装置14から受信したデータが示す増加量又は減少量に応じた駆動電流の値となるよう駆動回路34を制御してもよい。
 ここで、本実施形態に係るエンタテインメント装置14において行われる、筐体38の前面中央に配置された発光部35の輝度制御処理の流れの一例を、図8に例示するフロー図を参照しながら説明する。
 本実施形態では図8に示す輝度制御処理は、繰り返し実行される。ここで当該輝度制御処理は、例えば輝度特定用の撮影画像50の撮影間隔で繰り返し実行されてもよい。例えばカメラ20aによる撮影画像50の撮影が1/60秒間隔で行われ、すべての撮影画像50が輝度特定用の画像として用いられる場合には、図8に示す輝度制御処理は1/60秒間隔で実行されてもよい。また例えば、カメラ20aによる撮影画像50の撮影が1/60秒間隔で行われ、姿勢特定用の撮影画像50と輝度特定用の撮影画像50とが交互に撮影される場合には、図8に示す輝度制御処理は1/30秒間隔で実行されてもよい。
 まず、撮影画像取得部60が、撮影画像50を取得する(S101)。そして、輝度情報特定部64が、S101に示す処理で取得した撮影画像50に基づいて、筐体38の前面中央に配置された発光部35の輝度Lを特定する(S102)。S102に示す処理では上述したように、輝度情報特定部64が、S101に示す処理で取得した撮影画像50内において発光部35が占める領域内の画素に基づいて発光部35の輝度Lを特定してもよい。例えば輝度情報特定部64が、S101に示す処理で取得した撮影画像50に基づいて発光部抽出画像52を生成し、発光部抽出画像52において発光部35が占める領域内の画素に基づいて発光部35の輝度Lを特定してもよい。
 そして駆動電流制御部66は、S102に示す処理で輝度Lが特定できたか否かを確認する(S103)。S102に示す処理では、例えば筐体38の前面中央に配置された発光部35の像が撮影画像50に含まれていない場合などのように、当該発光部35の輝度Lが特定できない場合がある。S102に示す処理で輝度Lが特定できなかった場合は(S103:N)、S101に示す処理に戻る。この場合は当該フレームでは筐体38の前面中央に配置された発光部35の輝度Lは変化しない。
 S102に示す処理で輝度Lが特定できた場合(S103:Y)は、駆動電流制御部66は、S102に示す処理で特定された輝度LがLt+ΔLより大きいか否かを確認する(S104)。S102に示す処理で特定された輝度LがLt+ΔLより大きい場合は(S104:Y)、駆動電流制御部66は、筐体38の前面中央に配置された発光部35の駆動電流iをΔiだけ減少させて(S105)、S101に示す処理に戻る。本実施形態におけるΔiは例えば1mAである。
 S102に示す処理で特定された輝度LがLt+ΔLより大きくない場合は(S104:N)、駆動電流制御部66は、S102に示す処理で特定された輝度LがLt-ΔLより小さいか否かを確認する(S106)。S102に示す処理で特定された輝度LがLt-ΔLより小さい場合は(S106:Y)、駆動電流制御部66は、筐体38の前面中央に配置された発光部35の駆動電流iをΔiだけ増加させて(S107)、S101に示す処理に戻る。
 S102に示す処理で特定された輝度LがLt-ΔLより小さくない場合(S106:N)、すなわちS102に示す処理で特定された輝度LがLt-ΔL以上Lt+ΔL以下である場合は、S101に示す処理に戻る。この場合も当該フレームでは筐体38の前面中央に配置された発光部35の輝度Lは変化しない。
 なお、上述のΔiを1mAよりも小さな値、例えば0.1mAとしてもよい。Δiの値が小さいほど発光部35の輝度を細かく制御できる一方で、図8に示す処理の実行間隔で変更可能な輝度が小さくなる。
 また図8には、筐体38の前面中央に配置された発光部35についての輝度制御処理の流れの一例を示したが、当該輝度制御処理は、HMD12が備える複数の発光部35のそれぞれについて独立に実行される。図8に示す輝度制御処理は並列に実行されても構わないし、複数の発光部35のそれぞれについて順次実行されるようにしても構わない。
 以上のようにして本実施形態によれば、図8に示す輝度制御処理が実行される度に、発光部35の輝度が目標輝度Ltを中心とする所定の範囲に近づくよう制御されることとなる。
 なお例えば輝度情報特定部64が、S101に示す処理で取得された撮影画像50に基づいて、環境の明るさ、例えばHMD12の周囲の空間の明るさを特定してもよい。そして輝度情報特定部64が、特定される環境の明るさに基づいて、目標輝度Ltなどといった、発光部35の輝度を示す情報の目標値を決定してもよい。ここで例えば特定される環境の明るさが明るいほど大きくなるよう目標輝度Ltが決定されてもよい。なおHMD12が明るさセンサを備えている場合は、当該明るさセンサによる測定結果に基づいて環境の明るさが特定されてもよい。そして駆動電流制御部66が、輝度情報特定部64が決定した発光部35の輝度を示す情報の目標値に応じた当該発光部35の駆動電流の制御を行ってもよい。このようにすれば発光部35の輝度が環境の明るさに応じた輝度となるよう制御できることとなる。具体的には例えば環境の明るさが明るいほど発光部35の輝度が大きくなるよう制御できることとなる。
 また本実施形態にカメラ20aはステレオカメラであるので、カメラ20aから発光部35までの距離を測定することができる。そこで例えば、輝度情報特定部64が、カメラ20aから発光部35までの距離に基づいて目標輝度Ltを決定してもよい。このとき例えば、カメラ20aから発光部35までの距離が長いほど大きくなるよう目標輝度Ltが決定されてもよい。このようにすれば発光部35の輝度がカメラ20aからの距離に応じた輝度となるよう制御できることとなる。具体的には例えばカメラ20aからの距離が長いほど発光部35の輝度が大きくなるよう制御できることとなる。
 以上のように、輝度情報特定部64が、環境の明るさやカメラ20aからの距離に基づいて目標輝度Ltを決定する目標値決定部としての役割も担ってもよい。なお輝度情報特定部64が、環境の明るさとカメラ20aからの距離との組合せに基づいて目標輝度Ltを決定してもよい。そして以上のようにして決定された目標輝度Ltが上述のS104に示す処理やS106に示す処理で用いられてもよい。
 また例えば駆動電流iをΔiだけ増加させた際に所定の最大電流(例えば30mA)を超える場合には、駆動電流制御部66はS107に示す処理で駆動電流iを増加させなくてもよい。この場合には駆動電流制御部66がメッセージを出力してもよい。例えば駆動電流制御部66が、表示部33にメッセージを表示出力させる指令をHMD12に送信し、HMD12が当該メッセージを表示部33に表示出力してもよい。あるいは駆動電流制御部66が、所定の音声を音声出力させる指令をHMD12に送信して、HMD12が音声出力部37から所定の音声が音声出力されるよう制御してもよい。このようにすれば例えば寿命の到来などによって発光部35に所定の最大電流を供給しても輝度が所定の範囲内とならないことをユーザは認識できることとなる。
 また輝度情報特定部64が、最も小さな輝度の発光部35を特定してもよい。そして駆動電流制御部66が、当該輝度に近づくよう他の発光部35の駆動電流を制御してもよい。こうすれば最も小さな輝度の発光部35の輝度に近づくよう他の発光部35の輝度が制御されることとなる。
 また図8に示す輝度制御処理は、例えばゲームのプレイ中、すなわちエンタテインメント装置14がゲームプログラムを実行することにより生成される動画像が表示部33に表されている期間に行われてもよいし、ゲームのプレイが開始される前に行われてもよい。
 また輝度情報特定部64は、上述のS102に示す処理で発光部35の輝度を特定不能である場合にその旨を通知してもよい。また輝度情報特定部64は、複数の発光部35のいずれかの輝度が特定不能である場合に、輝度が特定不能である発光部35に応じた通知を行うようにしてもよい。例えばゲームのプレイが開始される前に行われる輝度制御処理において輝度Lが特定できなかった発光部35が存在する際に、輝度情報特定部64が、当該発光部35がカメラ20aに撮影されるような頭部の回転をユーザに促す通知を出力してもよい。例えば前面から見て前面の右上隅に配置されている発光部35の像が撮影画像50に含まれていない場合に輝度情報特定部64が「右を向いてください。」とのメッセージを表示出力させる指令をHMD12に送信してもよい。そして当該指令を受信したHMD12が当該メッセージを表示部33に表示出力させてもよい。あるいは上述の場合に輝度情報特定部64が「右を向いてください。」とのメッセージを音声出力させる指令をHMD12に送信してもよい。そして当該指令を受信したHMD12が音声出力部37から当該メッセージが音声出力されるよう制御してもよい。
 また以上の説明では、発光部35は可視光(例えば青色光)を発することとしたが、発光部35が可視光以外の光、例えば赤外光を発するようにしてもよい。またカメラ20aが赤外線を撮影可能なカメラであってもよい。
 また例えば、輝度情報特定部64が輝度を特定不能な発光部35が存在する場合に、駆動電流制御部66が当該発光部35を消灯してもよい。
 また輝度情報特定部64は、発光部35の輝度の代わりに、輝度を示す情報、例えば発光部35の色、画素値、面積等の情報を特定してもよい。そして駆動電流制御部66が、特定された発光部35の色、画素値、面積等の情報に基づいて、発光部35の駆動電流を制御してもよい。
 なお、本発明は上述の実施形態に限定されるものではない。
 例えばHMD12、エンタテインメント装置14、中継装置16の役割分担は上述のものに限定されない。例えば図7に例示する機能の一部又は全部が、HMD12、又は、中継装置16で実装されても構わない。あるいは図7に例示する機能が、映像表示システム10を構成するHMD12、エンタテインメント装置14、又は、中継装置16で分散して実装されていても構わない。
 例えば図7に示す機能がコンピュータであるHMD12にインストールされた、以上の機能に対応する指令を含むプログラムを制御部30で実行することにより実装されていてもよい。またこのプログラムが、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介してHMD12に供給されてもよい。
 また図7に示す機能の一部がコンピュータであるHMD12にインストールされた、当該一部の機能に対応する指令を含むプログラムを制御部30で実行することにより実装されてもよい。そしてこのプログラムが、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介してHMD12に供給されてもよい。また図7に示す機能の残りがコンピュータであるエンタテインメント装置14に当該残りの機能に対応する指令を含むプログラムを制御部40で実行することにより実装されてもよい。またプログラムが、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介してエンタテインメント装置14に供給されてもよい。
 また、上記の具体的な文字列や数値及び図面中の具体的な文字列や数値は例示であり、これらの文字列や数値には限定されない。

Claims (10)

  1.  カメラが撮影する、駆動電流に応じた輝度で発光する発光部の像を含む、姿勢特定用の画像に基づいて、前記発光部を備えるヘッドマウントディスプレイの姿勢を特定する姿勢特定部と、
     前記姿勢特定用の画像を撮影する前記カメラが撮影する、前記発光部の像を含む、輝度特定用の画像に基づいて、前記発光部の輝度を示す情報を特定する輝度情報特定部と、
     特定される前記発光部の輝度を示す情報に基づいて、前記発光部の駆動電流を制御する駆動電流制御部と、
     を含むことを特徴とする制御装置。
  2.  前記輝度情報特定部は、前記発光部の像を含む輝度特定用の画像内における当該発光部が占める領域に基づいて、当該発光部の輝度を示す情報を特定する、
     ことを特徴とする請求項1に記載の制御装置。
  3.  前記姿勢特定用の画像と前記輝度特定用の画像は同一の画像である、
     ことを特徴とする請求項1又は2に記載の制御装置。
  4.  環境の明るさに基づいて前記輝度を示す情報の目標値を決定する目標値決定部、をさらに含み、
     前記駆動電流制御部は、前記輝度を示す情報の目標値に応じた前記発光部の駆動電流の制御を行う、
     ことを特徴とする請求項1から3のいずれか一項に記載の制御装置。
  5.  前記輝度情報特定部は、前記発光部の輝度を示す情報を特定不能である場合にその旨を通知する、
     ことを特徴とする請求項1から4のいずれか一項に記載の制御装置。
  6.  前記ヘッドマウントディスプレイが、前記発光部を複数含み、
     前記輝度情報特定部は、前記複数の発光部のいずれかの輝度を示す情報が特定不能である場合に、輝度を示す情報が特定不能である前記発光部に応じた通知を行う、
     ことを特徴とする請求項5に記載の制御装置。
  7.  駆動電流に応じた輝度で発光する発光部を備えるヘッドマウントディスプレイであって、
     カメラが撮影する、前記発光部の像を含む姿勢特定用の画像に基づいて、前記ヘッドマウントディスプレイの姿勢を特定する姿勢特定部と、
     前記姿勢特定用の画像を撮影する前記カメラが撮影する、前記発光部の像を含む輝度特定用の画像に基づいて、当該発光部の輝度を示す情報を特定する輝度情報特定部と、
     特定される前記発光部の輝度を示す情報に基づいて、前記発光部の駆動電流を制御する駆動電流制御部と、
     を含むことを特徴とするヘッドマウントディスプレイ。
  8.  カメラが撮影する、駆動電流に応じた輝度で発光する発光部の像を含む、姿勢特定用の画像に基づいて、前記発光部を備えるヘッドマウントディスプレイの姿勢を特定する姿勢特定部と、
     前記姿勢特定用の画像を撮影する前記カメラが撮影する、前記発光部の像を含む、輝度特定用の画像に基づいて、前記発光部の輝度を示す情報を特定する輝度情報特定部と、
     特定される前記発光部の輝度を示す情報に基づいて、前記発光部の駆動電流を制御する駆動電流制御部と、
     を含むことを特徴とする制御システム。
  9.  カメラが撮影する、駆動電流に応じた輝度で発光する発光部の像を含む、姿勢特定用の画像に基づいて、前記発光部を備えるヘッドマウントディスプレイの姿勢を特定するステップと、
     前記姿勢特定用の画像を撮影する前記カメラが撮影する、前記発光部の像を含む、輝度特定用の画像に基づいて、前記発光部の輝度を示す情報を特定するステップと、
     特定される前記発光部の輝度を示す情報に基づいて、前記発光部の駆動電流を制御するステップと、
     を含むことを特徴とする制御方法。
  10.  カメラが撮影する、駆動電流に応じた輝度で発光する発光部の像を含む、姿勢特定用の画像に基づいて、前記発光部を備えるヘッドマウントディスプレイの姿勢を特定する手順、
     前記姿勢特定用の画像を撮影する前記カメラが撮影する、前記発光部の像を含む、輝度特定用の画像に基づいて、前記発光部の輝度を示す情報を特定する手順、
     特定される前記発光部の輝度を示す情報に基づいて、前記発光部の駆動電流を制御する手順、
     をコンピュータに実行させることを特徴とするプログラム。
PCT/JP2016/079662 2015-10-08 2016-10-05 制御装置、ヘッドマウントディスプレイ、制御システム、制御方法及びプログラム WO2017061488A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP16853642.3A EP3343906B1 (en) 2015-10-08 2016-10-05 Control device, head-mounted display, control system, control method, and program
US15/761,970 US10368007B2 (en) 2015-10-08 2016-10-05 Control apparatus, head-mounted display, control system, control method, and program
CN201680057688.4A CN108141558B (zh) 2015-10-08 2016-10-05 控制装置、头戴式显示器、控制系统、控制方法
JP2017544536A JP6517358B2 (ja) 2015-10-08 2016-10-05 制御装置、ヘッドマウントディスプレイ、制御システム、制御方法及びプログラム
US16/410,561 US10488654B2 (en) 2015-10-08 2019-05-13 Control apparatus, head-mounted display, control system, control method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015200311 2015-10-08
JP2015-200311 2015-10-08

Related Child Applications (3)

Application Number Title Priority Date Filing Date
US15/761,970 A-371-Of-International US10368007B2 (en) 2015-10-08 2016-10-05 Control apparatus, head-mounted display, control system, control method, and program
US15/761,970 Continuation US10368007B2 (en) 2015-10-08 2016-10-05 Control apparatus, head-mounted display, control system, control method, and program
US16/410,561 Continuation US10488654B2 (en) 2015-10-08 2019-05-13 Control apparatus, head-mounted display, control system, control method, and program

Publications (1)

Publication Number Publication Date
WO2017061488A1 true WO2017061488A1 (ja) 2017-04-13

Family

ID=58487672

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/079662 WO2017061488A1 (ja) 2015-10-08 2016-10-05 制御装置、ヘッドマウントディスプレイ、制御システム、制御方法及びプログラム

Country Status (5)

Country Link
US (2) US10368007B2 (ja)
EP (1) EP3343906B1 (ja)
JP (2) JP6517358B2 (ja)
CN (1) CN108141558B (ja)
WO (1) WO2017061488A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021028724A (ja) * 2017-10-30 2021-02-25 ピクシーダストテクノロジーズ株式会社 投影装置及び投影方法
US11033812B2 (en) 2019-06-20 2021-06-15 Nintendo Co., Ltd. Input apparatus, method, and game processing method
US11260293B2 (en) 2019-06-20 2022-03-01 Nintendo Co., Ltd. Method and apparatus with deformable body engaging portion and game controller attachment portion

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017061488A1 (ja) * 2015-10-08 2017-04-13 株式会社ソニー・インタラクティブエンタテインメント 制御装置、ヘッドマウントディスプレイ、制御システム、制御方法及びプログラム
USD949858S1 (en) * 2019-11-27 2022-04-26 Canon Kabushiki Kaisha Attachment member for head-mounted display
USD949857S1 (en) * 2019-11-27 2022-04-26 Canon Kabushiki Kaisha Attachment member for head-mounted display
CN112437213A (zh) * 2020-10-28 2021-03-02 青岛小鸟看看科技有限公司 图像采集方法、手柄设备、头戴设备及头戴系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012226666A (ja) * 2011-04-21 2012-11-15 Shimadzu Corp モーショントラッカ装置
WO2014197338A2 (en) * 2013-06-08 2014-12-11 Sony Computer Entertainment Inc. Systems and methods for customizing optical representation of views provided by a head mounted display based on optical prescription of a user

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10226398B4 (de) * 2002-06-13 2012-12-06 Carl Zeiss Ag Verfahren und Vorrichtung zum Erfassen der Lage eines Objekts im Raum
JP2004205711A (ja) 2002-12-24 2004-07-22 Canon Inc 表示装置
JP2012002889A (ja) 2010-06-15 2012-01-05 Brother Ind Ltd シースルー型画像表示装置
JP5336665B2 (ja) 2010-10-07 2013-11-06 株式会社ソニー・コンピュータエンタテインメント 3−dメガネと、カメラベースの頭部トラッキング
JP5803784B2 (ja) 2012-03-30 2015-11-04 ブラザー工業株式会社 ヘッドマウントディスプレイ
CN103778887B (zh) * 2013-03-21 2016-05-18 西安电子科技大学 Led显示装置的亮度校正方法及装置
US9710057B2 (en) * 2014-03-14 2017-07-18 Sony Interactive Entertainment Inc. Methods and systems including tracking a head mounted display (HMD) and calibrations for HMD headband adjustments
WO2014200779A2 (en) 2013-06-09 2014-12-18 Sony Computer Entertainment Inc. Head mounted display
US9600925B2 (en) 2014-01-06 2017-03-21 Oculus Vr, Llc Calibration of multiple rigid bodies in a virtual reality system
US9551873B2 (en) * 2014-05-30 2017-01-24 Sony Interactive Entertainment America Llc Head mounted device (HMD) system having interface with mobile computing device for rendering virtual reality content
US10019059B2 (en) * 2014-08-22 2018-07-10 Sony Interactive Entertainment Inc. Glove interface object
US10684485B2 (en) * 2015-03-06 2020-06-16 Sony Interactive Entertainment Inc. Tracking system for head mounted display
CN104616544A (zh) * 2015-03-12 2015-05-13 马盼盼 一种智能教学系统
US10156908B2 (en) * 2015-04-15 2018-12-18 Sony Interactive Entertainment Inc. Pinch and hold gesture navigation on a head-mounted display
CN204695329U (zh) * 2015-04-30 2015-10-07 朱中生 头戴式货物识别码扫描装置
WO2017061488A1 (ja) * 2015-10-08 2017-04-13 株式会社ソニー・インタラクティブエンタテインメント 制御装置、ヘッドマウントディスプレイ、制御システム、制御方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012226666A (ja) * 2011-04-21 2012-11-15 Shimadzu Corp モーショントラッカ装置
WO2014197338A2 (en) * 2013-06-08 2014-12-11 Sony Computer Entertainment Inc. Systems and methods for customizing optical representation of views provided by a head mounted display based on optical prescription of a user

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3343906A4 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021028724A (ja) * 2017-10-30 2021-02-25 ピクシーダストテクノロジーズ株式会社 投影装置及び投影方法
US11033812B2 (en) 2019-06-20 2021-06-15 Nintendo Co., Ltd. Input apparatus, method, and game processing method
US11260293B2 (en) 2019-06-20 2022-03-01 Nintendo Co., Ltd. Method and apparatus with deformable body engaging portion and game controller attachment portion
US11577160B2 (en) 2019-06-20 2023-02-14 Nintendo Co., Ltd. Input apparatus, method, and game processing method

Also Published As

Publication number Publication date
US10488654B2 (en) 2019-11-26
CN108141558B (zh) 2021-03-16
US10368007B2 (en) 2019-07-30
JP6517358B2 (ja) 2019-05-22
JPWO2017061488A1 (ja) 2018-05-24
JP6762399B2 (ja) 2020-09-30
JP2019135873A (ja) 2019-08-15
US20180278825A1 (en) 2018-09-27
CN108141558A (zh) 2018-06-08
EP3343906A4 (en) 2019-04-24
EP3343906B1 (en) 2022-04-06
US20190268523A1 (en) 2019-08-29
EP3343906A1 (en) 2018-07-04

Similar Documents

Publication Publication Date Title
JP6762399B2 (ja) 制御装置、制御システム、制御方法及びプログラム
US10529074B2 (en) Camera pose and plane estimation using active markers and a dynamic vision sensor
JP6616361B2 (ja) ヘッドマウンテッドディスプレイ上でのゲームプレイの移行
JP7036879B2 (ja) 仮想画像生成システムにおけるテキストをより効率的に表示するための技法
JP6313432B2 (ja) 頭部装着ディスプレイ
JP2018099523A (ja) 物理オブジェクトの画像をフェードアウトする方法
US20180373349A1 (en) Display control apparatus and display control method
JP6629055B2 (ja) 情報処理装置および情報処理方法
WO2016199731A1 (ja) ヘッドマウントディスプレイ、表示制御方法及びプログラム
US11763578B2 (en) Head-mounted display, display control method, and program
JP6650739B2 (ja) 発光デバイス調整装置および駆動電流調整方法
KR102195450B1 (ko) 줌 장치 및 관련된 방법
US20120218399A1 (en) Electronic apparatus, controller of indicator, and control method of the same
US11490491B2 (en) Entertainment apparatus, light emission controlling apparatus, operation device, light emission controlling method and program
JP6212845B2 (ja) 表示制御装置、表示装置、投影装置、システム及び表示制御方法
EP4350683A1 (en) Display apparatus and controlling method thereof
KR20230056497A (ko) 디스플레이 장치 및 그 제어 방법
WO2016039155A1 (ja) 画像処理システム、画像処理方法、プログラム及び情報記憶媒体
WO2018101162A1 (ja) ヘッドマウントディスプレイ、表示制御装置、表示制御方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16853642

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017544536

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15761970

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE