WO2016079950A1 - 情報処理装置、情報処理装置を制御する方法、コンピュータープログラム - Google Patents

情報処理装置、情報処理装置を制御する方法、コンピュータープログラム Download PDF

Info

Publication number
WO2016079950A1
WO2016079950A1 PCT/JP2015/005617 JP2015005617W WO2016079950A1 WO 2016079950 A1 WO2016079950 A1 WO 2016079950A1 JP 2015005617 W JP2015005617 W JP 2015005617W WO 2016079950 A1 WO2016079950 A1 WO 2016079950A1
Authority
WO
WIPO (PCT)
Prior art keywords
input
information processing
function
control unit
processing apparatus
Prior art date
Application number
PCT/JP2015/005617
Other languages
English (en)
French (fr)
Inventor
勇一 毛利
総志 木村
Original Assignee
セイコーエプソン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by セイコーエプソン株式会社 filed Critical セイコーエプソン株式会社
Priority to US15/526,090 priority Critical patent/US10198367B2/en
Priority to CN201580059689.8A priority patent/CN107077363B/zh
Priority to EP15860908.1A priority patent/EP3223150A1/en
Publication of WO2016079950A1 publication Critical patent/WO2016079950A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/10Program control for peripheral devices
    • G06F13/102Program control for peripheral devices where the programme performs an interfacing function, e.g. device driver
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0659Command handling arrangements, e.g. command buffers, queues, command scheduling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/4401Bootstrapping
    • G06F9/4411Configuring for operating with peripheral devices; Loading of device drivers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/445Program loading or initiating
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/006Details of the interface to the display terminal
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2213/00Indexing scheme relating to interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F2213/0042Universal serial bus [USB]

Definitions

  • the present invention relates to an information processing apparatus.
  • a head-mounted display device that is a display device mounted on the head is known.
  • the HMD is used, for example, by generating image light representing an image using a liquid crystal display and a light source, and guiding the generated image light to a user's eye using a projection optical system, a light guide plate, or the like. Make a person recognize a virtual image.
  • Patent Document 1 describes a technique for generating image light in a mode corresponding to individual information stored in advance in an HMD.
  • a program for executing an arbitrary process such as an operating system or an application program is installed in the HMD described above.
  • These programs execute processing using various types of input / output devices such as an acceleration sensor, a button, and an LCD, for example.
  • which type of input / output device a program uses is determined in advance by the program developer and stored in the program according to the functions required for the processing executed by the program.
  • the program developer needs to be aware of the type of input / output device to be used.
  • Such a problem is not limited to the HMD, and is a problem common to all information processing apparatuses such as personal computers and smartphones.
  • the techniques described in Patent Documents 1 and 2 do not take into account the above-described problems.
  • the information processing apparatus in developing a program for an information processing apparatus, it has been desired to provide an information processing apparatus capable of developing a program without having to be aware of the type of input / output device to be used.
  • the information processing apparatus is desired to be reduced in size, reduced in cost, saved in resources, facilitated in manufacture, and improved in usability.
  • the present invention has been made to solve at least a part of the problems described above, and can be realized as the following forms.
  • an information processing apparatus includes a plurality of input / output devices used by a program that executes arbitrary processing, and a request received from the program that specifies a function required by the program.
  • a main control unit that operates at least a part of the input / output devices associated with the function among a plurality of input / output devices.
  • the main control unit in response to the request specifying the function received from the program, the input / output apparatus associated with the specified function from among the plurality of input / output apparatuses. To operate at least a part of them.
  • the program developer does not need to be aware of the type of input / output device used at the time of creating the program, and it is only necessary to include a request specifying the “function” to be used in the program.
  • the program development for the information processing apparatus it is possible to realize the program development that does not need to be aware of the type of input / output device to be used.
  • the main control unit performs the association by grouping the plurality of input / output devices for each function required by the program, and at least one from each group
  • the input / output device may be selected based on a predetermined criterion, and the input / output device selected in the group may be operated in response to the request.
  • the main control unit associates the functions with the input / output devices by grouping the plurality of input / output devices according to the functions required by the program.
  • the main control unit operates the input / output devices selected in the group in response to a request specifying the function received from the program. For this reason, the main control unit can assign a plurality of input / output devices to one function required by the program, and only at least some of the assigned input / output devices are assigned. It can be operated.
  • the device individual information in which information of the input / output device connected to the information processing apparatus is stored, and at least a function name indicating the content of the function;
  • a storage unit that stores device individual information stored in association with the type of the input / output device, the main control unit acquires the device individual information, and the acquired device individual information
  • the grouping may be performed using function names.
  • the main control unit uses the device individual information stored in association with the function name representing the content of the function required by the program and the type of the input / output device. Thus, it is possible to simply group input / output devices for each function.
  • the device individual information is associated with the function name, and the type of the function and the position where the input / output device is arranged in the information processing apparatus Information is stored, the main control unit, the degree of association between the type of the function stored in the device individual information and the type of the input / output device, the performance of the input / output device, The selection may be performed based on at least one of priority predetermined by a user of the information processing apparatus and information on the position.
  • the main control unit can select the input / output device based on the degree of association between the type of function stored in the device individual information and the type of input / output device.
  • a more relevant input / output device can be selected for the type of function required by the program. Further, since the main control unit can select the input / output device based on the performance of the input / output device, it is possible to select an input / output device with higher performance. Further, since the main control unit can select the input / output device based on the priority predetermined by the user, it can select the input / output device that suits the user's preference. In addition, the main control unit can select the input / output device on the basis of information on the position where the input / output device is arranged in the information processing device, so that it is more relevant to the type of function required by the program. A highly functional input / output device can be selected.
  • the main control unit selects two or more of the input / output devices from each group, and the input having the highest priority in the group according to the request.
  • the input / output device having the next highest priority may be operated in the group.
  • the main control unit selects two or more input / output devices from each group, and responds to the request specifying the function received from the program with the highest priority in the group. Operate high I / O devices.
  • the main control unit operates the input / output device having the next highest priority in the group. For this reason, even when there is an abnormality in a certain input / output device, the main control unit can respond to a request from the program using another input / output device. As a result, the availability of the information processing apparatus can be improved.
  • the main control unit includes a plurality of input / output devices included in another information processing apparatus connected to the information processing apparatus together with the plurality of input / output apparatuses of the information processing apparatus.
  • the selection and the operation may be performed after the association is performed by grouping devices into functions required by the program.
  • the main control unit receives not only the input / output device of the information processing apparatus but also the input / output device included in another information processing apparatus connected to the information processing apparatus from the program.
  • the function can be operated according to the specified request.
  • the main control unit may limit the grouping target to the input / output device in an active state. According to the information processing apparatus of this aspect, the main control unit limits the grouping target to the input / output devices that are in the active state, and thus can suppress processing delay.
  • the request designating the function includes a function including the function designation, a procedure including the function designation, and an instruction including the function designation. It may be at least one of the following.
  • the main control unit is a means generally used in the program, in response to a request by at least one of a function, a procedure, and an instruction.
  • the input / output device can be operated. As a result, convenience for the program developer can be improved.
  • a plurality of constituent elements of each embodiment of the present invention described above are not essential, and some or all of the effects described in the present specification are to be solved to solve part or all of the above-described problems.
  • technical features included in one embodiment of the present invention described above A part or all of the technical features included in the other aspects of the present invention described above may be combined to form an independent form of the present invention.
  • one embodiment of the present invention can be realized as a device including a part or all of the two elements of a plurality of input / output devices and a main control unit. That is, this device may or may not have a plurality of input / output devices. In addition, this apparatus may or may not have a main control unit.
  • Such an apparatus can be realized as an information processing apparatus, for example, but can also be realized as an apparatus other than the information processing apparatus. Any or all of the technical features of each form of the information processing apparatus described above can be applied to this apparatus.
  • the present invention can be realized in various modes, for example, an information processing device and a method for controlling the information processing device, an information processing system including the information processing device, a head-mounted display device, and a head-mounted device.
  • the present invention is realized in the form of a control method for a mold-type display device, an image display system including a head-mounted display device, a computer program for realizing these methods, devices, and system functions, and a recording medium on which the computer program is recorded. be able to.
  • FIG. 1 is an explanatory diagram showing a schematic configuration of an information processing apparatus according to an embodiment of the present invention.
  • the information processing apparatus 100 according to the present embodiment is a head-mounted display device that is worn on the head, and is also referred to as a head mounted display (HMD).
  • the HMD 100 is an optically transmissive head mounted display that allows a user to visually recognize a virtual image and at the same time directly view an outside scene.
  • the HMD 100 of the present embodiment includes a main control unit for making the input / output device of the HMD 100 into a black box for the program installed in the HMD 100.
  • the main control unit receives a plurality of inputs / outputs connected to the HMD 100 in response to a request received from a program installed in the HMD 100 and specifying a function required by the program.
  • the devices at least some of the input / output devices associated with the requested function are operated.
  • “function” means a role realized by an input / output device connected to the HMD 100. Examples of the “function” include a cross key operation function, a volume operation function, an image display function, an acceleration acquisition function, an angular velocity acquisition function, and the like.
  • the HMD 100 includes an image display unit 20 that allows the user to visually recognize a virtual image when mounted on the user's head, and a control unit (controller) 10 that controls the image display unit 20.
  • a virtual image visually recognized by the user with the HMD 100 is also referred to as a “display image” for convenience.
  • the HMD 100 emitting the image light generated based on the image data is also referred to as “displaying an image”.
  • FIG. 2 is a block diagram functionally showing the configuration of the HMD 100 as the information processing apparatus.
  • the image display unit 20 is a wearing body that is worn on the user's head, and in the present embodiment, has an eyeglass shape.
  • the image display unit 20 includes a right holding unit 21, a right display driving unit 22, a left holding unit 23, a left display driving unit 24, a right optical image display unit 26, a left optical image display unit 28, and a camera 61. And a 9-axis sensor 66 and a storage unit 62.
  • the positional relationship and function of each unit of the image display unit 20 in a state where the user wears the image display unit 20 will be described.
  • the right optical image display unit 26 and the left optical image display unit 28 are arranged so as to be positioned in front of the user's right eye and in front of the left eye, respectively.
  • One end of the right optical image display unit 26 and one end of the left optical image display unit 28 are connected at a position corresponding to the eyebrow of the user.
  • the right optical image display unit 26 includes a right light guide plate 261 and a light control plate (not shown).
  • the right light guide plate 261 is formed of a light transmissive resin material or the like, and guides the image light output from the right display driving unit 22 to the right eye RE of the user while reflecting the image light along a predetermined optical path.
  • the light control plate is a thin plate-like optical element, and is disposed so as to cover the front side of the image display unit 20 (the side opposite to the user's eye side).
  • the light control plate protects the light guide plate 261 and suppresses damage to the light guide plate 261 and adhesion of dirt. Further, by adjusting the light transmittance of the light control plate, it is possible to adjust the external light quantity entering the user's eyes and adjust the ease of visual recognition of the virtual image.
  • the light control plate can be omitted.
  • the left optical image display unit 28 includes a left light guide plate 262 and a light control plate (not shown). These details are the same as those of the right optical image display unit 26. Note that the right optical image display unit 26 and the left optical image display unit 28 are collectively referred to simply as “optical image display unit”.
  • the optical image display unit can use any method as long as it forms a virtual image in front of the user's eyes using image light.
  • the optical image display unit may be realized using a diffraction grating, or a transflective film may be used. It may be realized by using.
  • the right holding unit 21 is provided extending from the other end ER of the right optical image display unit 26 to a position corresponding to the user's temporal region.
  • the left holding unit 23 is provided to extend from the other end EL of the left optical image display unit 28 to a position corresponding to the user's temporal region.
  • the right holding unit 21 and the left holding unit 23 hold the image display unit 20 on the user's head like a temple of glasses.
  • the right holding unit 21 and the left holding unit 23 are also collectively referred to simply as “holding unit”.
  • the right display driving unit 22 is disposed inside the right holding unit 21 (on the side facing the user's head).
  • the left display driving unit 24 is disposed inside the left holding unit 23.
  • the right display driving unit 22 functions as a receiving unit (Rx) 53, a right backlight (BL) control unit 201 and a right backlight (BL) 221 that function as a light source, and a display element.
  • a right LCD (Liquid Crystal Display) control unit 211, a right LCD 241, and a right projection optical system 251 are provided.
  • the right backlight control unit 201, the right LCD control unit 211, the right backlight 221 and the right LCD 241 are also collectively referred to as “image light generation unit”.
  • the receiving unit 53 functions as a receiver for serial transmission between the control unit 10 and the image display unit 20.
  • the right backlight control unit 201 drives the right backlight 221 based on the input control signal.
  • the right backlight 221 is a light emitter such as an LED (Light Emitting Diode) or electroluminescence (EL).
  • the right LCD control unit 211 drives the right LCD 241 based on the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the right eye image data Data1 input via the reception unit 53.
  • the right LCD 241 is a transmissive liquid crystal panel in which a plurality of pixels are arranged in a matrix.
  • the right projection optical system 251 is a collimating lens that converts the image light emitted from the right LCD 241 to light beams in a parallel state.
  • the left display driving unit 24 includes a receiving unit (Rx) 54, a left backlight (BL) control unit 202 and a left backlight (BL) 222 that function as a light source, a left LCD control unit 212 and a left that function as a display element.
  • An LCD 242 and a left projection optical system 252 are provided. These details are the same as those of the right display drive unit 22. Note that the right display drive unit 22 and the left display drive unit 24 are collectively referred to simply as a “display drive unit”.
  • the camera 61 is arranged at a position corresponding to the right eye corner of the user.
  • the camera 61 captures an outside scene image in the front side direction of the image display unit 20, in other words, an outside scene (external scenery) in the user's viewing direction with the head mounted display 100 attached.
  • the camera 61 is a so-called visible light camera, and the outside scene image acquired by the camera 61 is an image representing the shape of the object from the visible light emitted from the object.
  • the camera 61 in the present embodiment is a monocular camera, but may be a stereo camera.
  • the 9-axis sensor 66 is arranged at a position corresponding to the temple on the right side of the user.
  • the 9-axis sensor 66 is a motion sensor that detects acceleration (3 axes), angular velocity (3 axes), and geomagnetism (3 axes). Since the 9-axis sensor 66 is provided in the image display unit 20, when the image display unit 20 is mounted on the head, it functions as a “motion detection unit” that detects the movement of the head.
  • the movement of the head includes changes in the speed, acceleration, angular velocity, direction, and direction of the head.
  • the storage unit 62 includes a ROM, a RAM, a DRAM, a hard disk, and the like.
  • the storage unit 62 stores second device individual information 63 in advance.
  • the second device individual information 63 stores information on input / output devices connected to the image display unit 20.
  • “connection” means an input / output device internally connected to the circuit board of the image display unit 20 (so-called built-in) and an external connection to the image display unit 20 (so-called external). (Included) input / output devices.
  • the connection method in the built-in and external input / output devices may be wired connection or wireless connection. Details of the second device individual information 63 will be described later.
  • the image display unit 20 includes a connection unit 40 for connecting the image display unit 20 and the control unit 10.
  • the connection unit 40 includes a main body cord 48 connected to the control unit 10, a right cord 42 and a left cord 44 branched from the main body cord 48, and a connecting member 46 provided at the branch point.
  • the right cord 42 is connected to the right display driving unit 22, and the left cord 44 is connected to the left display driving unit 24.
  • the connecting member 46 is provided with a jack for connecting the earphone plug 30.
  • a right earphone 32 and a left earphone 34 extend from the earphone plug 30.
  • a connector (not shown) is provided at the end of the main body cord 48 opposite to the connecting member 46.
  • This connector realizes connection / disconnection between the control unit 10 and the image display unit 20 by fitting / releasing with a connector (not shown) provided in the control unit 10.
  • the image display unit 20 and the control unit 10 transmit various signals via the connection unit 40.
  • a metal cable or an optical fiber can be adopted for the right cord 42, the left cord 44, and the main body cord 48.
  • control unit 10 is a device for controlling the HMD 100.
  • the control unit 10 includes a determination key 11, a lighting unit 12, a display switching key 13, a track pad 14, a luminance switching key 15, a direction key 16, a menu key 17, and a power switch 18. Yes.
  • the determination key 11 detects a pressing operation and outputs a signal for determining the content operated in the control unit 10.
  • the lighting unit 12 is realized by, for example, an LED, and notifies the operation state of the HMD 100 (for example, ON / OFF of the power source) according to the light emission state.
  • the display switching key 13 detects a pressing operation, and outputs a signal for switching the display mode of the content moving image between 3D and 2D, for example.
  • the track pad 14 detects the operation of the user's finger on the operation surface of the track pad 14 and outputs a signal corresponding to the detected content.
  • various methods such as an electrostatic method, a pressure detection method, and an optical method can be adopted.
  • the luminance switching key 15 detects a pressing operation and outputs a signal for increasing or decreasing the luminance of the image display unit 20.
  • the direction key 16 detects a pressing operation on a key corresponding to the up / down / left / right direction, and outputs a signal corresponding to the detected content.
  • the power switch 18 switches the power-on state of the HMD 100 by detecting a slide operation of the switch.
  • the control unit 10 includes an input information acquisition unit 110, a storage unit 120, a power supply 130, a wireless communication unit 132, a GPS module 134, a CPU 140, an interface 180, and a transmission unit (Tx ) 51 and 52, and the respective parts are connected to each other by a bus (not shown).
  • the input information acquisition unit 110 acquires signals corresponding to operation inputs to the enter key 11, display switching key 13, track pad 14, luminance switching key 15, direction key 16, menu key 17, and power switch 18.
  • the input information acquisition unit 110 can acquire operation inputs using various methods other than those described above. For example, an operation input using a foot switch (a switch operated by a user's foot) may be acquired. For example, an operation input based on a user's line of sight detected by the line-of-sight detection unit or a command associated with eye movement may be acquired. This command may be set to be addable by the user. For example, a user's gesture may be detected using a camera that captures an image in the user's field of view, and an operation input by a command associated with the gesture may be acquired.
  • the input information acquisition unit 110 can acquire an operation input from the user even in a task that is difficult for the user to release.
  • the storage unit 120 includes a ROM, a RAM, a DRAM, a hard disk, and the like.
  • the storage unit 120 stores various computer programs including an operating system (OS).
  • the storage unit 120 stores first device individual information 122 in advance.
  • the first device individual information 122 stores information on input / output devices connected to the control unit 10.
  • “connection” includes both an input / output device connected internally to the circuit board of the control unit 10 and an input / output device connected externally to the control unit 10.
  • the connection method in the built-in and external input / output devices may be wired connection or wireless connection. Details of the first device individual information 122 will be described later.
  • the power supply 130 supplies power to each part of the HMD 100.
  • a secondary battery can be used as the power supply 130.
  • the wireless communication unit 132 performs wireless communication with an external device in accordance with a predetermined wireless communication standard.
  • the predetermined wireless communication standard is, for example, infrared, short-range wireless communication exemplified by Bluetooth (registered trademark), wireless LAN exemplified by IEEE 802.11, or the like.
  • the GPS module 134 detects a current position of the user of the HMD 100 by receiving a signal from a GPS satellite, and generates current position information representing the current position information of the user.
  • the current position information can be realized by coordinates representing latitude and longitude, for example.
  • the CPU 140 functions as the main control unit 300, the OS 150, the image processing unit 160, the sound processing unit 170, and the display control unit 190 by reading out and executing the computer program stored in the storage unit 120.
  • the main control unit 300 executes a process for making the input / output device of the HMD 100 into a black box (hereinafter also referred to as “black boxing process”) for the program installed in the HMD 100.
  • the programs installed in the HMD 100 are a program for realizing the function of the OS 150, a program for realizing the function of the image processing unit 160, and a program for realizing the function of the audio processing unit 170.
  • the image processing unit 160 generates a signal based on content (video) input via the interface 180 or the wireless communication unit 132. For example, when the content is in a digital format, the image processing unit 160 generates a clock signal PCLK and image data Data. In the case of the digital format, since the clock signal PCLK is output in synchronization with the image signal, generation of the vertical synchronization signal VSync and the horizontal synchronization signal HSync and A / D conversion of the analog image signal are unnecessary.
  • the image processing unit 160 transmits the generated clock signal PCLK, vertical synchronization signal VSync, horizontal synchronization signal HSync, and image data Data stored in the DRAM in the storage unit 120 to the image via the transmission units 51 and 52. Transmit to the display unit 20.
  • the image data Data transmitted via the transmission unit 51 is also referred to as “right eye image data Data1”, and the image data Data transmitted via the transmission unit 52 is also referred to as “left eye image data Data2”.
  • the image processing unit 160 performs image processing such as resolution conversion processing, various tone correction processing such as adjustment of luminance and saturation, and keystone correction processing on the image data Data stored in the storage unit 120. May be.
  • the display control unit 190 generates control signals for controlling the right display drive unit 22 and the left display drive unit 24. Specifically, the display control unit 190 turns on and off the left and right LCDs 241 and 242 by the left and right LCD control units 211 and 212 and the left and right backlights by the left and right backlight control units 201 and 202 according to the control signal. The generation and emission of image light by the right display drive unit 22 and the left display drive unit 24 are controlled by individually controlling the driving ON / OFF of the 221 and 222, respectively. The display control unit 190 transmits these control signals to the image display unit 20 via the transmission units 51 and 52.
  • the audio processing unit 170 acquires an audio signal included in the content, amplifies the acquired audio signal, and supplies the amplified audio signal to a speaker (not shown) of the right earphone 32 and a speaker (not shown) of the left earphone 34.
  • the interface 180 communicates with the external device OA in accordance with a predetermined wired communication standard.
  • the predetermined wired communication standards include, for example, MicroUSB (Universal Serial Bus), USB, HDMI (registered trademark) (High Definition Multimedia Interface), DVI (Digital Visual Interface), VGA (Video Graphics Array), composite, RS-232C (Recommended Standard 232), a wired LAN exemplified by IEEE 802.3.
  • the external device OA for example, a personal computer PC, a mobile phone terminal, a game terminal, or the like can be used.
  • FIG. 3 is an explanatory diagram showing an example of a virtual image visually recognized by the user.
  • the image light guided to both eyes of the user of the HMD 100 forms an image on the retina of the user, so that the user visually recognizes the virtual image VI.
  • the virtual image VI is a standby screen of the OS 150 of the HMD 100.
  • the user views the outside scene SC through the right optical image display unit 26 and the left optical image display unit 28.
  • the user of the HMD 100 of the present embodiment can see the virtual image VI and the outside scene SC behind the virtual image VI for the portion of the visual field VR where the virtual image VI is displayed.
  • the portion of the visual field VR where the virtual image VI is not displayed can be seen through the optical scene display portion and directly through the outside scene SC.
  • FIG. 4 is an explanatory diagram illustrating an example of the first device individual information.
  • the first device individual information 122 information on the input / output devices connected to the control unit 10 (FIG. 2) is stored in advance.
  • the first device individual information 122 stores function information and input / output device information in association with each other.
  • “Function information” is information about a function (that is, a role realized by an input / output device).
  • the function information includes a type and a function name.
  • “Type” is a name that represents the type of function, in other words, a name that represents a general classification of the function.
  • the “function name” is a name that represents the actual contents of the function.
  • “Input / output device information” is information about the input / output device connected to the control unit 10 of the HMD 100.
  • the information on the input / output device includes a device ID, an in-module device ID, a type, and a position.
  • the “device ID” is an identifier assigned to each input / output device in order to identify the input / output devices from each other.
  • “In-module device ID” is an identifier assigned to identify a combination of a function (function name) and an input / output device (device ID).
  • “Type” is a name indicating the type of the input / output device, in other words, a name indicating how the input / output device functions.
  • “Position” is a symbol representing a place where the input / output device is connected.
  • C when “C” is stored in the position, it means that the input / output device is connected to the control unit 10.
  • “H” is stored in the position, the input / output device This means that the device is connected to the image display unit 20.
  • the first device individual information 122 is information about the input / output device connected to the control unit 10, and therefore “C” is stored in all positions.
  • an input / output device built in the control unit 10 and an input / output device externally attached to the control unit 10 may be distinguished. In this case, for example, the value of the input / output device built in the control unit 10 can be “CI”, and the value of the input / output device externally attached to the control unit 10 can be “CO”.
  • the in-module device ID “SM2” is assigned to “GPS” of the device ID “D3” responsible for the “azimuth acquisition” function.
  • the “camera” identified by the device ID “D6” and connected to the control unit 10 can be used to realize the “image acquisition” function.
  • the in-module device ID “CA2” is assigned to the “camera” of the device ID “D6” responsible for the “image acquisition” function.
  • the “button” identified by the device ID “D10” and connected to the control unit 10 realizes the “mute operation” function and the “volume operation” function. It can be seen that it can be used. It can also be seen that the in-module device ID “UM1” is assigned to the “button” of the device ID “D10” responsible for the “mute operation” function. On the other hand, it can be seen that the in-module device ID “UV1” is assigned to the “button” of the device ID “D10” responsible for the “volume control” function. In some cases, like this “button”, one input / output device can perform a plurality of functions.
  • FIG. 5 is an explanatory diagram showing an example of second device individual information.
  • the second device individual information 63 information on the input / output device connected to the image display unit 20 (FIG. 2) is stored in advance. Similar to the first device individual information 122, the second device individual information 63 stores function information and input / output device information in association with each other. Details of “function information” and “input / output device information” are the same as those of the first device individual information 122.
  • an input / output device built in the image display unit 20 and an input / output device externally attached to the image display unit 20 may be distinguished. In this case, for example, the value of the input / output device built in the image display unit 20 can be “HI”, and the value of the input / output device externally attached to the image display unit 20 can be “HO”.
  • FIG. 6 is a flowchart showing the procedure of the black box process.
  • the black box process is a process for black boxing the input / output device of the HMD 100 for various programs installed in the HMD 100.
  • the black box process is executed by the main control unit 300.
  • the main control unit 300 receives a plurality of requests connected to the HMD 100 in response to a request received from a program installed in the HMD 100 and specifying a function required by the program.
  • the input / output devices at least some of the input / output devices associated with the requested function are operated.
  • step S100 the main control unit 300 detects that the power of the HMD 100 is turned on.
  • step S ⁇ b> 102 the main control unit 300 acquires first device individual information 122 (FIG. 4) stored in the storage unit 120.
  • step S ⁇ b> 104 the main control unit 300 acquires the second device individual information 63 (FIG. 5) stored in the storage unit 62.
  • step S106 the main control unit 300 groups input / output devices for each function. Specifically, the main control unit 300 uses the first device individual information 122 (FIG. 4) acquired in step S102 and the second device individual information 63 (FIG. 5) acquired in step S104 as “function”. “Name” is used for grouping (in other words, a group is created with entries having the same “function name”), and the grouping result is stored in the storage unit 120 as grouping individual information GI.
  • the grouping individual information GI functions as “association”. Note that the main control unit 300 may perform the grouping of this step only inside the main control unit 300, and the storage in the storage unit 120 may be omitted.
  • FIG. 7 shows an example of the grouping individual information GI.
  • the group G1 is a group of input / output devices for realizing the “angular velocity acquisition” function.
  • the “angular velocity acquisition” function can be realized by using the “gyro sensor” of the device ID “D2”.
  • the “acquisition of angular velocity” function can be realized even if the “camera” having the device ID “D3” is used.
  • the group G6 is a group of input / output devices for realizing the “pointing operation” function.
  • the “pointing operation” function can be realized by using the track pad of the device ID “D7”. Similarly, it can be seen that the “pointing operation” function can also be realized using the mouse with the device ID “D8” or the cross key with the device ID “D9”.
  • the angular velocity can be obtained by obtaining the amount of change of the feature point and the time taken for the change (that is, the photographing interval). Similarly, acceleration can be obtained with a camera.
  • the main control unit 300 modularizes the grouped functions. Specifically, the main control unit 300 generates a module for each function corresponding to each group for each function in the grouping individual information GI (FIG. 7) in the main control unit 300. In step S108, the main control unit may assign an input / output device to a module generated in advance, instead of generating a module for each function inside the main control unit.
  • FIG. 8 is an explanatory diagram for explaining the module.
  • the “module” in the present embodiment is software in which one or more input / output devices for realizing a predetermined function are grouped into parts.
  • the “module” is software for operating at least a part of the input / output devices that are componentized in response to a request specifying a function from various programs installed in the HMD 100. is there.
  • an angular velocity acquisition module 301 for realizing the “angular velocity acquisition” function will be described as an example.
  • the angular velocity acquisition module 301 includes an individual function control unit 301a, a gyro sensor driver 301b, and a camera driver 301c.
  • the gyro sensor driver 301b and the camera driver 301c illustrated by broken lines store the gyro sensor device ID and the camera device ID in the angular velocity acquisition module 301 in step S110 of the black box process (FIG. 6). Can be used.
  • the individual function control unit 301a When the individual function control unit 301a receives a request designating a function from the program, the individual function control unit 301a operates the gyro sensor or the camera using either the gyro sensor driver 301b or the camera driver 301c, and Get the detection value by the sensor or camera. The individual function control unit 301a performs an operation on the detected value as necessary, and returns the obtained value as an “angular velocity” to the request source program.
  • the “request specifying a function” refers to various modes such as a function including module (ie, function) specification, a procedure including module specification (reference of properties, etc.), an instruction including module specification, and the like. Can be adopted. In the example of FIG.
  • a request by a function “getAV” is adopted.
  • the “AV” portion of “getAV” is the designation of the angular velocity acquisition module 301, in other words, the angular velocity acquisition function.
  • different modules have different functions, such as “getAC”.
  • the configuration may be such that the calculation content of the detection value by the individual function control unit 301a can be specified by specifying an argument.
  • the angular velocity can be obtained by accessing the angular velocity obtaining module 301 from any program installed in the HMD 100 using the common format “getAV”.
  • FIG. 9 shows an example of each modularized function.
  • modules corresponding to the nine groups in the grouping individual information GI are created in the main control unit 300, respectively.
  • the angular velocity acquisition module 301 is a module (software) corresponding to the “angular velocity acquisition” function of the group G1.
  • the acceleration acquisition module 302 is a module (software) corresponding to the “acceleration acquisition” function of the group G2. Note that the configuration and function of each module are the same as those described in FIG.
  • the main control unit 300 assigns an input / output device to each module. Specifically, the main control unit 300 can realize the function based on the grouping individual information GI (FIG. 7) for each module created by modularization for each function (step S108 in FIG. 6). “Device ID” and “in-module device ID” of each input / output device are stored. Here, when there are a plurality of input / output devices capable of realizing one function, the main control unit 300 stores the device IDs and module IDs of all the input / output devices. By storing the device ID and the module ID for each module, each module can use the input / output device via the driver of the input / output device (FIG. 8).
  • the main control unit 300 has the “gyro sensor” device ID “D2” and the in-module device ID “SG1” that can realize the “angular velocity acquisition” function, and the “angular velocity acquisition”.
  • the device ID “D3” of the “camera” capable of realizing the function and the device ID “SG2” in the module are stored. If there is only one input / output device capable of realizing a predetermined function, storage of the in-module device ID may be omitted.
  • step S112 the main control unit 300 selects one input / output device to be operated in each module.
  • the main control unit 300 can select an input / output device to be operated in the module according to any of the criteria a1 to a5 exemplified below.
  • the references a1 to a5 may be used alone or in combination. Also, different criteria (single or combination) may be used for each module.
  • the degree of association can be obtained by using data comparison such as character string comparison. For example, when the “type” of the function information is “sensor”, the main control unit 300 preferentially selects the input / output device whose “type” of information of the input / output device is “XXX sensor”. “X” is an arbitrary character string. Using this criterion, the main control unit 300 determines the degree of association between the type of function stored in the device individual information (first device individual information 122, second device individual information 63) and the type of input / output device. As a reference, an input / output device to be operated in the module can be selected. As a result, the main control unit 300 can select an input / output device that is more relevant to the type of function required by the program.
  • the accuracy of the input / output device is used as a reference.
  • the main control unit 300 preferentially selects an input / output device with higher accuracy of the input / output device.
  • “accuracy” can include all performances related to accuracy such as detection accuracy, operation accuracy, calculation accuracy, drawing accuracy, acquisition accuracy, and reproduction accuracy by the input / output device.
  • the main control unit 300 can obtain the “accuracy” of the input / output device by inquiring the device driver of the input / output device.
  • an “accuracy” field for storing the accuracy of the input / output device may be provided for the first device individual information 122 and the second device individual information 63. .
  • the main control unit 300 can select an input / output device based on the accuracy of the input / output device, and thus can select an input / output device with higher accuracy.
  • the main control unit 300 preferentially selects an input / output device having a faster input / output device speed.
  • the “speed” can include all speed-related performances such as the startup speed, detection speed, operation speed, calculation speed, drawing speed, acquisition speed, and playback speed of the input / output device.
  • the main control unit 300 can obtain the “speed” of the input / output device by inquiring the device driver of the input / output device.
  • the main control unit 300 may acquire the “speed” of the input / output device by a benchmark (processing for issuing a temporary command and measuring the processing speed).
  • the benchmark may be executed at an arbitrary timing such as when the HMD 100 is turned on or when an input / output device is detected.
  • a “speed” field for storing the speed of the input / output device may be provided for the first device individual information 122 and the second device individual information 63. . If this reference is used, the main control unit 300 can select an input / output device based on the speed of the input / output device, and therefore can select an input / output device with a higher speed.
  • the priority predetermined by the user of the HMD 100 is used as a reference.
  • the main control unit 300 may indicate all input / output device candidates that can be used for each function to the user, and may accept input of priority by the user.
  • the main control unit 300 may present the initial priority value to the user based on the past usage frequency of the input / output device for each function. If this standard is used, the main control unit 300 can select an input / output device based on a priority determined in advance by the user, and therefore selects an input / output device that suits the user's preference. Can do.
  • the information regarding the position where the input / output device is arranged in the HMD 100 is used as a reference.
  • the main control unit 300 preferentially selects the input / output device arranged in the control unit 10.
  • the main control unit 300 may preferentially select the input / output device arranged in the image display unit 20.
  • the main control unit 300 can select an input / output device that is more relevant to the type of function required by the program.
  • the accuracy of the input / output device of the reference a2 and the speed of the input / output device of the reference a3 are collectively referred to as “input / output device performance”.
  • the performance of the input / output device may include other indicators other than accuracy and speed, such as the number of pixels when driving the LCD or the camera.
  • FIG. 10 shows a state where one input / output device to be operated in each module is selected.
  • hatched input / output devices indicate selected input / output devices
  • hatched input / output devices indicate unselected input / output devices.
  • the device ID “D2” and the “gyro sensor” of the in-module device ID “SG1” are selected.
  • the module corresponding to the “acceleration acquisition” function of group G2 acceleration acquisition module 302
  • “acceleration sensor” of device ID “D4” and in-module device ID “SA1” is selected. .
  • the main control unit 300 accepts requests from various programs installed in the HMD 100.
  • “Request” means a request (function, procedure, command, etc.) specifying the function described in FIG.
  • the main control unit 300 operates the individual function control unit 301a of the module specified by the request.
  • the individual function control unit 301a operates the input / output device selected in step S112. Specifically, when the device selected in step S112 is an input device, the individual function control unit 301a acquires a detection value from the input device, calculates the detection value, and obtains the obtained value (angular velocity). Etc.) as a return value to the requesting program.
  • the individual function control unit 301a drives the output device (for example, in the case of the image display module 305, the LCD is driven). In this case, return of the return value may be omitted.
  • the operation of the individual function control unit 301a, the presence or absence of arguments, and return values differ depending on the nature of the input / output device controlled by each module. Thereafter, the main control unit 300 continues to wait for a request from the program.
  • the main control unit 300 requests (namely, functions and procedures) specifying functions received from various programs installed in the HMD 100.
  • a request specifying a function such as an instruction
  • at least some of the input / output devices associated with the specified function are operated from among the plurality of input / output devices.
  • the main control unit 300 associates the functions with the input / output devices by grouping a plurality of input / output devices according to the functions required by the program (step S106).
  • the main control unit 300 is grouped by the function specified in the request in response to the request specifying the function received from the program, and the input / output selected in the group (step S112)
  • the apparatus is operated (step S114). Therefore, the main control unit 300 can assign a plurality of input / output devices to one function required by the program, and only at least some of the input / output devices of the assigned plurality of input / output devices. Can be operated. In this way, the program developer does not need to be aware of the type of input / output device to be used when creating the program, and it is only necessary to include a request specifying the “function” to be used in the program. As a result, in the program development for the information processing apparatus (HMD 100), it is possible to realize the program development that does not need to be aware of the type of input / output device to be used.
  • the main control unit 300 is connected to the “function name” indicating the content of the function required by the program installed in the HMD 100 and the HMD 100.
  • the device type information (the first device individual information 122 and the second device individual information 63) stored in association with the “type” of the input / output device being used is simply and easily stored for each function. I / O device grouping can be implemented.
  • the main control unit 300 includes a function, a procedure, and an instruction, which are means generally used in the program.
  • the input / output device can be operated in response to a request from at least one of them.
  • Variant 1 In the first modification, the main control unit 300 improves the availability of the information processing apparatus by selecting two or more input / output devices.
  • the main control unit 300 selects two or more input / output devices to be operated in each module. For the two or more selected input / output devices, the main control unit 300 is such that the first highest priority input / output device is a gyro sensor, and the second highest priority input / output device is a camera. , Prioritize.
  • step S114 the main control unit 300 operates the input / output device having the highest priority in the module specified by the request from the program installed in the HMD 100.
  • the main control unit 300 detects an abnormality in the behavior of the operated input / output device
  • the main control unit 300 operates the input / output device with the next highest priority in the module.
  • an abnormality is detected in the behavior, for example, when the detected value by the input / output device is a value that is not normally possible, when there is no response from the input / output device for a predetermined time, an error response is received from the input / output device. If received, etc. If three or more input / output devices are selected, the same process may be repeated.
  • the main control unit 300 selects two or more input / output devices from each group in step S106, and first, in response to the request specifying the function received from the program, the main control unit 300 is specified in the request. And the input / output device having the highest priority in the group is operated. When there is an abnormality in the input / output device operated first, the main control unit 300 operates the input / output device having the next highest priority in the group. For this reason, even when there is an abnormality in a certain input / output device, the main control unit 300 can respond to a request from a program using another input / output device. As a result, the availability of the information processing apparatus (HMD 100) can be improved.
  • the priority order for the input / output device can be given at an arbitrary timing.
  • the main control unit 300 may give priority to the grouped input / output devices at the time of grouping in step S106. In this case, in step S112, the main control unit 300 only needs to select an input / output device to be operated in each module.
  • Variant 2 In the second modification, the main control unit 300 also sets an input / output device included in another information processing apparatus connected to the HMD 100 as a target for black box processing.
  • step S100 of FIG. 6 the main control unit 300 detects that the power of the HMD 100 has been turned on and tries to detect other information processing apparatuses connected to the HMD 100.
  • arbitrary apparatuses such as HMD, a smart phone, and a personal computer, are employable as another information processing apparatus.
  • the connection between the HMD 100 and another information processing apparatus may be a wireless connection such as a wireless LAN or near field communication, or a wired connection.
  • step S104 the main control unit 300 also acquires information on input / output devices connected to the other information processing apparatus.
  • step S106 the main control unit groups the first device individual information, the second device individual information, and information on the input / output devices connected to other information processing devices.
  • the subsequent steps S108 to S114 are as described in the above embodiment.
  • the main control unit 300 of the HMD 100 when the main control unit 300 of the HMD 100 detects another information processing apparatus connected to the HMD 100, the other information processing apparatus also has a functional unit corresponding to the main control unit 300 (hereinafter referred to as the main control unit 300).
  • the main control unit of another information processing apparatus In the presence of “the main control unit of another information processing apparatus”), the following processing may be performed after detecting the connection of both apparatuses.
  • the main control unit 300 of the HMD 100 determines a master / slave relationship with the main control unit of another information processing apparatus.
  • the master control unit that has become the master executes in parallel two black box processings for the program installed in the HMD 100 and for the program installed in another information processing apparatus.
  • the main control unit 300 of the HMD 100 and the main control unit of another information processing apparatus individually execute black box processing.
  • the main control unit 300 of the HMD 100 receives a request from a program installed in the HMD 100, and the main control unit of the other information processing apparatus is installed in the other information processing apparatus. Accepts requests from running programs.
  • the main control unit 300 includes (is connected to) another information processing device connected to the information processing device. ) It is also possible to select an input / output device and operate a function received from a program according to a specified request.
  • ⁇ Modification 1 In the said embodiment, it illustrated about the structure of HMD.
  • the configuration of the HMD can be arbitrarily determined without departing from the gist of the present invention.
  • each component can be added, deleted, converted, and the like.
  • control unit and the image display unit in the above embodiment is merely an example, and various modes can be adopted. For example, the following aspects may be adopted.
  • Processing functions such as a CPU and a memory are provided in both the control unit and the image display unit.
  • a mode in which the control unit and the image display unit are integrated for example, a mode in which the control unit is included in the image display unit and functions as a glasses-type wearable computer
  • control unit A mode in which a smartphone or a portable game machine is used.
  • control unit and the image display unit are connected by connection via a wireless signal transmission path such as a wireless LAN, infrared communication, or Bluetooth, and the connection unit (code) is connected. Abolished aspect. In this case, power supply to the control unit or the image display unit may be performed wirelessly.
  • a wireless signal transmission path such as a wireless LAN, infrared communication, or Bluetooth
  • the configurations of the control unit and the image display unit exemplified in the above embodiment can be arbitrarily changed.
  • the control unit includes the transmission unit and the image display unit includes the reception unit.
  • both the transmission unit and the reception unit have a function capable of bidirectional communication. It may be provided and may function as a transmission / reception unit. Further, for example, a part of an operation interface (such as various keys and a trackpad) provided in the control unit may be omitted.
  • the control unit may be provided with another operation interface such as an operation stick.
  • the secondary battery is used as the power source, the power source is not limited to the secondary battery, and various batteries can be used.
  • a primary battery, a fuel cell, a solar cell, a thermal cell, or the like may be used.
  • FIG. 11 is an explanatory diagram showing the configuration of the appearance of the HMD in the modification.
  • the image display unit 20x includes a right optical image display unit 26x instead of the right optical image display unit 26, and a left optical image display unit 28x instead of the left optical image display unit 28. I have.
  • the right optical image display unit 26x and the left optical image display unit 28x are formed smaller than the optical member of the above-described embodiment, and are respectively disposed obliquely above the right eye and the left eye of the user when the HMD is worn.
  • the image display unit 20y includes a right optical image display unit 26y instead of the right optical image display unit 26, and a left optical image display unit 28y instead of the left optical image display unit 28. I have.
  • the right optical image display unit 26y and the left optical image display unit 28y are formed smaller than the optical member of the above-described embodiment, and are respectively disposed obliquely below the right eye and the left eye of the user when the HMD is mounted. .
  • the optical image display unit is disposed in the vicinity of the user's eyes.
  • the size of the optical member forming the optical image display unit is also arbitrary, and the optical image display unit covers only a part of the user's eyes, in other words, the optical image display unit completely covers the user's eyes. It can also be realized as an HMD in an uncovered form.
  • each processing unit for example, an image processing unit, a display control unit, or the like main control unit
  • the control unit is executed by a CPU developing a computer program stored in a ROM or a hard disk in the RAM and executing it. Described as being realized.
  • these functional units may be configured using an ASIC (Application Specific Integrated Circuit) designed to realize the function.
  • Each processing unit may be arranged in the image display unit instead of the control unit.
  • the HMD is a binocular transmissive HMD, but may be a monocular HMD. Further, it may be configured as a non-transparent HMD that blocks the transmission of outside scenes when the user wears the HMD, or may be configured as a video see-through in which a camera is mounted on the non-transparent HMD.
  • an ordinary flat display device a liquid crystal display device, a plasma display device, an organic EL display device, etc.
  • the connection between the control unit and the image display unit may be a connection via a wired signal transmission path or a connection via a wireless signal transmission path.
  • a control part can also be utilized as a remote control of a usual flat type display device.
  • an image display unit having another shape such as an image display unit worn like a hat may be adopted as the image display unit.
  • the earphone may be an ear-hook type or a headband type, or may be omitted.
  • it may be configured as a head-up display (HUD, Head-Up Display) mounted on a vehicle such as an automobile or an airplane, or other transportation means.
  • HUD Head-Up Display
  • you may comprise as HMD incorporated in body armor, such as a helmet.
  • it may be configured as a handheld display.
  • the image light generation unit is configured using a backlight, a backlight control unit, an LCD, and an LCD control unit.
  • the image light generation unit may include a configuration unit for realizing another method together with or in place of these configuration units.
  • the image light generation unit may include an organic EL (Organic Electro-Luminescence) display and an organic EL control unit.
  • the image generation unit can use a digital micromirror device or the like instead of the LCD.
  • the present invention can be applied to a laser retinal projection type head-mounted display device.
  • Modification 2 In the said embodiment, it illustrated about the structure of the module produced
  • the configuration of the module can be arbitrarily determined without departing from the gist of the present invention.
  • each component can be added, deleted, converted, and the like.
  • the main control unit may generate one module including submodules for each function.
  • “function specification” from a program may be realized using a function argument.
  • the program may request “get (av)” when using the angular velocity acquisition submodule and request “get (ac)” when using the acceleration acquisition submodule.
  • modules and submodules may be implemented as library programs.
  • the main control unit acquires the first device individual information and the second device individual information.
  • the main control unit may automatically generate the device individual information instead of acquiring the information.
  • the main control unit can automatically generate the device individual information by acquiring the information of the input / output device.
  • the main control unit is connected to the outside (for example, a server on the Internet) in order to obtain other information (for example, type) of the device from certain information (for example, model number) of the device. Also good.
  • the main control unit may target only the input / output devices that are currently connected to the HMD and that can be used within a predetermined period of time. In this way, it is possible to suppress a delay in processing as a result of selecting an input / output device that requires a predetermined time or more before it can be used.
  • the predetermined time can be arbitrarily determined, but in order to suppress the processing delay, it is preferable that the predetermined time is a short time, for example, within 3 seconds.
  • the main control unit may re-execute the processes of steps S102 to S114 when detecting a connection of a new input / output device to the HMD.
  • the black box process can be executed in a plug and play manner.
  • the main control unit can change the input / output device selected in step S112 according to the designation of the user.
  • the designation of the user for example, a method of knocking near the input / output device to be used may be adopted. Further, for example, a method of selecting from the setting screen of the HMD may be employed, or a method of recognizing the name of the input / output device desired to be used may be employed.
  • the main control unit when there is no module corresponding to the function specified in the request received from the program, or in the second modification, the main control unit has abnormal behavior in all of the selected plurality of input / output devices. May be displayed or notified to notify the user of the HMD. In this case, the request source program may proceed without using the designated function.
  • Image data Data1 ... Right eye image data, Data2 ... Left eye image data, OA ... External device, PC ... Personal computer, SC ... Outside view, VI ... Virtual image, VR ... Field of view, RE ... Right eye, LE ... Left Eye, ER ... end, EL ... end.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • User Interface Of Digital Computer (AREA)
  • Stored Programmes (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

 情報処理装置用のプログラム開発において、使用する入出力装置の種類を意識する必要のないプログラム開発を可能とする情報処理装置を提供する。 情報処理装置は、任意の処理を実行するプログラムによって使用される複数の入出力装置と、プログラムから受信した要求であって、プログラムが必要とする機能を指定した要求に応じて、複数の入出力装置の中から、機能に対応付けられている入出力装置のうちの少なくとも一部を動作させる主制御部と、を備える。

Description

情報処理装置、情報処理装置を制御する方法、コンピュータープログラム
 本発明は、情報処理装置に関する。
 頭部に装着する表示装置である頭部装着型表示装置(ヘッドマウントディスプレイ(Head Mounted Display、HMD))が知られている。HMDは、例えば、液晶ディスプレイと光源とを利用して画像を表す画像光を生成し、生成された画像光を投写光学系や導光板等を利用して使用者の眼に導くことにより、使用者に虚像を認識させる。特許文献1には、HMDに予め記憶されている個別情報に応じた態様で、画像光を生成する技術が記載されている。
特開2012-163637号公報 特開2003-61163号公報
 上述したHMDには、例えば、オペレーティングシステムや、アプリケーションプログラムといった、任意の処理を実行するためのプログラムがインストールされている。これらのプログラムは、例えば、加速度センサー、ボタン、LCDといった、様々な種類の入出力装置を利用して、処理を実行する。従来、プログラムがどの種類の入出力装置を利用するかは、プログラムが実行する処理に必要とされる機能に応じて、予めプログラムの開発者によって定められ、プログラム内に記憶されていた。すなわち、従来では、プログラムの作成時において、プログラムの開発者は、使用する入出力装置の種類を意識する必要があるという課題があった。このような課題は、HMDに限らず、例えばパーソナルコンピューターや、スマートフォン等の情報処理装置全般に共通する課題であった。特許文献1、2に記載の技術では、上述の課題については何ら考慮されていない。
 このため、情報処理装置用のプログラム開発において、使用する入出力装置の種類を意識する必要のないプログラム開発を可能とする情報処理装置を提供することが望まれていた。そのほか、情報処理装置には、小型化、低コスト化、省資源化、製造の容易化、使い勝手の向上等が望まれている。
 本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態として実現することが可能である。
(1)本発明の一形態によれば、情報処理装置が提供される。この情報処理装置は、任意の処理を実行するプログラムによって使用される複数の入出力装置と、前記プログラムから受信した要求であって、前記プログラムが必要とする機能を指定した要求に応じて、前記複数の入出力装置の中から、前記機能に対応付けられている前記入出力装置のうちの少なくとも一部を動作させる主制御部と、を備える。この形態の情報処理装置によれば、主制御部は、プログラムから受信した機能を指定した要求に応じて、複数の入出力装置の中から、指定された機能に対応付けられている入出力装置のうちの少なくとも一部を動作させる。このため、プログラム開発者は、プログラムの作成時において使用する入出力装置の種類を意識する必要がなく、プログラム内に、使用したい「機能」を指定した要求を含めるだけでよい。この結果、情報処理装置用のプログラム開発において、使用する入出力装置の種類を意識する必要のないプログラム開発を実現させることができる。
(2)上記形態の情報処理装置において、前記主制御部は、前記複数の入出力装置を前記プログラムが必要とする機能毎にグループ化することで前記対応付けを行い、各グループから少なくとも1つの前記入出力装置を所定の基準に基づいて選択し、前記要求に応じて、当該グループ内で選択されている前記入出力装置を動作させてもよい。この形態の情報処理装置によれば、主制御部は、複数の入出力装置をプログラムが必要とする機能毎にグループ化することで、機能と入出力装置との対応付けを行う。また、主制御部は、プログラムから受信した機能を指定した要求に応じて、当該グループ内で選択されている入出力装置を動作させる。このため、主制御部は、プログラムが必要とする1つの機能に対して複数の入出力装置を割り当てることができ、割り当てられた複数の入出力装置のうちの少なくとも一部の入出力装置のみを動作させることができる。
(3)上記形態の情報処理装置では、さらに、前記情報処理装置に接続されている入出力装置の情報が記憶されている機器個別情報であって、少なくとも、前記機能の内容を表す機能名と、前記入出力装置の種類と、が対応付けて記憶されている機器個別情報を記憶する記憶部を備え、前記主制御部は、前記機器個別情報を取得し、取得した前記機器個別情報の前記機能名を用いて前記グループ化を実施してもよい。この形態の情報処理装置によれば、主制御部は、プログラムが必要とする機能の内容を表す機能名と、入出力装置の種類と、が対応付けて記憶されている機器個別情報を利用して、簡便に、機能毎の入出力装置のグループ化を実施することができる。
(4)上記形態の情報処理装置において、前記機器個別情報には、前記機能名に対応付けられて、さらに、前記機能の種類と、前記情報処理装置において前記入出力装置が配置されている位置に関する情報と、が記憶され、前記主制御部は、前記機器個別情報に記憶されている前記機能の種類と、前記入出力装置の種類との関連度と、前記入出力装置の性能と、前記情報処理装置の利用者によって予め定めされている優先度と、前記位置に関する情報と、のうちの少なくともいずれか1つを基準として前記選択を実施してもよい。この形態の情報処理装置によれば、主制御部は、機器個別情報に記憶されている機能の種類と入出力装置の種類との関連度を基準として入出力装置を選択することができるため、プログラムが必要とする機能の種類に対して、より関連性の高い入出力装置を選択することができる。また、主制御部は、入出力装置の性能を基準として入出力装置を選択することができるため、より性能の高い入出力装置を選択することができる。また、主制御部は、利用者によって予め定められている優先度を基準として入出力装置を選択することができるため、利用者の好みに合った入出力装置を選択することができる。また、主制御部は、情報処理装置において入出力装置が配置されている位置に関する情報を基準として入出力装置を選択することができるため、プログラムが必要とする機能の種類に対して、より関連性の高い入出力装置を選択することができる。
(5)上記形態の情報処理装置において、前記主制御部は、前記各グループから2つ以上の前記入出力装置を選択し、前記要求に応じて、当該グループ内で最も優先順位の高い前記入出力装置を動作させ、動作させた前記入出力装置に異常がある場合は、当該グループ内で次に優先順位の高い前記入出力装置を動作させてもよい。この形態の情報処理装置によれば、主制御部は、各グループから2つ以上の入出力装置を選択し、プログラムから受信した機能を指定した要求に応じて、当該グループ内で最も優先順位の高い入出力装置を動作させる。最初に動作させた入出力装置に異常がある場合、主制御部は、当該グループ内で次に優先順位の高い入出力装置を動作させる。このため、ある入出力装置に異常がある場合であっても、主制御部は、他の入出力装置を利用してプログラムからの要求に応じることができる。この結果、情報処理装置の可用性を向上させることができる。
(6)上記形態の情報処理装置において、前記主制御部は、前記情報処理装置の前記複数の入出力装置と共に、前記情報処理装置に接続されている他の情報処理装置が備える複数の入出力装置を、前記プログラムが必要とする機能毎にグループ化することで前記対応付けを行った後、前記選択および前記動作を実行してもよい。この形態の情報処理装置によれば、主制御部は、情報処理装置の入出力装置に加えて、情報処理装置に接続されている他の情報処理装置が備える入出力装置をも、プログラムから受信した機能を指定した要求に応じて動作させることができる。
(7)上記形態の情報処理装置において、前記主制御部は、前記グループ化の対象を、アクティブ状態である前記入出力装置に限定してもよい。この形態の情報処理装置によれば、主制御部は、グループ化の対象をアクティブ状態である入出力装置に限定するため、処理の遅延を抑制することができる。
(8)上記形態の情報処理装置において、前記機能を指定した前記要求とは、前記機能の指定を含む関数と、前記機能の指定を含む手順と、前記機能の指定を含む命令と、のうちの少なくともいずれかであってもよい。この形態の情報処理装置によれば、主制御部は、プログラム中において一般的に使用されている手段である、関数と、手順と、命令と、のうちの少なくともいずれかによる要求に応じて、入出力装置を動作させることができる。この結果、プログラム開発者における利便性を向上させることができる。
 上述した本発明の各形態の有する複数の構成要素は全てが必須のものではなく、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、適宜、前記複数の構成要素の一部の構成要素について、その変更、削除、新たな構成要素との差し替え、限定内容の一部削除を行うことが可能である。また、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、上述した本発明の一形態に含まれる技術的特徴の一部または全部を上述した本発明の他の形態に含まれる技術的特徴の一部または全部と組み合わせて、本発明の独立した一形態とすることも可能である。
 例えば、本発明の一形態は、複数の入出力装置と、主制御部と、の2つの要素のうちの一部または全部の要素を備えた装置として実現可能である。すなわち、この装置は、複数の入出力装置を有していてもよく、有していなくてもよい。また、この装置は、主制御部を有していてもよく、有していなくてもよい。こうした装置は、例えば情報処理装置として実現できるが、情報処理装置以外の他の装置としても実現可能である。前述した情報処理装置の各形態の技術的特徴の一部または全部は、いずれもこの装置に適用することが可能である。
 なお、本発明は、種々の態様で実現することが可能であり、例えば、情報処理装置および情報処理装置の制御方法、情報処理装置を含む情報処理システム、頭部装着型表示装置および頭部装着型表示装置の制御方法、頭部装着型表示装置を含む画像表示システム、これらの方法、装置、システムの機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体等の形態で実現することができる。
本発明の一実施形態における情報処理装置の概略構成を示す説明図である。 情報処理装置としてのHMD100の構成を機能的に示すブロック図である。 利用者に視認される虚像の一例を示す説明図である。 第1の機器個別情報の一例を示す説明図である。 第2の機器個別情報の一例を示す説明図である。 ブラックボックス化処理の手順を示すフローチャートである。 グループ化個別情報GIの一例を示している。 モジュールについて説明するための説明図である。 モジュール化された各機能の一例を示している。 各モジュール内で動作させる1つの入出力装置が選択された様子を示している。 変形例におけるHMDの外観の構成を示す説明図である。
A.実施形態:
A-1.情報処理装置の構成:
 図1は、本発明の一実施形態における情報処理装置の概略構成を示す説明図である。本実施形態の情報処理装置100は、頭部に装着する頭部装着型表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。HMD100は、使用者が、虚像を視認すると同時に外景も直接視認可能な光学透過型のヘッドマウントディスプレイである。本実施形態のHMD100は、HMD100にインストールされているプログラムに対して、HMD100の入出力装置をブラックボックス化するための主制御部を備える。具体的には、主制御部は、HMD100にインストールされているプログラムから受信した要求であって、当該プログラムが必要とする機能を指定した要求に応じて、HMD100に接続されている複数の入出力装置の中から、要求された機能に対応付けられている入出力装置の内の少なくとも一部の入出力装置を動作させる。ここで「機能」とは、HMD100に接続されている入出力装置によって実現される役割を意味する。「機能」としては、十字キー操作機能、音量操作機能、画像表示機能、加速度取得機能、角速度取得機能等が例示される。
 HMD100は、使用者の頭部に装着された状態において使用者に虚像を視認させる画像表示部20と、画像表示部20を制御する制御部(コントローラー)10とを備えている。なお、以降の説明において、HMD100によって使用者が視認する虚像を便宜的に「表示画像」とも呼ぶ。また、HMD100が画像データーに基づいて生成された画像光を射出することを「画像を表示する」ともいう。
A-1-1.画像表示部の構成:
 図2は、情報処理装置としてのHMD100の構成を機能的に示すブロック図である。図1に示すように、画像表示部20は、利用者の頭部に装着される装着体であり、本実施形態では眼鏡形状である。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、カメラ61と、9軸センサー66と、記憶部62と、を備えている。以降、利用者が画像表示部20を装着した状態における、画像表示部20の各部の位置関係と機能について説明する。
 図1に示すように、右光学像表示部26および左光学像表示部28は、利用者の右の眼前と、左の眼前とにそれぞれ位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、利用者の眉間に対応する位置で接続されている。図2に示すように、右光学像表示部26は、右導光板261と調光板(図示省略)とを備えている。右導光板261は、光透過性の樹脂材料等によって形成され、右表示駆動部22から出力された画像光を、所定の光路に沿って反射させつつ利用者の右眼REに導く。調光板は、薄板状の光学素子であり、画像表示部20の表側(利用者の眼の側とは反対の側)を覆うように配置されている。調光板は、導光板261を保護し、導光板261の損傷や汚れの付着等を抑制する。また、調光板の光透過率を調整することによって、利用者の眼に入る外光量を調整して虚像の視認のしやすさを調整することができる。なお、調光板は省略可能である。
 左光学像表示部28は、左導光板262と調光板(図示省略)とを備えている。これらの詳細は、右光学像表示部26と同様である。なお、右光学像表示部26および左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。光学像表示部は、画像光を用いて利用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いて実現されても良いし、半透過反射膜を用いて実現されても良い。
 図1に示すように、右保持部21は、右光学像表示部26の他端ERから利用者の側頭部に対応する位置にかけて延伸して設けられている。左保持部23は、左光学像表示部28の他端ELから利用者の側頭部に対応する位置にかけて、延伸して設けられている。右保持部21および左保持部23は、眼鏡のテンプル(つる)のようにして、利用者の頭部に画像表示部20を保持する。なお、右保持部21および左保持部23を総称して単に「保持部」とも呼ぶ。
 図1に示すように、右表示駆動部22は、右保持部21の内側(利用者の頭部に対向する側)に配置されている。左表示駆動部24は、左保持部23の内側に配置されている。図2に示すように、右表示駆動部22は、受信部(Rx)53と、光源として機能する右バックライト(BL)制御部201および右バックライト(BL)221と、表示素子として機能する右LCD(液晶ディスプレイ、Liquid Crystal Display)制御部211および右LCD241と、右投写光学系251とを備えている。なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して「画像光生成部」とも呼ぶ。受信部53は、制御部10と画像表示部20との間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201は、入力された制御信号に基づいて右バックライト221を駆動する。右バックライト221は、例えばLED(Light Emitting Diode)やエレクトロルミネセンス(EL)等の発光体である。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データーData1とに基づいて、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。右投写光学系251は、右LCD241から射出された画像光を並行状態の光束にするコリメートレンズである。
 左表示駆動部24は、受信部(Rx)54と、光源として機能する左バックライト(BL)制御部202および左バックライト(BL)222と、表示素子として機能する左LCD制御部212および左LCD242と、左投写光学系252とを備えている。これらの詳細は、右表示駆動部22と同様である。なお、右表示駆動部22および左表示駆動部24を総称して単に「表示駆動部」とも呼ぶ。
 カメラ61は、利用者の右側の目尻に対応する位置に配置されている。カメラ61は、画像表示部20の表側方向、換言すれば、ヘッドマウントディスプレイ100を装着した状態における使用者の視界方向の外景(外部の景色)を撮像し、外景画像を取得する。カメラ61はいわゆる可視光カメラであり、カメラ61により取得される外景画像は、物体から放射される可視光から物体の形状を表す画像である。本実施形態におけるカメラ61は単眼カメラであるが、ステレオカメラとしてもよい。
 9軸センサー66は、利用者の右側のこめかみに対応する位置に配置されている。9軸センサー66は、加速度(3軸)、角速度(3軸)、地磁気(3軸)を検出するモーションセンサーである。9軸センサー66は、画像表示部20に設けられているため、画像表示部20が頭部に装着されているときには、頭部の動きを検出する「動き検出部」として機能する。ここで、頭部の動きとは、頭部の速度・加速度・角速度・向き・向きの変化を含む。
 記憶部62は、ROM、RAM、DRAM、ハードディスク等によって構成されている。記憶部62には、第2の機器個別情報63が予め記憶されている。第2の機器個別情報63には、画像表示部20に接続されている入出力装置の情報が記憶されている。ここで「接続」とは、画像表示部20の回路基板に内部的に接続されている(いわゆる内蔵の)入出力装置と、画像表示部20に対して外部的に接続されている(いわゆる外付けの)入出力装置と、の両方を含む。内蔵および外付けの入出力装置における接続方法は、有線接続と、無線接続とのどちらでもよい。第2の機器個別情報63の詳細は後述する。
 図1に示すように、画像表示部20は、画像表示部20と制御部10とを接続するための接続部40を備えている。接続部40は、制御部10に接続される本体コード48と、本体コード48が分岐した右コード42および左コード44と、分岐点に設けられた連結部材46と、を含んでいる。右コード42は、右表示駆動部22に接続され、左コード44は、左表示駆動部24に接続されている。連結部材46には、イヤホンプラグ30を接続するためのジャックが設けられている。イヤホンプラグ30からは、右イヤホン32および左イヤホン34が延伸している。本体コード48における連結部材46とは反対側の端部には、コネクター(図示省略)が設けられている。このコネクターは、制御部10に設けられたコネクター(図示省略)との嵌合/嵌合解除により、制御部10と画像表示部20との接続/接続解除を実現する。画像表示部20と制御部10とは、接続部40を介して各種信号の伝送を行う。右コード42と、左コード44と、本体コード48には、例えば、金属ケーブルや光ファイバーを採用することができる。
A-1-2.制御部の構成:
 図1に示すように、制御部10はHMD100を制御するための装置である。制御部10は、決定キー11と、点灯部12と、表示切替キー13と、トラックパッド14と、輝度切替キー15と、方向キー16と、メニューキー17と、電源スイッチ18と、を備えている。決定キー11は、押下操作を検出して、制御部10において操作された内容を決定するための信号を出力する。点灯部12は、例えばLEDによって実現され、HMD100の動作状態(例えば電源のON/OFF等)を発光状態によって通知する。表示切替キー13は、押下操作を検出して、例えばコンテンツ動画の表示モードを3Dと2Dとに切り替える信号を出力する。トラックパッド14は、トラックパッド14の操作面上における利用者の指の操作を検出して、検出内容に応じた信号を出力する。トラックパッド14としては、静電式や圧力検出式、光学式といった種々の方式を採用できる。輝度切替キー15は、押下操作を検出して、画像表示部20の輝度を増減する信号を出力する。方向キー16は、上下左右方向に対応するキーへの押下操作を検出して、検出内容に応じた信号を出力する。電源スイッチ18は、スイッチのスライド操作を検出することで、HMD100の電源投入状態を切り替える。
 図2に示すように、制御部10は、入力情報取得部110と、記憶部120と、電源130と、無線通信部132と、GPSモジュール134と、CPU140と、インターフェイス180と、送信部(Tx)51および52とを備え、各部は図示しないバスにより相互に接続されている。
 入力情報取得部110は、決定キー11、表示切替キー13、トラックパッド14、輝度切替キー15、方向キー16、メニューキー17、および、電源スイッチ18に対する操作入力に応じた信号を取得する。入力情報取得部110は、上記以外の種々の方法を用いた操作入力を取得することができる。例えば、フットスイッチ(利用者の足により操作するスイッチ)による操作入力を取得してもよい。例えば、視線検出部によって検出された利用者の視線や、目の動きに対応付けられたコマンドによる操作入力を取得してもよい。このコマンドは利用者によって追加可能に設定されていてもよい。例えば、利用者の視界方向の画像を撮影するカメラを用いて利用者のジェスチャーを検知し、ジェスチャーに対応付けられたコマンドによる操作入力を取得してもよい。ジェスチャー検知の際は、利用者の指先や、利用者の手に付けられた指輪や、利用者の手にする医療器具等を動き検出のための目印にすることができる。フットスイッチや視線による操作入力を取得可能とすれば、利用者が手を離すことが困難である作業においても、入力情報取得部110は、利用者からの操作入力を取得することができる。
 記憶部120は、ROM、RAM、DRAM、ハードディスク等によって構成されている。記憶部120には、オペレーティングシステム(ОS)をはじめとする種々のコンピュータープログラムが格納されている。また、記憶部120には、第1の機器個別情報122が予め記憶されている。第1の機器個別情報122には、制御部10に接続されている入出力装置の情報が記憶されている。ここで「接続」とは、制御部10の回路基板に内部的に接続されている入出力装置と、制御部10に対して外部的に接続されている入出力装置と、の両方を含む。内蔵および外付けの入出力装置における接続方法は、有線接続と、無線接続とのどちらでもよい。第1の機器個別情報122の詳細は後述する。
 電源130は、HMD100の各部に電力を供給する。電源130としては、例えば二次電池を用いることができる。
 無線通信部132は、所定の無線通信規格に則って、外部装置との間で無線通信を行う。所定の無線通信規格とは、例えば、赤外線、Bluetooth(登録商標)に例示される近距離無線通信、IEEE802.11に例示される無線LAN等である。
 GPSモジュール134は、GPS衛星からの信号を受信することにより、HMD100の使用者の現在位置を検出し、使用者の現在位置情報を表す現在位置情報を生成する。現在位置情報は、例えば緯度経度を表す座標によって実現することができる。
 CPU140は、記憶部120に格納されているコンピュータープログラムを読み出して実行することにより、主制御部300、OS150、画像処理部160、音声処理部170、表示制御部190として機能する。
 主制御部300は、HMD100にインストールされているプログラムに対して、HMD100の入出力装置をブラックボックス化するための処理(以降「ブラックボックス化処理」とも呼ぶ。)を実行する。ここで、HMD100にインストールされているプログラムとは、OS150の機能を実現するためのプログラムと、画像処理部160の機能を実現するためのプログラムと、音声処理部170の機能を実現するためのプログラムと、表示制御部190の機能を実現するためのプログラムと、記憶部120に格納されている上記以外の種々のアプリケーションプログラムと、を含む。
 画像処理部160は、インターフェイス180や無線通信部132を介して入力されるコンテンツ(映像)に基づいて信号を生成する。例えば、コンテンツがディジタル形式の場合、画像処理部160は、クロック信号PCLKと、画像データーDataとを生成する。なお、ディジタル形式の場合、クロック信号PCLKが画像信号に同期して出力されるため、垂直同期信号VSyncおよび水平同期信号HSyncの生成と、アナログ画像信号のA/D変換とは不要である。画像処理部160は、生成されたクロック信号PCLK、垂直同期信号VSync、水平同期信号HSyncと、記憶部120内のDRAMに格納された画像データーDataとを、送信部51、52を介して、画像表示部20へ送信する。送信部51を介して送信される画像データーDataを「右眼用画像データーData1」とも呼び、送信部52を介して送信される画像データーDataを「左眼用画像データーData2」とも呼ぶ。なお、画像処理部160は、記憶部120に格納された画像データーDataに対して、解像度変換処理、輝度や彩度の調整といった種々の色調補正処理、キーストーン補正処理等の画像処理を実行してもよい。
 表示制御部190は、右表示駆動部22および左表示駆動部24を制御する制御信号を生成する。具体的には、表示制御部190は、制御信号により、左右のLCD制御部211、212による左右のLCD241、242の駆動ON/OFFや、左右のバックライト制御部201、202による左右のバックライト221、222の駆動ON/OFFを個別に制御することにより、右表示駆動部22および左表示駆動部24のそれぞれによる画像光の生成および射出を制御する。表示制御部190は、これらの制御信号を、送信部51、52を介して画像表示部20へ送信する。
 音声処理部170は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、右イヤホン32の図示しないスピーカーと、左イヤホン34の図示しないスピーカーとに対して供給する。
 インターフェイス180は、所定の有線通信規格に則って、外部装置OAとの間で通信を行う。所定の有線通信規格としては、例えば、MicroUSB(Universal Serial Bus)、USB、HDMI(登録商標)(High Definition Multimedia Interface)、DVI(Digital Visual Interface)、VGA(Video Graphics Array)、コンポジット、RS-232C(Recommended Standard 232)、IEEE802.3に例示される有線LAN等である。外部機器ОAとしては、例えば、パーソナルコンピューターPCや携帯電話端末、ゲーム端末等を利用することができる。
 図3は、利用者に視認される虚像の一例を示す説明図である。上述のようにして、HMD100の利用者の両眼に導かれた画像光が利用者の網膜に結像することにより、利用者は虚像VIを視認する。図の例では、虚像VIは、HMD100のOS150の待ち受け画面である。また、利用者は、右光学像表示部26および左光学像表示部28を透過して外景SCを視認する。このように、本実施形態のHMD100の利用者は、視野VRのうち虚像VIが表示された部分については、虚像VIと、虚像VIの背後の外景SCとを見ることができる。また、視野VRのうち虚像VIが表示されていない部分については、光学像表示部を透過して、外景SCを直接見ることができる。
A-2.機器個別情報:
 図4は、第1の機器個別情報の一例を示す説明図である。第1の機器個別情報122には、制御部10(図2)に接続されている入出力装置の情報が予め記憶されている。第1の機器個別情報122には、機能の情報と、入出力装置の情報と、が対応付けて記憶されている。
 「機能の情報」は、機能(すなわち、入出力装置によって実現される役割)についての情報である。機能の情報には、種類と、機能名と、が含まれている。「種類」は、機能の種類を表す名称、換言すれば、機能の大まかな分類を表す名称である。「機能名」は、機能の実際の内容を表す名称である。
 「入出力装置の情報」は、HMD100の制御部10に接続されている入出力装置についての情報である。入出力装置の情報には、装置IDと、モジュール内装置IDと、種類と、位置と、が含まれている。「装置ID」は、入出力装置を相互に識別するために、各入出力装置に対して付与されている識別子である。「モジュール内装置ID」は、機能(機能名)と入出力装置(装置ID)との組み合わせを相互に識別するために付与されている識別子である。「種類」は、入出力装置の種類を表す名称、換言すれば、入出力装置がどのような働きをするのかを表す名称である。「位置」は、入出力装置が接続されている場所を表す記号である。本実施形態では、位置に「C」が格納されている場合、当該入出力装置は制御部10に接続されていることを意味し、位置に「H」が格納されている場合、当該入出力装置は画像表示部20に接続されていることを意味する。第1の機器個別情報122は、制御部10に接続されている入出力装置についての情報であるため、位置には全て「C」が格納されている。なお、位置のフィールドにおいて、制御部10に内蔵されている入出力装置と、制御部10に外付けされている入出力装置とを区別してもよい。この場合、例えば、制御部10に内蔵されている入出力装置の値を「CI」とし、制御部10に外付けされている入出力装置の値を「CO」とすることができる。
 例えば、エントリーE10の例では、装置ID「D3」で識別され、かつ、制御部10に接続されている「GPS」は、「方位取得」機能を実現するために使用可能であることがわかる。また、「方位取得」機能を担う装置ID「D3」の「GPS」には、モジュール内装置ID「SM2」が付与されていることがわかる。エントリーE11の例では、装置ID「D6」で識別され、かつ、制御部10に接続されている「カメラ」は、「画像取得」機能を実現するために使用可能であることがわかる。また、「画像取得」機能を担う装置ID「D6」の「カメラ」には、モジュール内装置ID「CA2」が付与されることがわかる。例えば、エントリーE16、E17の例では、装置ID「D10」で識別され、かつ、制御部10に接続されている「ボタン」は、「ミュート操作」機能と、「音量操作」機能と、を実現するために使用可能であることがわかる。また、「ミュート操作」機能を担う装置ID「D10」の「ボタン」には、モジュール内装置ID「UM1」が付与されることがわかる。一方「音量操作」機能を担う装置ID「D10」の「ボタン」には、モジュール内装置ID「UV1」が付与されることがわかる。この「ボタン」のように、1つの入出力装置が、複数の機能を担うことができる場合もある。
 図5は、第2の機器個別情報の一例を示す説明図である。第2の機器個別情報63には、画像表示部20(図2)に接続されている入出力装置の情報が予め記憶されている。第2の機器個別情報63には、第1の機器個別情報122と同様に、機能の情報と、入出力装置の情報と、が対応付けて記憶されている。「機能の情報」の詳細、および、「入出力装置の情報」の詳細については、第1の機器個別情報122と同様である。なお、位置のフィールドにおいて、画像表示部20に内蔵されている入出力装置と、画像表示部20に外付けされている入出力装置とを区別してもよい。この場合、例えば、画像表示部20に内蔵されている入出力装置の値を「HI」とし、画像表示部20に外付けされている入出力装置の値を「HO」とすることができる。
A-3.ブラックボックス化処理:
 図6は、ブラックボックス化処理の手順を示すフローチャートである。ブラックボックス化処理は、HMD100にインストールされている種々のプログラムに対して、HMD100の入出力装置をブラックボックス化するための処理である。ブラックボックス化処理は、主制御部300により実行される。ブラックボックス化処理において、主制御部300は、HMD100にインストールされているプログラムから受信した要求であって、当該プログラムが必要とする機能を指定した要求に応じて、HMD100に接続されている複数の入出力装置の中から、要求された機能に対応付けられている入出力装置の内の少なくとも一部の入出力装置を動作させる。
 ステップS100において主制御部300は、HMD100の電源が投入されたことを検出する。ステップS102において主制御部300は、記憶部120に記憶されている第1の機器個別情報122(図4)を取得する。ステップS104において主制御部300は、記憶部62に記憶されている第2の機器個別情報63(図5)を取得する。
 ステップS106において主制御部300は、機能毎に入出力装置をグループ化する。具体的には、主制御部300は、ステップS102において取得した第1の機器個別情報122(図4)と、ステップS104において取得した第2の機器個別情報63(図5)とを、「機能名」を用いてグループ化し(換言すれば、同じ「機能名」を持つエントリーでグループを作成し)、グループ化の結果を、グループ化個別情報GIとして記憶部120に記憶させる。グループ化個別情報GIは「対応付け」として機能する。なお、主制御部300は、本ステップのグループ化を、主制御部300の内部だけで実施することとし、記憶部120への記憶は省略してもよい。
 図7は、グループ化個別情報GIの一例を示している。図7によれば、機能毎のグループ化(図6のステップS106)によって、G1~G9の9つのグループが作成されることがわかる。例えば、グループG1は、「角速度取得」機能を実現するための入出力装置のグループである。グループG1によれば、装置ID「D2」の「ジャイロセンサー」を用いて「角速度取得」機能を実現可能であることがわかる。同様に、装置ID「D3」の「カメラ」を用いても「角速度取得」機能を実現可能であることがわかる。また、例えば、グループG6は、「ポインティング操作」機能を実現するための入出力装置のグループである。グループG6によれば、装置ID「D7」のトラックパッドを用いて「ポインティング操作」機能を実現可能であることがわかる。同様に、装置ID「D8」のマウス、または、装置ID「D9」の十字キーを用いても、「ポインティング操作」機能を実現可能であることがわかる。なお、カメラによって角速度を得るためには、まず、複数回にわたって経時的に撮影された画像から特徴点を抽出する。その後、特徴点の変化量および変化に掛かった時間(すなわち撮影間隔)を求めることで、角速度を得ることができる。同様にして、カメラで加速度を得ることもできる。
 図6のステップS108において、主制御部300は、グループ化した各機能をモジュール化する。具体的には、主制御部300は、グループ化個別情報GI(図7)内の、機能毎の各グループに対応した機能毎のモジュールを、主制御部300の内部にそれぞれ生成する。なお、ステップS108において、主制御部は、主制御部の内部に機能毎のモジュールを生成することに代えて、予め生成されているモジュールに対して入出力装置を割り当ててもよい。
 図8は、モジュールについて説明するための説明図である。本実施形態における「モジュール」とは、所定の機能を実現するための1つ以上の入出力装置をまとめて部品化したソフトウェアである。また「モジュール」は、HMD100にインストールされている種々のプログラムからの機能を指定した要求に応じて、部品化された入出力装置の内の少なくとも一部の入出力装置を動作させるためのソフトウェアでもある。図8では、「角速度取得」機能を実現するための角速度取得モジュール301を例示して説明する。角速度取得モジュール301は、個別機能制御部301aと、ジャイロセンサー用ドライバー301bと、カメラ用ドライバー301cとを備えている。破線で図示するジャイロセンサー用ドライバー301bとカメラ用ドライバー301cとは、ブラックボックス化処理(図6)のステップS110において、角速度取得モジュール301にジャイロセンサーの装置IDと、カメラの装置IDと、が記憶されることによって使用可能となる。
 個別機能制御部301aは、プログラムからの機能を指定した要求を受信した場合、ジャイロセンサー用ドライバー301bとカメラ用ドライバー301cとのうちのいずれか一方を用いて、ジャイロセンサーまたはカメラを動作させ、ジャイロセンサーまたはカメラによる検出値を取得する。個別機能制御部301aは、検出値に対して必要に応じて演算を加えて、得られた値を「角速度」として、要求元のプログラムへ返却する。ここで、「機能を指定した要求」とは、例えば、モジュール(すなわち機能)の指定を含む関数、モジュールの指定を含む手順(プロパティの参照等)、モジュールの指定を含む命令等、種々の態様を採用することができる。図8の例では、「getAV」という関数による要求を採用している。「getAV」の「AV」部分が、角速度取得モジュール301、換言すれば、角速度取得機能の指定である。このため、異なるモジュールの場合、例えば「getAC」のように、異なる関数となる。図8の例では、括弧内が何も指定されていないことから、引数の指定はない。しかし、例えば引数の指定によって、個別機能制御部301aによる検出値の演算内容を指定可能な構成にしてもよい。このように、図8の例によれば、HMD100にインストールされているどのプログラムからでも「getAV」という共通の形式を用いて、角速度取得モジュール301にアクセスし、角速度を取得することができる。
 図9は、モジュール化された各機能の一例を示している。図9によれば、主制御部300の内部には、グループ化個別情報GI(図7)内の9つのグループに対して、それぞれ対応したモジュールが作成されることがわかる。例えば、角速度取得モジュール301は、グループG1の「角速度取得」機能に対応したモジュール(ソフトウェア)である。また、加速度取得モジュール302は、グループG2の「加速度取得」機能に対応したモジュール(ソフトウェア)である。なお、各モジュールの構成および機能は、図8の説明と同様である。
 図6のステップS110において、主制御部300は、各モジュールに対して入出力装置を割り当てる。具体的には、主制御部300は、機能毎のモジュール化(図6のステップS108)によって作成された各モジュールに対して、グループ化個別情報GI(図7)に基づき、当該機能を実現可能な入出力装置の「装置ID」と「モジュール内装置ID」と、を記憶させる。ここで、主制御部300は、1つの機能を実現可能な入出力装置が複数ある場合、全ての入出力装置の装置IDおよびモジュールIDを記憶させる。各モジュールに対して装置IDおよびモジュールIDを記憶させることによって、各モジュールは、入出力装置のドライバーを介して入出力装置を使用することが可能となる(図8)。例えば、主制御部300は、角速度取得モジュール301に対して、「角速度取得」機能を実現可能な「ジャイロセンサー」の装置ID「D2」およびモジュール内装置ID「SG1」と、同じく「角速度取得」機能を実現可能な「カメラ」の装置ID「D3」およびモジュール内装置ID「SG2」と、を記憶させる。なお、所定の機能を実現可能な入出力装置が1つしかない場合、モジュール内装置IDの記憶は省略してもよい。
 ステップS112において主制御部300は、各モジュール内で動作させる入出力装置を1つ選択する。主制御部300は、以下に例示するa1~a5のいずれかの基準に従って、モジュール内で動作させる入出力装置を選択することができる。基準a1~a5は、単独で使用されてもよく、組み合わせて使用されてもよい。また、モジュール毎に異なる基準(単独または組み合わせ)が使用されてもよい。
(a1)グループ化個別情報GIにおける、機能の情報の「種類」と、入出力装置の情報の「種類」との関連度を基準とする。関連度は、例えば文字列比較等のデーター比較を用いて求めることができる。例えば、主制御部300は、機能の情報の「種類」が「センサー」である場合、入出力装置の情報の「種類」が「XXXセンサー」である入出力装置を優先的に選択する。なお、「X」は任意の文字列である。本基準を用いれば、主制御部300は、機器個別情報(第1の機器個別情報122、第2の機器個別情報63)に記憶されている機能の種類と入出力装置の種類との関連度を基準として、モジュール内で動作させる入出力装置を選択することができる。この結果、主制御部300は、プログラムが必要とする機能の種類に対して、より関連性の高い入出力装置を選択することができる。
(a2)入出力装置の精度を基準とする。例えば、主制御部300は、入出力装置の精度がより高い方の入出力装置を優先的に選択する。ここで「精度」には、入出力装置による検出精度、動作精度、演算精度、描画精度、取得精度、再生精度等、精度に関する全ての性能を含むことができる。主制御部300は、入出力装置の「精度」を、入出力装置のデバイスドライバに問い合わせることで取得することができる。なお、本基準を採用する場合、第1の機器個別情報122と第2の機器個別情報63とに対して、入出力装置の精度を記憶しておくための「精度」フィールドを設けてもよい。本基準を用いれば、主制御部300は、入出力装置の精度を基準として入出力装置を選択することができるため、より精度の高い入出力装置を選択することができる。
(a3)入出力装置の速度を基準とする。例えば、主制御部300は、入出力装置の速度がより速い方の入出力装置を優先的に選択する。ここで「速度」には、入出力装置の起動速度、検出速度、動作速度、演算速度、描画速度、取得速度、再生速度等、速度に関する全ての性能を含むことができる。主制御部300は、入出力装置の「速度」を、入出力装置のデバイスドライバに問い合わせることで取得することができる。主制御部300は、入出力装置の「速度」を、ベンチマーク(仮の命令を発行して処理速度を計測する処理)により取得してもよい。ベンチマークは、HMD100の電源投入時、入出力装置の検出時等、任意のタイミングで実行してよい。なお、本基準を採用する場合、第1の機器個別情報122と第2の機器個別情報63とに対して、入出力装置の速度を記憶しておくための「速度」フィールドを設けてもよい。本基準を用いれば、主制御部300は、入出力装置の速度を基準として入出力装置を選択することができるため、より速度の速い入出力装置を選択することができる。
(a4)HMD100の利用者によって予め定められた優先度を基準とする。例えば、主制御部300は、機能毎に使用可能な全ての入出力装置の候補を利用者に示し、利用者による優先度の入力を受け付けてもよい。主制御部300は、過去における機能毎の入出力装置の使用頻度に基づいて、優先度の初期値を利用者に提示してもよい。本基準を用いれば、主制御部300は、利用者によって予め定められている優先度を基準として入出力装置を選択することができるため、利用者の好みに合った入出力装置を選択することができる。
(a5)HMD100において入出力装置が配置されている位置に関する情報を基準とする。例えば、主制御部300は、制御部10に配置されている方の入出力装置を優先的に選択する。また、主制御部300は、画像表示部20に配置されている方の入出力装置を優先的に選択してもよい。この結果、主制御部300は、プログラムが必要とする機能の種類に対して、より関連性の高い入出力装置を選択することができる。
 なお、基準a2の入出力装置の精度と、基準a3の入出力装置の速度とを総称して「入出力装置の性能」とも呼ぶ。入出力装置の性能には、例えば、LCDやカメラを駆動する際の画素数等、精度や速度以外の他の指標が含まれてもよい。
 図10は、各モジュール内で動作させる1つの入出力装置が選択された様子を示している。図10において、ハッチングを付した入出力装置は、選択された入出力装置を示し、ハッチングを付していない入出力装置は、選択されなかった入出力装置を示している。図10の例によれば、グループG1の「角速度取得」機能に対応したモジュール(角速度取得モジュール301)内においては、装置ID「D2」、モジュール内装置ID「SG1」の「ジャイロセンサー」が選択されていることがわかる。また、グループG2の「加速度取得」機能に対応したモジュール(加速度取得モジュール302)内においては、装置ID「D4」、モジュール内装置ID「SA1」の「加速度センサー」が選択されていることがわかる。
 図6のステップS114において、主制御部300は、HMD100にインストールされている種々のプログラムからの要求を受け付ける。「要求」とは、図8で説明した機能を指定した要求(関数、手順、命令等)を意味する。主制御部300は、プログラムからの要求に応じて、要求により指定されたモジュールの個別機能制御部301aを動作させる。個別機能制御部301aは、ステップS112で選択されている入出力装置を動作させる。具体的には、個別機能制御部301aは、ステップS112で選択されている装置が入力装置である場合、当該入力装置からの検出値を取得し、検出値を演算し、得られた値(角速度等)を戻り値として要求元のプログラムへ返却する。また、個別機能制御部301aは、ステップS112で選択されている装置が出力装置である場合、当該出力装置を駆動(例えば、画像表示モジュール305であれば、LCDの駆動等)させる。この場合、戻り値の返却は省略してもよい。このように、個別機能制御部301aの動作や、引数、戻り値の有無は、各モジュールが制御する入出力装置の性質によって異なる。その後、主制御部300は、プログラムからの要求を引き続き待機する。
 以上のように、上記実施形態のブラックボックス化処理(図6)によれば、主制御部300は、HMD100にインストールされている種々のプログラムから受信した機能を指定した要求(すなわち、関数、手順、命令等の機能を指定した要求)に応じて、複数の入出力装置の中から、指定された機能に対応付けられている入出力装置のうちの少なくとも一部の入出力装置を動作させる。具体的には、主制御部300は、複数の入出力装置をプログラムが必要とする機能毎にグループ化することで、機能と入出力装置との対応付けを行う(ステップS106)。また、主制御部300は、プログラムから受信した機能を指定した要求に応じて、当該要求において指定されている機能でグループ化されると共に、当該グループ内で選択(ステップS112)されている入出力装置を動作させる(ステップS114)。このため、主制御部300は、プログラムが必要とする1つの機能に対して複数の入出力装置を割り当てることができ、割り当てられた複数の入出力装置のうちの少なくとも一部の入出力装置のみを動作させることができる。このようにすれば、プログラム開発者は、プログラムの作成時において使用する入出力装置の種類を意識する必要がなく、プログラム内に、使用したい「機能」を指定した要求を含めるだけでよい。この結果、情報処理装置(HMD100)用のプログラム開発において、使用する入出力装置の種類を意識する必要のないプログラム開発を実現させることができる。
 また、上記実施形態のブラックボックス化処理(図6)によれば、主制御部300は、HMD100にインストールされているプログラムが必要とする機能の内容を表す「機能名」と、HMD100に接続されている入出力装置の「種類」と、が対応付けて記憶されている機器個別情報(第1の機器個別情報122および第2の機器個別情報63)を利用して、簡便に、機能毎の入出力装置のグループ化を実施することができる。
 さらに、上記実施形態のブラックボックス化処理(図6)によれば、主制御部300は、プログラム中において一般的に使用されている手段である、関数と、手順と、命令と、のうちの少なくともいずれかによる要求に応じて、入出力装置を動作させることができる。この結果、プログラム開発者における利便性を向上させることができる。
A-4.ブラックボックス化処理の変形:
 上述したブラックボックス化処理は、以下のように変形してもよい。以下に示す変形は、単独で適用してもよいし、組み合わせて適用してもよい。
A-4-1.変形1:
 変形1では、主制御部300は、2つ以上の入出力装置を選択することで、情報処理装置の可用性を向上させる。
 図6のステップS112において主制御部300は、各モジュール内で動作させる入出力装置を2つ以上選択する。主制御部300は、選択された2つ以上の入出力装置に対して、1番目に優先順位の高い入出力装置はジャイロセンサー、2番目に優先順位の高い入出力装置はカメラ、のように、優先順位を付す。
 ステップS114において主制御部300は、HMD100にインストールされているプログラムからの要求により指定されたモジュール内において、優先順位が最も高い入出力装置を動作させる。主制御部300は、動作させた入出力装置の挙動に異常を検知した場合、同モジュール内について、優先順位が次に高い入出力装置を動作させる。ここで、挙動に異常を検知した場合とは、例えば、入出力装置による検出値が通常あり得ない値である場合、入出力装置からの応答が所定時間ない場合、入出力装置からエラー応答を受信した場合、等がある。なお、3つ以上の入出力装置が選択されている場合は、同様の処理を繰り返えせばよい。
 変形1によれば、主制御部300は、ステップS106の各グループから2つ以上の入出力装置を選択し、プログラムから受信した機能を指定した要求に応じて、最初に、当該要求において指定されている機能でグループ化されると共に、当該グループ内で最も優先順位の高い入出力装置を動作させる。最初に動作させた入出力装置に異常がある場合、主制御部300は、当該グループ内で次に優先順位の高い入出力装置を動作させる。このため、ある入出力装置に異常がある場合であっても、主制御部300は、他の入出力装置を利用してプログラムからの要求に応じることができる。この結果、情報処理装置(HMD100)の可用性を向上させることができる。
 なお、変形1において、入出力装置に対する優先順位の付与は、任意のタイミングとすることができる。例えば、主制御部300は、ステップS106のグループ化の時点で、グループ化された入出力装置に対して優先順位を付与してもよい。この場合、ステップS112において主制御部300は、各モジュール内で動作させる入出力装置を選択するだけでよい。
A-4-2.変形2:
 変形2では、主制御部300は、HMD100に接続されている他の情報処理装置が備える入出力装置をも、ブラックボックス化処理の対象とする。
 図6のステップS100において主制御部300は、HMD100の電源が投入されたことを検出すると共に、HMD100に接続されている他の情報処理装置の検出を試みる。なお、他の情報処理装置とは、HMD、スマートフォン、パーソナルコンピューター等、任意の装置を採用可能である。HMD100と他の情報処理装置との間の接続は、無線LANや近距離無線通信等の無線接続でもよいし、有線接続でもよい。
 他の情報処理装置の接続を検出した場合、ステップS104において主制御部300は、他の情報処理装置に接続されている入出力装置の情報を併せて取得する。ステップS106において主制御部は、第1の機器個別情報と、第2の機器個別情報と、他の情報処理装置に接続されている入出力装置の情報と、をグループ化する。その後のステップS108~S114は、上記実施形態で説明した通りである。
 なお、変形2において、HMD100の主制御部300が、HMD100と接続されている他の情報処理装置を検出した場合、かつ、他の情報処理装置にも主制御部300に相当する機能部(以降「他の情報処理装置の主制御部」とも呼ぶ。)が存在する場合、両装置の接続検出後に、以下のような処理を実施してもよい。
・図6のステップS100とステップS102との間において、HMD100の主制御部300は、他の情報処理装置の主制御部との間で、マスター・スレーブ関係を決定する。マスターとなった主制御部は、HMD100にインストールされているプログラム用と、他の情報処理装置にインストールされているプログラム用と、の2本のブラックボックス化処理を並行して実行する。
・HMD100の主制御部300と、他の情報処理装置の主制御部と、がそれぞれ個別に、ブラックボックス化処理を実行する。この場合、図6のステップS114において、HMD100の主制御部300は、HMD100にインストールされているプログラムからの要求を受け付け、他の情報処理装置の主制御部は、他の情報処理装置にインストールされているプログラムからの要求を受け付ける。
 変形2によれば、主制御部300は、情報処理装置(HMD100)に接続されている入出力装置に加えて、情報処理装置に接続されている他の情報処理装置が備える(接続されている)入出力装置をも選択すると共に、プログラムから受信した機能を指定した要求に応じて動作させることができる。
B.変形例:
 上記実施形態において、ハードウェアによって実現されるとした構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されるとした構成の一部をハードウェアに置き換えるようにしてもよい。その他、以下のような変形も可能である。
・変形例1:
 上記実施形態では、HMDの構成について例示した。しかし、HMDの構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、各構成部の追加・削除・変換等を行うことができる。
 上記実施形態における、制御部と、画像表示部とに対する構成要素の割り振りは、あくまで一例であり、種々の態様を採用可能である。例えば、以下のような態様としてもよい。(i)制御部にCPUやメモリー等の処理機能を搭載、画像表示部には表示機能のみを搭載する態様、(ii)制御部と画像表示部との両方にCPUやメモリー等の処理機能を搭載する態様、(iii)制御部と画像表示部とを一体化した態様(例えば、画像表示部に制御部が含まれ眼鏡型のウェアラブルコンピューターとして機能する態様)、(iv)制御部の代わりにスマートフォンや携帯型ゲーム機を使用する態様、(v)制御部と画像表示部とを無線LANや赤外線通信やBluetooth等の無線の信号伝送路を介した接続により接続し、接続部(コード)を廃した態様。なお、この場合において、制御部または画像表示部に対する給電をワイヤレスにより実施してもよい。
 例えば、上記実施形態で例示した制御部、画像表示部の構成は任意に変更することができる。具体的には、例えば、上記実施形態では、制御部が送信部を備え、画像表示部が受信部を備えるものとしたが、送信部および受信部はいずれも、双方向通信が可能な機能を備えており、送受信部として機能してもよい。また、例えば、制御部が備えるとした操作用インターフェイス(各種キーやトラックパッド等)の一部を省略してもよい。また、制御部に操作用スティック等の他の操作用インターフェイスを備えてもよい。また、制御部にはキーボードやマウス等のデバイスを接続可能な構成として、キーボードやマウスから入力を受け付けるものとしてもよい。例えば、電源として二次電池を用いることしたが、電源としては二次電池に限らず、種々の電池を使用することができる。例えば、一次電池や、燃料電池、太陽電池、熱電池等を使用してもよい。
 図11は、変形例におけるHMDの外観の構成を示す説明図である。図11(A)の例の場合、画像表示部20xは、右光学像表示部26に代えて右光学像表示部26xを備え、左光学像表示部28に代えて左光学像表示部28xを備えている。右光学像表示部26xと左光学像表示部28xとは、上記実施形態の光学部材よりも小さく形成され、HMDの装着時における利用者の右眼および左眼の斜め上にそれぞれ配置されている。図11(B)の例の場合、画像表示部20yは、右光学像表示部26に代えて右光学像表示部26yを備え、左光学像表示部28に代えて左光学像表示部28yを備えている。右光学像表示部26yと左光学像表示部28yとは、上記実施形態の光学部材よりも小さく形成され、HMDの装着時における利用者の右眼および左眼の斜め下にそれぞれ配置されている。このように、光学像表示部は利用者の眼の近傍に配置されていれば足りる。また、光学像表示部を形成する光学部材の大きさも任意であり、光学像表示部が利用者の眼の一部分のみを覆う態様、換言すれば、光学像表示部が利用者の眼を完全に覆わない態様のHMDとして実現することもできる。
 例えば、制御部が備えるとした各処理部(例えば画像処理部、表示制御部等、主制御部)は、CPUがROMやハードディスクに格納されているコンピュータープログラムをRAMに展開して実行することにより実現されるものとして記載した。しかし、これら機能部は、当該機能を実現するために設計されたASIC(Application Specific Integrated Circuit:特定用途向け集積回路)を用いて構成されてもよい。また、各処理部は、制御部ではなく画像表示部に配置されていてもよい。
 例えば、HMDは、両眼タイプの透過型HMDであるものとしたが、単眼タイプのHMDとしてもよい。また、利用者がHMDを装着した状態において外景の透過が遮断される非透過型HMDとして構成してもよいし、非透過型HMDにカメラを搭載したビデオシースルーとして構成してもよい。また、例えば、画像表示部として、眼鏡のように装着する画像表示部に代えて、通常の平面型ディスプレイ装置(液晶ディスプレイ装置、プラズマディスプレイ装置、有機ELディスプレイ装置等)を採用してもよい。この場合にも、制御部と画像表示部との間の接続は、有線の信号伝送路を介した接続であってもよいし、無線の信号伝送路を介した接続であってもよい。このようにすれば、制御部を、通常の平面型ディスプレイ装置のリモコンとして利用することもできる。また、例えば、画像表示部として、眼鏡のように装着する画像表示部に代えて、例えば帽子のように装着する画像表示部といった他の形状の画像表示部を採用してもよい。また、イヤホンは耳掛け型やヘッドバンド型を採用してもよく、省略しても良い。また、例えば、自動車や飛行機等の車両、またはその他の交通手段に搭載されるヘッドアップディスプレイ(HUD、Head-Up Display)として構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたHMDとして構成されてもよい。また、例えば、ハンドヘルドディスプレイ(Hand Held Display)として構成されてもよい。
 例えば、上記実施形態では、画像光生成部は、バックライトと、バックライト制御部と、LCDと、LCD制御部とを用いて構成されるものとした。しかし、上記の態様はあくまで例示である。画像光生成部は、これらの構成部と共に、またはこれらの構成部に代えて、他の方式を実現するための構成部を備えていても良い。例えば、画像光生成部は、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としても良い。また、例えば、画像生成部は、LCDに代えてデジタル・マイクロミラー・デバイス等を用いることもできる。また、例えば、レーザー網膜投影型の頭部装着型表示装置に対して本発明を適用することも可能である。
・変形例2:
 上記実施形態では、主制御部によって生成されるモジュールの構成について例示した。しかし、モジュールの構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、各構成部の追加・削除・変換等を行うことができる。
 例えば、主制御部は、機能毎のサブモジュールを含んだ1つのモジュールを生成することとしてもよい。この場合、例えば、プログラムからの「機能の指定」は、関数の引数を用いて実現されてもよい。具体的には、プログラムは、角速度取得サブモジュールを使用する場合「get(av)」と要求し、加速度取得サブモジュールを使用する場合「get(ac)」と要求してもよい。
 例えば、モジュールおよびサブモジュールは、ライブラリープログラムとして実装されてもよい。
・変形例3:
 上記実施形態では、ブラックボックス化処理の一例を示した。しかし、上記実施形態において示した処理の手順はあくまで一例であり、種々の変形が可能である。例えば、一部のステップを省略してもよいし、更なる他のステップを追加してもよい。また、実行されるステップの順序を変更してもよい。
 例えば、ステップS102およびS104において主制御部は、第1の機器個別情報と、第2の機器個別情報とを取得することとした。しかし、主制御部は、これらの情報を取得することに代えて、これらの機器個別情報を自動で生成してもよい。例えば、主制御部は、HMD対する入出力装置の接続を検出した際に、入出力装置の情報を取得することで、機器個別情報を自動で生成することができる。主制御部は、機器個別情報の生成に際して、例えば、装置のある情報(例えば型番)から装置の他の情報(例えば種類)を取得するために、外部(例えばインターネット上のサーバ)に接続してもよい。
 例えば、ステップS106において主制御部は、現在HMDに接続されて、所定時間内に使用が可能であるアクティブ状態である入出力装置だけをグループ化の対象としてもよい。このようにすれば、使用可能となるまでに所定時間以上を要する入出力装置を選択した結果、処理が遅延することを抑制することができる。所定時間は任意に定めることができるが、処理遅延抑制のためには、例えば3秒以内等、短時間とされることが好ましい。
 例えば、主制御部は、HMDに対する新たな入出力装置の接続を検出した際に、ステップS102~S114の処理を再実行してもよい。このようにすれば、ブラックボックス化処理をプラグアンドプレイ方式で実行することができる。
 例えば、主制御部は、利用者からの指定があった場合に、ステップS112で選択した入出力装置を、利用者の指定に応じて変更することができる。利用者の指定とは、例えば、使用したい入出力装置の近傍をノックする方式を採用してもよい。また、例えば、HMDの設定画面の中から選択させる方式を採用してもよく、使用したい入出力装置の名称を音声認識する方式を採用してもよい。
 例えば、主制御部は、上記実施形態において、プログラムから受信した要求において指定された機能に対応したモジュールがない場合や、上記変形2において、選択された複数の入出力装置の全てにおいて挙動に異常を検知した場合に、HMDの利用者にその旨を知らせるための表示や通知を行ってもよい。また、この場合、要求元のプログラムは、指定した機能を使用せずに処理を進めてもよい。
・変形例4:
 本発明は、上述の実施形態や実施例、変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、実施例、変形例中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替えや組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
 10…制御部、11…決定キー、12…点灯部、13…表示切替キー、14…トラックパッド、15…輝度切替キー、16…方向キー、17…メニューキー、18…電源スイッチ、20…画像表示部、21…右保持部、22…右表示駆動部、23…左保持部、24…左表示駆動部、26…右光学像表示部、28…左光学像表示部、30…イヤホンプラグ、32…右イヤホン、34…左イヤホン、40…接続部、42…右コード、44…左コード、46…連結部材、48…本体コード、51…送信部、52…送信部、53…受信部、54…受信部、61…カメラ、62…記憶部、63…第2の機器個別情報(機器個別情報)、66…9軸センサー、110…入力情報取得部、100…HMD(情報処理装置)、120…記憶部、122…第1の機器個別情報(機器個別情報)、130…電源、132…無線通信部、140…CPU、160…画像処理部、170…音声処理部、180…インターフェイス、190…表示制御部、201…右バックライト制御部、202…左バックライト制御部、211…右LCD制御部、212…左LCD制御部、221…右バックライト、222…左バックライト、241…右LCD、242…左LCD、251…右投写光学系、252…左投写光学系、261…右導光板、262…左導光板、300…主制御部、301…角速度取得モジュール、301a…個別機能制御部、301b…ジャイロセンサー用ドライバー、301c…カメラ用ドライバー、302…加速度取得モジュール、303…方位取得モジュール、304…画像取得モジュール、305…画像表示モジュール、306…ポインティング操作モジュール、307…十字キー操作モジュール、308…ミュート操作モジュール、309…音量操作モジュール、PCLK…クロック信号、VSync…垂直同期信号、HSync…水平同期信号、Data…画像データー、Data1…右眼用画像データー、Data2…左眼用画像データー、OA…外部機器、PC…パーソナルコンピューター、SC…外景、VI…虚像、VR…視野、RE…右眼、LE…左眼、ER…端部、EL…端部。

Claims (10)

  1.  情報処理装置であって、
     任意の処理を実行するプログラムによって使用される複数の入出力装置と、
     前記プログラムから受信した要求であって、前記プログラムが必要とする機能を指定した要求に応じて、前記複数の入出力装置の中から、前記機能に対応付けられている前記入出力装置のうちの少なくとも一部を動作させる主制御部と、を備える、情報処理装置。
  2.  請求項1に記載の情報処理装置であって、
     前記主制御部は、
     前記複数の入出力装置を前記プログラムが必要とする機能毎にグループ化することで前記対応付けを行い、
     各グループから少なくとも1つの前記入出力装置を所定の基準に基づいて選択し、
     前記要求に応じて、当該グループ内で選択されている前記入出力装置を動作させる、情報処理装置。
  3.  請求項2に記載の情報処理装置であって、さらに、
     前記情報処理装置に接続されている入出力装置の情報が記憶されている機器個別情報であって、少なくとも、前記機能の内容を表す機能名と、前記入出力装置の種類と、が対応付けて記憶されている機器個別情報を記憶する記憶部を備え、
     前記主制御部は、前記機器個別情報を取得し、取得した前記機器個別情報の前記機能名を用いて前記グループ化を実施する、情報処理装置。
  4.  請求項3に記載の情報処理装置であって、
     前記機器個別情報には、前記機能名に対応付けられて、さらに、前記機能の種類と、前記情報処理装置において前記入出力装置が配置されている位置に関する情報と、が記憶され、
     前記主制御部は、
     前記機器個別情報に記憶されている前記機能の種類と、前記入出力装置の種類との関連度と、
     前記入出力装置の性能と、
     前記情報処理装置の利用者によって予め定めされている優先度と、
     前記位置に関する情報と、のうちの少なくともいずれか1つを基準として前記選択を実施する、情報処理装置。
  5.  請求項2から請求項4のいずれか一項に記載の情報処理装置であって、
     前記主制御部は、
     前記各グループから2つ以上の前記入出力装置を選択し、
     前記要求に応じて、当該グループ内で最も優先順位の高い前記入出力装置を動作させ、
     動作させた前記入出力装置に異常がある場合は、当該グループ内で次に優先順位の高い前記入出力装置を動作させる、情報処理装置。
  6.  請求項2から請求項5のいずれか一項に記載の情報処理装置であって、
     前記主制御部は、
     前記情報処理装置の前記複数の入出力装置と共に、前記情報処理装置に接続されている他の情報処理装置が備える複数の入出力装置を、前記プログラムが必要とする機能毎にグループ化することで前記対応付けを行った後、
     前記選択および前記動作を実行する、情報処理装置。
  7.  請求項2から請求項6のいずれか一項に記載の情報処理装置であって、
     前記主制御部は、前記グループ化の対象を、アクティブ状態である前記入出力装置に限定する、情報処理装置。
  8.  請求項1から請求項7のいずれか一項に記載の情報処理装置であって、
     前記機能を指定した前記要求とは、前記機能の指定を含む関数と、前記機能の指定を含む手順と、前記機能の指定を含む命令と、のうちの少なくともいずれかである、情報処理装置。
  9.  情報処理装置を制御する方法であって、
     任意の処理を実行するプログラムから、前記プログラムが必要とする機能を指定した要求を受信する工程と、
     前記要求に応じて、前記情報処理装置が備える複数の入出力装置の中から、前記機能に対応付けられている前記入出力装置のうちの少なくとも一部を動作させる工程と、を備える、方法。
  10.  コンピュータープログラムであって、
     任意の処理を実行するプログラムから、前記プログラムが必要とする機能を指定した要求を受信する機能と、
     前記要求に応じて、前記情報処理装置が備える複数の入出力装置の中から、前記機能に対応付けられている前記入出力装置のうちの少なくとも一部を動作させる機能と、をコンピューターに実現させるための、コンピュータープログラム。
PCT/JP2015/005617 2014-11-17 2015-11-11 情報処理装置、情報処理装置を制御する方法、コンピュータープログラム WO2016079950A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US15/526,090 US10198367B2 (en) 2014-11-17 2015-11-11 Information processing device and method for controlling input/output devices via designated functions
CN201580059689.8A CN107077363B (zh) 2014-11-17 2015-11-11 信息处理装置、控制信息处理装置的方法、记录介质
EP15860908.1A EP3223150A1 (en) 2014-11-17 2015-11-11 Information processing device, method for controlling information processing device, and computer program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-232748 2014-11-17
JP2014232748A JP6476781B2 (ja) 2014-11-17 2014-11-17 情報処理装置、情報処理装置を制御する方法、コンピュータープログラム

Publications (1)

Publication Number Publication Date
WO2016079950A1 true WO2016079950A1 (ja) 2016-05-26

Family

ID=56013525

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/005617 WO2016079950A1 (ja) 2014-11-17 2015-11-11 情報処理装置、情報処理装置を制御する方法、コンピュータープログラム

Country Status (5)

Country Link
US (1) US10198367B2 (ja)
EP (1) EP3223150A1 (ja)
JP (1) JP6476781B2 (ja)
CN (1) CN107077363B (ja)
WO (1) WO2016079950A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018142857A (ja) * 2017-02-28 2018-09-13 セイコーエプソン株式会社 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP7059619B2 (ja) * 2017-12-22 2022-04-26 セイコーエプソン株式会社 処理装置、表示システム、及びプログラム
JP2019129366A (ja) * 2018-01-23 2019-08-01 セイコーエプソン株式会社 頭部装着型表示装置、音声伝送システム、及び頭部装着型表示装置の制御方法
US11240313B2 (en) * 2018-12-05 2022-02-01 International Business Machines Corporation Contextually assigning user input to personal electronic devices
CN112188181B (zh) * 2019-07-02 2023-07-04 中强光电股份有限公司 图像显示设备、立体图像处理电路及其同步信号校正方法
JP2021103282A (ja) * 2019-12-26 2021-07-15 セイコーエプソン株式会社 データ処理装置、表示システム、及び、データ処理方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009104721A1 (ja) * 2008-02-21 2009-08-27 日本電気株式会社 携帯端末コンテキスト効率利用方法とシステム
JP2009252194A (ja) * 2008-04-11 2009-10-29 Nec Electronics Corp データ処理装置、ハードウェアアクセス方法、及びハードウェアアクセスプログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11327629A (ja) * 1998-05-08 1999-11-26 Meidensha Corp データの一元管理方法
US6189033B1 (en) * 1998-07-16 2001-02-13 Hewlett-Packard Company Method and system for providing performance guarantees for a data service system of a data access network system
JP2003061163A (ja) 2001-07-31 2003-02-28 Hewlett Packard Co <Hp> 同一ユーザインターフェースが利用可能なシステム
JP4161998B2 (ja) * 2005-03-28 2008-10-08 日本電気株式会社 負荷分散振り分けシステム、イベント処理分散制御装置並びにイベント処理分散制御プログラム
US7664786B2 (en) * 2005-12-12 2010-02-16 Electronics And Telecommunications Research Institute Apparatus and method for managing application context
EP1814337A1 (en) * 2006-01-27 2007-08-01 Hewlett-Packard Development Company, L.P. Improvements in or relating to group communications
JPWO2009125586A1 (ja) * 2008-04-07 2011-07-28 パナソニック株式会社 デバイス制御方法、デバイス制御プログラムおよびデバイス選択装置
JP4824793B2 (ja) * 2009-07-06 2011-11-30 東芝テック株式会社 ウエアラブル端末装置及びプログラム
US8310394B2 (en) * 2010-03-08 2012-11-13 Deutsche Telekom Ag Apparatus, method, manufacture, and system for sensing substitution for location-based applications
JP5919624B2 (ja) 2011-02-04 2016-05-18 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
US10083639B2 (en) 2011-02-04 2018-09-25 Seiko Epson Corporation Control device for controlling image display device, head-mounted display device, image display system, control method for the image display device, and control method for the head-mounted display device
JP5348192B2 (ja) * 2011-07-11 2013-11-20 日本電気株式会社 作業支援システム、端末、方法およびプログラム
US8190749B1 (en) * 2011-07-12 2012-05-29 Google Inc. Systems and methods for accessing an interaction state between multiple devices
JP5993127B2 (ja) * 2011-10-25 2016-09-14 オリンパス株式会社 頭部装着型表示装置、情報端末、プログラム、情報記憶媒体、画像処理システム、頭部装着型表示装置の制御方法及び情報端末の制御方法
JP5266426B1 (ja) * 2013-02-27 2013-08-21 イメージニクス株式会社 情報処理端末、情報処理方法、情報処理プログラム
US9483117B2 (en) * 2013-04-08 2016-11-01 Nokia Technologies Oy Apparatus, method and computer program for controlling a near-eye display
US9256987B2 (en) * 2013-06-24 2016-02-09 Microsoft Technology Licensing, Llc Tracking head movement when wearing mobile device
KR20150034558A (ko) * 2013-09-26 2015-04-03 엘지전자 주식회사 헤드 마운트 디스플레이 및 제어 방법
US10761566B2 (en) * 2013-09-27 2020-09-01 Beijing Lenovo Software Ltd. Electronic apparatus and method for processing information
CN103744648A (zh) * 2013-11-29 2014-04-23 乐视致新电子科技(天津)有限公司 一种开启输入设备的方法及装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009104721A1 (ja) * 2008-02-21 2009-08-27 日本電気株式会社 携帯端末コンテキスト効率利用方法とシステム
JP2009252194A (ja) * 2008-04-11 2009-10-29 Nec Electronics Corp データ処理装置、ハードウェアアクセス方法、及びハードウェアアクセスプログラム

Also Published As

Publication number Publication date
US20170315938A1 (en) 2017-11-02
JP6476781B2 (ja) 2019-03-06
JP2016095778A (ja) 2016-05-26
CN107077363B (zh) 2020-10-23
US10198367B2 (en) 2019-02-05
CN107077363A (zh) 2017-08-18
EP3223150A1 (en) 2017-09-27

Similar Documents

Publication Publication Date Title
US10635182B2 (en) Head mounted display device and control method for head mounted display device
JP6155622B2 (ja) 表示装置、頭部装着型表示装置、表示装置の制御方法、および、頭部装着型表示装置の制御方法
US10303435B2 (en) Head-mounted display device, method of controlling head-mounted display device, and computer program
WO2016079950A1 (ja) 情報処理装置、情報処理装置を制御する方法、コンピュータープログラム
JP6380091B2 (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
US9799144B2 (en) Head mounted display, and control method for head mounted display
JP6492673B2 (ja) 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
JP2016004340A (ja) 情報配信システム、頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP2017091433A (ja) 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
JP6561436B2 (ja) 情報処理装置、情報処理装置を制御する方法、コンピュータープログラム
JP6303274B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP6252002B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
US20150168728A1 (en) Head mounted display device
US10205990B2 (en) Device for sending or receiving video, method for controlling device, and computer program
JP6451222B2 (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP2016142966A (ja) 頭部装着型表示装置、情報処理装置、画像表示装置、画像表示システム、頭部装着型表示装置の表示を共有する方法、コンピュータープログラム
JP6287399B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP6394174B2 (ja) 頭部装着型表示装置、画像表示システム、頭部装着型表示装置を制御する方法、および、コンピュータープログラム
JP2016119544A (ja) 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15860908

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15526090

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2015860908

Country of ref document: EP