WO2019073603A1 - 表示装置、脳波インタフェース装置、ヘッドアップディスプレイシステム、プロジェクタシステムおよび視覚刺激信号の表示方法 - Google Patents
表示装置、脳波インタフェース装置、ヘッドアップディスプレイシステム、プロジェクタシステムおよび視覚刺激信号の表示方法 Download PDFInfo
- Publication number
- WO2019073603A1 WO2019073603A1 PCT/JP2017/037224 JP2017037224W WO2019073603A1 WO 2019073603 A1 WO2019073603 A1 WO 2019073603A1 JP 2017037224 W JP2017037224 W JP 2017037224W WO 2019073603 A1 WO2019073603 A1 WO 2019073603A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- unit
- electroencephalogram
- display
- frequency
- display device
- Prior art date
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 129
- 210000004556 brain Anatomy 0.000 title claims abstract description 44
- 238000000034 method Methods 0.000 title claims description 97
- 230000008859 change Effects 0.000 claims abstract description 35
- 238000004458 analytical method Methods 0.000 claims abstract description 28
- 230000003190 augmentative effect Effects 0.000 claims abstract description 5
- 230000000638 stimulation Effects 0.000 claims description 96
- 238000001514 detection method Methods 0.000 claims description 38
- 230000001939 inductive effect Effects 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 7
- 230000000763 evoking effect Effects 0.000 claims description 5
- 230000006870 function Effects 0.000 description 183
- 238000012545 processing Methods 0.000 description 52
- 238000013507 mapping Methods 0.000 description 48
- 230000008569 process Effects 0.000 description 45
- 238000004891 communication Methods 0.000 description 40
- 239000003086 colorant Substances 0.000 description 31
- 230000033001 locomotion Effects 0.000 description 30
- 239000003550 marker Substances 0.000 description 25
- 238000012986 modification Methods 0.000 description 25
- 230000004048 modification Effects 0.000 description 25
- 238000003780 insertion Methods 0.000 description 16
- 230000037431 insertion Effects 0.000 description 16
- 210000003128 head Anatomy 0.000 description 12
- 238000013461 design Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 11
- 238000013500 data storage Methods 0.000 description 10
- 230000009471 action Effects 0.000 description 9
- 238000007726 management method Methods 0.000 description 9
- 238000000605 extraction Methods 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 7
- 230000007423 decrease Effects 0.000 description 6
- 238000007781 pre-processing Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000006698 induction Effects 0.000 description 5
- 230000003993 interaction Effects 0.000 description 4
- 239000004183 Monensin A Substances 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 3
- 230000005684 electric field Effects 0.000 description 3
- 239000000446 fuel Substances 0.000 description 3
- 238000012966 insertion method Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 239000004188 Virginiamycin Substances 0.000 description 1
- 230000036626 alertness Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 210000000624 ear auricle Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 239000007943 implant Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 210000000857 visual cortex Anatomy 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/369—Electroencephalography [EEG]
- A61B5/377—Electroencephalography [EEG] using evoked responses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
Definitions
- the present invention relates to a technique of using an electroencephalogram for an interface of a display device.
- Augmented Reality AR
- Virtual Reality VR
- MR Mixed Reality
- I / F main input / operation interfaces
- Microsoft's HoloLens is an MR product that uses a gesture or voice operation interface.
- the interaction design of this product describes an operation interface using gestures and voices (see, for example, Non-Patent Document 1).
- Non-Patent Document 2 “2.1 Bloom, 2.2 Air tap, 2.3 Tap and Hold” is described as three key component gestures (for example, Non-Patent Document 2) reference.). Also, in the item of voice design of this interaction design, a method of using voice as an operation command is described (see, for example, Non-Patent Document 3).
- BCI Brain Computer Interface
- SSVEP steady-state visual evoked potential
- the externally connected remote controller or gesture imposes a heavy burden on the user at the time of operation. Also, gestures and sounds are difficult to use in public places such as in vehicles and cafes, and their use is limited. For this reason, there is a demand for an interface which is less burdensome for the user and which does not restrict the place of use.
- the present invention has been made in view of the above circumstances, and it is an object of the present invention to provide an AR / VR / MR device with an interface with less burden on the user and less restriction on the use environment.
- the present invention provides a display device provided with a Brain Computer Interface (BCI) as an input operation interface and performing augmented reality, virtual reality, and / or mixed reality display.
- BCI Brain Computer Interface
- the BCI device is, for example, an electroencephalogram interface device that detects an electroencephalogram signal having a frequency corresponding to the frequency of the visual stimulation signal and controls the device, and a predetermined area on each acquired video frame A specific frequency which is a specific frequency is allocated to the operation area, and color information of an area corresponding to the operation area is changed between a predetermined maximum value and a minimum value in a cycle of an inverse number of the specific frequency.
- an operation interface creation unit that creates the visual stimulation signal having the specific frequency, an operation unit that outputs the visual stimulation signal having the specific frequency to a display device, and a control instruction are associated with the specific frequency.
- an electroencephalogram analysis unit for extracting the specific frequency from the detected electroencephalogram signal, and the extracted specific frequency Acquires the control instruction from the corresponding database, using the electroencephalogram interface system, characterized in that it comprises a control unit for controlling in accordance with the control instruction.
- (A) And (b) is explanatory drawing for demonstrating the visual stimulation signal insertion method for SSVEP of 1st embodiment. It is an explanatory view for explaining a visual stimulus signal superposition technique for SSVEP of a first embodiment.
- (A) is an explanatory view for explaining an example of the mapping table of the first embodiment, and (b) an example of the function table of the first embodiment.
- (A) And (b) is explanatory drawing for demonstrating an example of the object table of 1st embodiment, respectively.
- (A) And (b) is explanatory drawing for demonstrating an example of the operation I / F table of 1st embodiment, respectively.
- (A) And (b) is explanatory drawing for demonstrating the example of a layout at the time of icon insertion of 1st embodiment.
- It is a flowchart of allocation frequency determination processing of a first embodiment.
- It is a flowchart of the modification of the allocation frequency determination process of 1st embodiment.
- (A) is a flowchart of the display image creation process of the first embodiment
- (b) is an operation interface table update process.
- (A) is a flowchart of the gaze frequency detection process of the first embodiment
- (b) is a function determination process of the first embodiment.
- (A) And (b) is explanatory drawing for demonstrating the outline
- (A) shows an example of the mapping table of the third embodiment
- (b) shows an example of the function table of the third embodiment
- (c) shows the mode management table 660 of the third embodiment
- BCI using SSVEP steady state visual evoked potential
- AR device hereinafter referred to as display device
- visual stimuli hereinafter referred to as visual stimulation signals
- the visual stimulation signal is inserted or superimposed on the basic visual information (image) itself. Insertion or superposition of a visual stimulus (hereinafter referred to as a visual stimulus signal) that induces SSVEP is realized by a change in luminance value of a predetermined area of the display area.
- FIG. 1 is a functional block diagram of the display device 101 of the present embodiment.
- the display device 101 includes an electroencephalogram interface (I / F) unit 102, a display unit 103, a microphone / speaker 104, a communication unit 105, an image generation unit 106, and operations.
- a unit 107, an execution unit 109, a storage unit 110, and a control unit 112 are provided.
- the communication unit 105 includes one or more communication modules (LAN, Bluetooth (registered trademark), HDMI (registered trademark), etc.) for communicating with an external device in a wired or wireless manner.
- LAN local area network
- Bluetooth registered trademark
- HDMI registered trademark
- the video generation unit 106 generates all or part of the video to be displayed on the display unit 103 using the input video.
- the video is input to the video generation unit 106 from a built-in or external camera, from a pre-recorded recording medium, or from another device via the communication unit 105.
- the operation unit 107 includes a mouse, a remote control, an operation button, a keyboard, a touch panel, and the like, and receives an operation instruction from the user 130.
- the execution unit 109 executes processing in accordance with the operation instruction from the user 130 received via the brain wave I / F unit 102 or the operation unit 107.
- the storage unit 110 stores video data, a control program of the entire display apparatus 101, setting information, and the like.
- the control unit 112 controls the operation of each component of the display device 101.
- the electroencephalogram I / F unit 102 detects an electroencephalogram and extracts a control instruction.
- the electroencephalogram I / F unit 102 of the present embodiment includes an electroencephalogram detection unit 113, an electroencephalogram analysis unit 114, an operation I / F creation unit 115, an operation I / F storage unit 116, and a mapping unit. And 117, a mapping data storage unit 118, a function determination unit 119, and an electroencephalogram control unit 120.
- the electroencephalogram detection unit 113 detects an electroencephalogram signal.
- the electroencephalogram analysis unit 114 analyzes the electroencephalogram detected by the electroencephalogram detection unit 113.
- the specific frequency is extracted from the detected electroencephalogram signal.
- the preprocessing unit 121, the feature extraction unit 122, and the eye gaze frequency detection unit 123 are provided.
- the preprocessing unit 121 removes noise and the like from the electroencephalogram signal detected by the electroencephalogram detection unit 113 and amplifies the signal.
- the feature extraction unit 122 extracts feature amounts of the pre-processed electroencephalogram signal. In this embodiment, for example, it functions as a frequency analysis unit that performs Fourier transform on an electroencephalogram signal and analyzes the magnitude of the potential for each frequency.
- the gaze frequency detection unit 123 classifies the feature quantity extracted by the feature extraction unit 122, and detects the frequency of the visual stimulation signal at which the user 130 gazes.
- the operation I / F creation unit 115 creates I / F data (hereinafter referred to as SSVEP operation I / F) for the user 130 to perform an operation input using the visual stimulation signal.
- a visual stimulation signal having a specific frequency which is a specific frequency is assigned to an operation area which is a predetermined area on each acquired video frame. Then, for example, the visual stimulation signal is changed by changing the color information of the area corresponding to the operation area with a period of the reciprocal of the specific frequency, between a predetermined maximum value and a minimum value, or with a difference change amount of color information.
- the SSVEP operation I / F includes an operation button, direct superposition on an object in a video frame, and the like.
- the operation I / F storage unit 116 also stores the SSVEP operation I / F created by the operation I / F creation unit 115.
- the mapping data storage unit 118 associates the control instruction with the specific frequency and holds it.
- the mapping unit 117 maps the execution function and the SSVEP operation I / F. For example, the execution function when the arrow button is selected and the SSVEP operation I / F are mapped.
- the mapping data storage unit 118 stores the corresponding database mapped by the mapping unit 117. It also stores the function list table.
- the function determination unit 119 determines the function selected by the user 130 based on the analysis result of the electroencephalogram analysis unit 114.
- the function stored in the mapping data storage unit 118 is specified in association with the eye gaze frequency extracted by the electroencephalogram analysis unit 114. That is, the control instruction corresponding to the specific frequency extracted from the brain wave is acquired from the correspondence database.
- the electroencephalogram control unit 120 controls the operation of each component of the electroencephalogram I / F unit 102. Further, in accordance with an instruction of the control unit 112, the processing related to the function registration is also executed in an integrated manner. Furthermore, the control unit 112 controls ON / OFF of the execution of the operation of the operation unit 124.
- the display unit 103 displays an image and a visual stimulus for inducing SSVEP.
- the display unit 103 of the present embodiment includes an arithmetic unit 124, a display device unit 125, a projection lens 127, and an illuminator 126.
- Arithmetic unit 124 generates an image frame in which a visual stimulation signal is inserted or superimposed according to the SSVEP operation I / F created by operation I / F creation unit 115, and performs computation for displaying on display device unit 125. .
- the display device unit 125 displays an image based on the calculation result of the calculation unit 124.
- the illuminator 126 provides light to the display device unit 125.
- the projection lens 127 projects the image created by the display device unit 125.
- the display device 101 of the present embodiment may be equipped with components other than the above, such as a clock timer, for example.
- the hardware configuration of the display device 101 of this embodiment is shown in FIG.
- the display device 101 includes a central processing unit (CPU) 202, an electroencephalograph 203, a display device 204, a camera 205, a microphone / speaker 206, a storage device 208, and a random access memory (RAM) 209. , A communication module 211, an input I / F 212, an operating device 213, and a system bus 214.
- the display device 204 displays an image.
- the camera 205 generates an image.
- the input I / F 212 receives external data input.
- the operating device 213 enables an input operation by tapping on the main body of the display device 101 or the like.
- the storage device 208 stores various programs, data, and the like.
- a ROM Read Only Memory
- a hard disk etc.
- a basic program for realizing various functions of the display device 101 is stored in the ROM.
- data used for program execution, data generated during program execution, etc. are stored in a hard disk or the like.
- the operation I / F storage unit 116 and the mapping data storage unit 118 described above are provided in the storage device 208.
- the RAM 209 is used as a cache and a work memory.
- the CPU 202 controls the overall operation of the display device 101.
- the program and various data stored in the storage device 208 are loaded into the RAM 209 and executed.
- a system bus 214 is a data communication path for transmitting and receiving data between the CPU 202 and each component of the display device 101.
- the electroencephalograph 203 detects an electroencephalogram signal.
- the electroencephalograph 203 includes an electrode for electroencephalogram detection, a signal processing device that amplifies a signal by removing noise and the like, and an analog-to-digital converter that converts an analog signal into a digital signal.
- the communication module 211 is an interface that communicates with an external device.
- the communication module 211 has a wireless communication function such as 3G, 4G, Wi-Fi, Bluetooth (registered trademark), HDMI (registered trademark), infrared communication, communication for broadcast service, and a wired communication function such as a wired LAN.
- the electroencephalograph 203, the CPU 202, the RAM 209, and the system bus 214 correspond to the electroencephalogram I / F unit 102 and the control unit 112 as functional blocks.
- the microphone / speaker 206 is a microphone / speaker 104
- the camera 205 is a video generation unit 106
- the display device 204 is a display unit 103
- the communication module 211 is a communication unit 105
- the input I / F 212 is a video generation unit 106.
- the operation device 213 corresponds to the operation unit 107
- the storage device 208 corresponds to the storage unit 110.
- FIG. 3 is an example of an AR apparatus 301 by eyeglasses-type electroencephalogram control, which is an embodiment of the display apparatus 101 according to the present embodiment.
- two or more electrodes are disposed on the band portion 302 and the temple portion (303, 304) of the back of the head.
- Bipolar induction is used as a method of guiding an electroencephalogram in the AR device 301.
- the AR device 301 measures an electroencephalogram from the potential difference derived from the two electrodes. According to the electrode arrangement of the AR device 301 of FIG. 3, brain waves of up to six channels can be detected.
- bipolar induction is used, but the method of guiding the electroencephalogram is not limited thereto.
- unipolar induction may be used. When using unipolar induction, an electrode can be attached to the earlobe to measure the reference potential.
- the electroencephalograms measured from the electrodes (307, 308, 309) of the occipital region are preferentially used.
- the electroencephalograms measured from the electrodes (307, 308, 309) of the occipital region are preferentially used.
- the brain waves of two channels one channel at 307 and 308 and one channel at 308 and 309.
- the brain wave used may be changed according to the contact state of the electrode.
- the visual stimulation of SSVEP tends to lower the detected potential as the frequency increases. For this reason, especially when using high-frequency visual stimuli, it is recommended to measure brain waves at the back of the head as much as possible. For example, when a high frequency as a visual stimulus is assigned to the operation button of the left-pointing arrow and a low frequency is assigned to the operation button of the right-pointing arrow, the brain wave measured in the back of the head is prioritized for the former. Specifically, for the former, processing such as not using the electroencephalograms measured in parts other than the occipital region is performed at the time of analysis in the electroencephalogram analysis unit 114.
- the display device unit 125 is disposed in the spectacle lens portion (312, 313). In addition, other functions are provided to the frame main body 314.
- the stimuli that induce SSVEP include flash stimulation (flashing of LED lights), a black and white checkered pattern, color stimulation (due to different colors), change in image brightness, and the like. These stimuli are used to induce SSVEP by presenting periodic stimuli. In the present embodiment, among these methods, the luminance change of the image is used.
- a second method of changing the value at a predetermined frequency may be fixed or may differ from frame to frame.
- FIG. 4 (a) a first method will be described using FIG. 4 (a).
- the image to be displayed may be a virtual image of the VR device or an image of the real world displayed through the camera of the AR device.
- a button A 401 is inserted into the video frame, and the luminance value (color) of the button A 401 is changed between the color 1 and the color 2 at the frequency of the visual stimulation signal (specific frequency Fs Hz).
- the icon to be inserted is not limited to a figure such as a button, and may have various shapes. Note that the size of the icon may be fixed or may change according to the size of the object or the like in the video frame.
- a button A 401 in the figure is a button for executing an operation on the meter in the video.
- the button A 401 is flickering.
- the term “flicker” is a generic term for those having a function to periodically and repeatedly present two different types of stimuli for inducing SSVEP.
- the calculation unit 124 displays the video frame at a predetermined frame rate FOHz.
- the button A 401 is inserted at a predetermined position (operation area).
- the color of the area of the button A 401 luminance value calculated using RGB
- the insertion position and display color of the button A 401 are determined by referring to the operation I / F table 620.
- the frequency (specific frequency; FsHz) of the visual stimulation signal set in advance between the color 1 (402) and the color 2 (403) along the time axis is the color of the button A 401 of each video frame.
- the stimulus is presented by changing periodically with.
- the horizontal axis of the graph in the lower part of FIG. 4A indicates time, and the vertical axis indicates the luminance value. Further, the solid line of the graph 405 indicates the change of the luminance value of the button A 401.
- the two colors (color 1 and color 2) used in the button A 401 are set in advance by the operation I / F creation unit 115. In the present embodiment, flicker is realized by periodically changing the luminance value of the button A 401 as indicated by the solid line in the graph 405.
- the color of the button A 401 periodically changes between the color 1 (402) and the color 2 (403).
- color 1 (402), color 2 (403), and their intermediate colors 404 are shown.
- the intermediate color is a color having a luminance value between color 1 and color 2.
- the color of the button A 401 is the color 1 [R: 128, G: 255, B: 255] 402 and the color 2 [R: 0, G: 255, B: 255] at the specific frequency FsHz. Change between 403 and. That is, color 1 and color 2 are alternately set for each FO / (2 ⁇ Fs) frame, and the intermediate color 404 of color 1 and color 2 is set in the frame between them.
- FIG. 4B shows the case where the frame rate FO of the image is 120 Hz and the specific frequency Fs of the visual stimulation signal is 30 Hz.
- the frame number (#) is 1 for color 1, 2 for color 3 which is an intermediate color between color 1 and color 2, and 3 for color 2.
- the color 3 which is an intermediate color between the color 1 and the color 2 is set to 4 and 5. Then, the same setting is repeated every 4 frames. That is, using 120 video frames per second, change the color 1, color 2, color 1 into 4 video frames as one cycle, and change the color gradually between color 1 and color 2,
- the brightness value of the button A 401 is adjusted.
- the color of the button A 401 is changed by periodically changing the luminance
- the axis of change is not limited to this.
- color information other than luminance values such as hue, saturation, and lightness may be changed.
- the change in color may not be identifiable to the user 130.
- the brightness is described as an adjustment axis in the present specification, the present invention is not limited thereto.
- the operation button A is arranged on the image.
- the visual stimulus signal is superimposed on the object included in the image itself.
- the object (superimposition target object) to superimpose shall be predetermined.
- the luminance value (color of a pixel) in a predetermined area (operation area; overlapping area AA) 502 of the video frame is changed at a specific frequency FsHz.
- each instrument 501 in an image is made into the superposition target object of a visual stimulation signal. That is, the color of the pixel of the meter 501 which is the superimposition target object is changed at the specific frequency FsHz.
- the operation I / F creation unit 115 calculates the overlapping area AA each time a video frame is acquired, and stores the overlap area AA in the operation I / F table.
- the image in the overlapping area AA is used as it is, and flicker is realized by changing the color of the pixel in the overlapping area AA.
- the horizontal axis of the lower graph in FIG. 5 represents time, and the vertical axis represents the luminance value.
- the base color of each pixel constituting the superimposition area AA 502 of the original video is arbitrarily changed as shown by a solid line graph 503.
- the flicker used as a visual stimulus for SSVEP is realized by periodically changing the base color as shown by a frequency curve 504.
- operation I / F creation unit 115 generates a base color for each pixel according to the specific frequency set in the overlap area based on the change in color of the pixel in overlap area AA 502 for each video frame.
- the change amount 512 of the luminance value of is calculated.
- pixel values RGB values 505, 506, 507 after superposition of the visual stimulation signal are obtained.
- Arithmetic unit 124 creates a display frame according to the determination of operation I / F creation unit 115.
- 511 indicates the original RGB value of the pixel of the image
- 512 indicates the change amount of the RGB value reflecting the luminance value (additional change amount) added to create the stimulus for flicker. It is.
- the overlay target object may not be recognized by the user 130 as an object having a flicker function as described below. For this reason, when making the object in a picture into flicker, you may show the area so that it may be understood that they have a flicker function.
- the overlap area AA 502 may be surrounded by a broken line or the like.
- a rectangular area indicated by a broken line surrounding each instrument is a superimposed area AA, that is, an area having a flicker function.
- mapping table / function table / object table [Mapping table / function table / object table] Next, the table generated by the mapping unit 117 will be described. 6 (a), 6 (b), 7 (a) and 7 (b) show the mapping table 601 generated by the mapping unit 117, the function table 610, the object table 670, the object table 680, It is a figure for demonstrating an example. Each of these tables 601, 610, 670, 680 is stored in the mapping data storage unit 118.
- the mapping table 601 is a table in which the function provided by the display device 101 is associated with the SSVEP operation I / F provided by the electroencephalogram I / F unit 102.
- the mapping table 601 includes an identification number (No.) 602 for uniquely identifying an element in the mapping table, and a function ID 603 for uniquely identifying a function provided by the display device 101.
- SSVEP_ID 604 that uniquely identifies the SSVEP operation I / F provided by the electroencephalogram I / F unit 102.
- SSVEP_ID 604 can be set independently of function ID 603. That is, as long as the function is not presented simultaneously on one screen, the same SSVEP_ID 604 may be associated with different function IDs 603.
- mapping between the function and the SSVEP operation I / F may be performed only once at the time of initial setting or may be re-executed according to the use situation.
- the registration in the mapping table 601 is performed, for example, when registration of the assigned frequency is performed in the operation I / F table 620 described later.
- the function table 610 is a table for storing details of functions for each function ID 603.
- the function table 610 includes a function ID 603 uniquely identifying the function provided by the display device 101, a function name 613, and a function outline 614 which is an outline of the function indicated by the function ID 603.
- a superimposition flag 615 indicating whether or not the visual stimulus signal is to be presented superimposed on an object in the video, and an object ID 616 uniquely identifying the object.
- the superimposition flag 615 is set to ON 617 in the case of being superimposed and presented on the object in the video, and set to OFF 618 otherwise.
- An example of the method of superimposing and presenting is, for example, the second method described in FIG.
- an example of the other method is a method of inserting an icon (button) and realizing a visual stimulation signal with the icon as in the first method described in FIG. 4, for example.
- the object table 670 and the object table 680 are tables for storing information specifying an object on which each function is to be superimposed. An object is registered in association with the object ID 616, respectively.
- FIG. 7 (a) An example of the object table 670 is shown in FIG. 7 (a).
- the object table 670 is a table referred to when the superimposition flag 615 is OFF.
- an object to be inserted into an image is registered as an object 672 for each object ID 616.
- Other examples of the object 672 to be superimposed on the image are, for example, a right arrow button, a left arrow button, a button with a specific number, and the like.
- the object table 680 is a table referred to when the superimposition flag 615 is ON.
- a superposition target object is registered as an object 682 for each object ID 616.
- the object 682 to be registered is, for example, a fuel meter, a speed meter, or the like in the example of the video frame shown in FIG.
- mapping table 601, the function table 610, the object table 670, and the object table 680 are created by the electroencephalogram control unit 120 instructing the mapping unit 117 to the functions provided by the display device 101, and the mapping data is stored. It is registered in the part 118.
- Each of the tables 601, 610, 670, and 680 may be registered in advance, or may be created or updated as necessary according to the type of video handled by the video generation unit 106.
- the display device 101 stores all or a part of the function table 610 regarding all functions of services and applications provided by the display device 101 in the storage unit 110, and the electroencephalogram control unit 120 or the mapping unit 117 Only functions that can be operated by electroencephalogram may be extracted, a function table 610 may be created, and registered in the mapping data storage unit 118.
- FIGS. 8A and 8B show examples of the operation I / F table 620 and the operation I / F table 630, respectively.
- the operation I / F table 620 is a table to be referred to when the superimposition flag is OFF. As shown in the figure, the operation I / F table 620 is a visual stimulus assigned to the SSVEP operation I / F for each SSVEP ID 604 uniquely identifying the SSVEP operation I / F provided by the electroencephalogram I / F unit 102. It comprises the frequency 623 of the signal and the information necessary to be added to the video.
- one arbitrary frequency 623 is assigned to each SSVEP_ID 604.
- the function is not presented simultaneously on one screen (video) and is presented, if it is SSVEP operation I / F (SSVEP_ID 604) associated with the function presented with a predetermined time interval or more, The same frequency may be associated with different SSVEP_ID 604.
- an area 625 which is a position of a video frame to which a visual stimulation signal is inserted in correspondence with each SSVEP_ID 604, color information used for the visual stimulation signal ( Used color 1 (626), used color 2 (627), shape (size) 624, superimposed color 628 and the like are registered.
- the shape (size) 624 is the shape and size of an image (such as a button) to which a visual stimulation signal is to be inserted.
- an image such as a button
- vertical and horizontal sizes are registered as shapes (sizes).
- the size of the radius is described.
- An area 625 is information on a position at which an image for inserting a visual stimulation signal is to be arranged.
- position information pixel position
- shape (size) 624 is rectangular, the position of a specific vertex is registered. In the case of a circle, the center position is registered.
- position information position information of each vertex when the upper left corner of the video screen is the origin (0, 0) is described.
- the data describing the area 625 may be described numerically or variable.
- the usage color 1 (626) and the usage color 2 (627) are RGB values of the colors (two colors) of the image used for the visual stimulation signal. That is, the maximum value and the minimum value of the luminance values that cause the visual stimulation signal are registered.
- the superimposed color 628 is an RGB value of a color used at the time of superimposition. This value is calculated and determined for each frame according to the frame rate of the video generated by the video generation unit 106 and the frequency 623. For example, the superimposed color 628 of the corresponding area of each frame is changed according to the frame rate so that the color information of the image area to be inserted changes between the predetermined maximum value and the minimum value in a cycle of inverse number of the frequency 623. Decide.
- the operation I / F table 630 is a table to be referred to when the superposition flag is ON. Basically, similarly to the operation I / F table 620, a visual stimulus signal assigned to the SSVEP operation I / F for each SSVEP ID 604 uniquely identifying the SSVEP operation I / F provided by the electroencephalogram I / F unit 102. And the information necessary to be added to the video.
- one arbitrary frequency 631 is assigned to each SSVEP_ID 604. Further, as information required to be added to the video, a shape 632, an insertion area 633, an original color 634, and a color 635 at the time of superposition are registered in association with each SSVEP_ID 604.
- the shape 632 is a shape of an object to which a visual stimulation signal is to be superimposed.
- the superimposition flag is ON, the visual stimulation signal is superimposed on the superimposition target object in the video.
- the shape 632 is, for example, a rectangle surrounding the overlapping target object. This is because objects in the video have various shapes.
- the insertion area 633 is information on the position where the visual stimulation signal is to be inserted.
- position information pixel position
- the area 625 describes the position of the upper left vertex of the rectangle.
- the center coordinates describe the position of the center coordinates.
- the original color 634 is color information before superposition of the object to be superimposed, and the color 635 at superposition is color information at the time of superposition. Each RGB value is registered.
- the operation I / F creation unit 115 executes the object extraction program for each frame, extracts the superposition target object, and determines each item of information.
- the color 635 at the time of superposition is determined by the frame rate of the video generated by the video generation unit 106, the frequency 631 and the original color 634.
- FIG. 9 (a) is an example of inserting an operation button as an icon
- FIG. 9 (b) is an example of a ten key.
- the insertion location of the operation area which presents the visual stimulus signal for SSVEP is previously determined in consideration of convenience etc.
- the operation area may use a template predetermined for each application, or may be created and held in advance in the electroencephalogram I / F unit 102.
- buttons B 711, the area C 712, the area D 713, and the area E 714 are respectively inserted into the area B 711, the area C 712, the area D 713, and the area E 714.
- An area B711 is an area at the upper left of the screen
- an area C712 is an area at the center of the screen
- an area D713 is an area at the upper right of the screen
- an area E714 is an area at the right center of the screen.
- Each area is represented by coordinate values (position information of pixels of the image) indicating the vertices of a rectangle.
- the area B 711 is expressed by four coordinate values of (B1, a) 715, (B2, b) 716, (B3, c) 717, and (B4, d) 718. The same applies to the remaining area C712, area D713, and area E714.
- the top left vertex of each area in FIG. 9A is registered.
- (B1, a) 715 is registered. That is, in the area 625, data specifying the area into which the icon is inserted and the relative position (described by the numerical value) from the upper left vertex in the area is described.
- a variable for example, a value based on (B1, a) 715 of the area B 711
- specific arrangement data may be entered.
- FIG. 9B illustrates a case where ten keys 721 are prepared and different frequencies are assigned to the respective ten keys.
- the ten keys 721 are buttons for inputting numerical values (numerical value input buttons 0 to 9; 722 to 731) and a numerical display pad 732 for displaying numerical values input via the numerical value input buttons 722 to 731.
- buttons other than the numeric display pad 732 are assigned two colors used as visual stimulation signals, and a frequency for periodically and periodically presenting those colors. Note that different frequencies may be assigned to the numeric display pads 732 for the respective display digit positions. This makes it possible to select a predetermined position from among the input numerical values.
- control unit 112 previously sets, for the mapping unit 117 and the operation I / F storage unit 116 via the electroencephalogram control unit 120, the mapping table 601, the function table 610, and the operation I / I.
- the creation of the F table 620, the operation I / F table 630, the object table 670, and the object table 680 is instructed.
- the operation I / F creation unit 115 refers to the function table 610 and extracts the function in which the superposition flag 615 is ON (step 1101).
- the function in which the superimposition flag 615 is ON is a function of superimposing the visual stimulation signal directly on the image.
- the operation I / F creation unit 115 assigns an arbitrary frequency in the range of 34 Hz to 75 Hz as the frequency of the visual stimulation signal to the extracted function (step 1102). Then, the result is registered in the operation I / F table 630.
- the SSVEP_ID 604 associated with the function (function ID 603) is specified in the mapping table 601. Then, the assigned value is registered in the frequency 631 of the record of the SSVEP_ID 604 of the operation I / F table 630.
- the operation I / F creation unit 115 repeats this for all function IDs 603 in which the superposition flag 615 of the function table 610 is ON. However, different frequencies are assigned to each function ID 603 (step S1103).
- the operation I / F creation unit 115 refers to the superimposition flag 615 in the function table 610 and extracts the function in which the superimposition flag is OFF. (Step 1104).
- the function in which the superimposition flag is OFF is a function of inserting an icon such as a button into a video and superimposing a visual stimulation signal directly on the icon.
- the operation I / F creation unit 115 assigns a frequency in the range of 34 Hz to 75 Hz as the frequency of the visual stimulation signal to the extracted function (step 1105). At this time, an unused frequency is assigned. Then, the result is registered in the operation I / F table 620 by the above method.
- the operation I / F creation unit 115 repeats this process for all function IDs 603 in which the superposition flag 615 of the function table 610 is OFF (step S1106), and ends the process. Again, different frequencies are assigned to each function ID 603.
- the frequency of the visual stimulation signal is 4 to 75 Hz.
- a visual stimulation signal with a frequency of 34 Hz or more is assigned to each function because a signal with a frequency of 34 Hz or more does not cause humans to feel flicker.
- the frequency at which the flicker is not perceived is called the critical fusion frequency (threshold frequency), and approximately 34 Hz usually corresponds to this threshold frequency.
- the frequencies are allocated in the range of 34 Hz to 75 Hz from small frequencies. Since the potential detected as SSVEP tends to decrease as the frequency increases, smaller frequencies may be preferentially allocated to important functions or functions with high frequency of use.
- step S1105 since flickering is perceived by the human eye at frequencies below 34 Hz, for example, a larger one of the remaining frequencies is assigned. It is also possible to intentionally assign larger frequencies to important functions for priority.
- step S1105 a visual stimulation signal is superimposed on the operation button or the like.
- flicker can be avoided by selecting two colors (two colors in the McAdam's ellipse) that do not cause flicker. A frequency determination process using this will be described later.
- step S1102 a visual stimulus signal is directly superimposed on the original image.
- the colors can not be limited to two in the McAdam's ellipse. Therefore, in step S1102, the frequency of 34 Hz or higher is preferentially assigned.
- the frequency of the visual stimulation signal is 4 to 75 Hz as described above.
- SSVEP occurs at the set frequency and its integral multiple frequency. For this reason, not all frequencies from 4 to 75 Hz can be used. For example, in the case of limiting the frequency to be used to an integer, only the odd frequency and a part of even frequencies can be used among the frequencies of 4 to 75 Hz.
- First pattern A combination pattern in which even frequencies are assigned in order from high frequency.
- the numerical values of the frequency of this pattern are listed below. 4, 10, 11, 12, 13, 14, 15, 16, 17, 18, 38, 39, 40, 41, 42, 43, 44, 45, 46, 47, 48, 49, 50, 51, 52, 53, 54, 55, 56, 57, 58, 59, 60, 61, 62, 63, 64, 65, 66, 68, 69, 70, 71, 72, 73, 74, 75
- Second pattern A combination pattern in which even frequencies are assigned in order from low frequency. The numerical values of the frequency of this pattern are listed below.
- the frequency at which SSVEP is induced is 4 to 75 Hz. However, it is not limited to this. Since the range of the frequency that induces SSVEP may change with future research results, the frequency to be used shall be allocated in the same way even if the range changes. Further, in the present embodiment, as described above, an integer frequency is used as the frequency for inducing SSVEP. However, frequencies below the decimal point (eg, 4.5 Hz, 4.77 Hz, etc.) may also be included in the usable frequencies. When the frequency is allowed to the decimal point, the number of combination patterns is further increased.
- the first pattern assigns even frequencies from the high frequency, so there are more frequencies that do not cause flickers of 34 Hz or more.
- a function with high frequency of use can assign a frequency that can measure a high potential and does not feel flicker.
- a McAdam ellipse when superimposing a low frequency visual stimulation signal on an icon such as a button, a McAdam ellipse may be used. A modification of the frequency determination process in this case will be described with reference to FIG.
- the McAdam's ellipse is a range in which the difference in light color characteristics can not be recognized by people, and a range of colors in which a person can not distinguish it from the predetermined color with the predetermined color as the center (the color at the center of the ellipse).
- the McAdam's ellipse differs depending on the point (the above-mentioned predetermined color) to be a reference.
- the operation I / F creation unit 115 first assigns frequencies to the function ID 603 in which the superposition flag 615 is ON (steps S1101 to S1103).
- the operation I / F creation unit 115 performs the following processing.
- step S1104 the function in which the superposition flag 615 is OFF is extracted (step S1104).
- step S1205 it is determined whether there is an assignable frequency remaining at a frequency of 34 Hz or more (step S1205). If it remains, as in the process described with reference to FIG. 10, the frequency is assigned to the function ID 603 (step S1105), and the process proceeds to step S1106.
- operation I / F creation unit 115 first uses color 1 (626) and usage color 2 (627) registered in operation I / F table 620 in association with SSVEP_ID 604 corresponding to extracted function ID 603. ) Is extracted (step S1206).
- the extracted use color 1 (626) and use color 2 (627) are colors within the same McAdam ellipse. For this reason, first, color regions of a usage color 1 (626) and a usage color 2 (627) are determined (step 1207).
- the color area corresponds to the name of a color to be usually used, and has a numerical width. In the present embodiment, for example, each value of the RGB system is determined.
- color 1 (626) and color 2 (627) different colors may be used, such as blue and green, or blue and blue, for example. Colors may be used. In order to make use of McAdam's ellipse and eliminate flicker, it is necessary that Use color 1 (626) and Use color 2 (627) be similar colors and that they be colors within the same ellipse. is there.
- Use color 1 (626) and Use color 2 (627) are within the same MacAdam ellipse (step S1208).
- the interconversion between each value of RGB system of use color 1 (626) and use color 2 (627) and XYZ values indicating the McAdam ellipse uses a predetermined conversion formula.
- step S1209 determines the McAdam ellipse closest to Use color 1 (626) or Use color 2 (627), and use color Adjust 1 (626) and usage color 2 (627) to colors in the ellipse. Then, the process proceeds to step S1210.
- step S1209 when only one of the used colors is a color in the McAdam ellipse, the other used color is arbitrarily selected from the colors in the McAdam's ellipse and re-registered. Also, if both used colors are not within the McAdam ellipse, select one of the McAdam ellipses closest to one of the used colors, and set the other used color to an arbitrary color within that ellipse. .
- the operation I / F creation unit 115 repeats the above processing for all function IDs 603 in which the superposition flag 615 of the function table 610 is OFF (step S1106), and ends the processing.
- the operation unit 124 adjusts the pixel values in each video frame according to the operation I / F table 620 and / or the operation I / F table 630 to create a display frame.
- the operation I / F table 620 is an example of the operation I / F when the superposition flag 615 of the function table 610 is OFF. In this case, an icon such as a button is inserted, and a visual stimulation signal is superimposed on the icon.
- the operation I / F table 630 is an example of the operation I / F when the superposition flag 615 of the function table 610 is ON. In this case, the visual stimulation signal is superimposed on the object in the video frame.
- operation I / F table 620 When an icon such as a button is inserted (operation I / F table 620), the arrangement position and size of the icon when the visual stimulation signal is superimposed on the icon are registered in advance in operation I / F table 620. However, in the case of direct superposition on an object in a video frame (operation I / F table 630), the arrangement position and size of the visual stimulation signal can not be determined until the actual video frame is obtained.
- the operation I / F creation unit 155 updates the operation I / F table 620 and the operation I / F table 630 each time the video generation unit 106 generates a video frame. Specifically, in the operation I / F table 620 for the case where the superimposition flag 615 is OFF, the superimposed color 628 is determined. Further, in the operation I / F table 630 when the superimposition flag 615 is ON, the shape 632, the insertion area 633, the original color 634, and the color 635 at the time of superimposition are determined.
- the operation unit 124 After that, the operation unit 124 generates a display frame with reference to the latest operation I / F table 620 and the operation I / F table 630.
- the operation I / F table 620 In the operation I / F table 620, items excluding the superimposed color 628 are registered. However, when changing the insertion position or shape of each icon, the shape of the operation I / F table 620, the size 624, and the area 625 may be determined for each frame.
- non-display / display of the icon is realized by deleting or registering information registered from the operation I / F table 620. Specifically, data concerning the area, 625, superimposed color 628, etc. is deleted or registered, and the icon is hidden / displayed.
- the display image creation process updates the operation I / F table 630 and completes the operation I / F table update process (step S1301) and the display frame for creating the display frame. Creating processing (step S1302).
- the display image generation process shown in FIG. 12A is executed each time a video frame is acquired.
- FIG. 12B shows a flow of operation I / F table update processing executed by the operation I / F creation unit 115 each time a video frame is acquired.
- the operation I / F creation unit 115 acquires pixel information of the video frame (processing target frame) (step S1401).
- the operation I / F creation unit 115 determines the superimposed color 628 of the processing target frame for all the records in the operation I / F table 620 (step S1402). At this time, in the case where an object such as a registered button is to be hidden, the superimposed color is not determined (therefore, left blank).
- step S1403 When the above process is completed for all the records in the operation I / F table 620 (step S1403), next, the operation I / F creation unit 115 performs the following steps S1404 for all the records in the operation I / F table 630. The processing of S1408 is performed.
- the operation I / F creation unit 115 identifies a superposition target object (step S1404).
- the mapping table 601, the function table 610, and the object table 680 are referred to.
- the function ID 603 associated with the SSVEP_ID 604 of the record to be processed is specified.
- the object ID 616 associated with the function ID 603 is identified.
- the object 682 associated with the object ID 616 is specified as a superimposition target object.
- the operation I / F creation unit 115 extracts the superposition target object of the processing target frame (step S1405).
- the pixel area of the object 682 of the processing target frame is extracted.
- the acquired pixel information is used. For example, if the object 682 is a fuel meter, a pixel area corresponding to the fuel meter is extracted as a superposition target object from the pixel information.
- the operation I / F creation unit 115 identifies the extracted shape of the superposition target object, the pixel position in the video frame, and the color information, and inserts the shape 632 of the operation I / F table 630 and the insertion.
- the area 633 and the original color 634 are registered (step S1406).
- the shape surrounding the object may be the shape of the object as in the overlapping area AA 502 in FIG.
- step S1407 determines the color 635 at the time of superposition in accordance with the frame rate of the video, the frequency 623 and the original color 634.
- FIG. 13 is a processing flow of display frame creation processing of the present embodiment. This process is executed every time the video generation unit 106 generates a video frame, in response to the operation I / F creation unit 115 finishing the operation I / F table update process.
- the operation unit 124 acquires pixel information of the latest video frame (step S1501). Then, with reference to the operation I / F table 620 and the operation I / F table 630, the following processing is performed for each record. In the following, processing is performed in the order of the operation I / F table 620 and the operation I / F table 630. Note that this order may be reversed.
- the insertion pixel position of an icon such as a button is specified by the shape, size 624, and area 625 of the processing target record (step S1502). Then, with reference to the superimposed color 628, the display color of the pixel position is determined (step S1503), and the display color is reflected (step S1504). At this time, the display color is a value standardized according to the characteristics of the display device unit 125.
- step S1505 When the above processing is performed on all records with shape, size 624, area 625, and superimposed color 628 of the operation I / F table 620 (step S1505), next, the operation I / F table 630 Shift to processing of each record.
- the superimposed color 628 is not determined in step 1402 of FIG. 12, no value is input to the superimposed color 628.
- the pixel area of the superposition target object is specified from the shape 632 of the operation I / F table 630 and the insertion area 633 (step S1506). Then, the display color of the superimposed pixel area is determined according to the color 635 at the time of superimposition (step S1507), and is reflected on the display frame (step S1508). Also in this case, the display color is a standardized value according to the characteristics of the display device unit 125.
- step S1509 If the above process is performed for all records in which the shape 632 and the insertion area 633 of the operation I / F table 630 are registered (step S1509), the process is ended.
- the data of the insertion area 633 of the operation I / F table 630 is at least blanked.
- FIG. 14A is a processing flow of eye gaze frequency detection processing of the present embodiment. This process is performed in order for the sightline frequency detection unit 123 to detect the frequency of the visual object at which the user 130 who is the wearer of the display device 101 is gazing.
- the preprocessing unit 121 executes preprocessing (noise removal) of the measured brain wave (step 1601) and amplifies the signal (step 1602).
- the feature extraction unit 122 Fourier-transforms the processed electroencephalogram to calculate a frequency sequence power spectrum (step 1603), and detects a frequency having a peak (step 1604). Finally, the sight-line frequency detection unit 123 detects the smallest frequency among the detected frequencies as the gaze target frequency (step 1605).
- FIG. 14B is a processing flow of the function determination processing of the present embodiment.
- the function determination unit 119 determines the function associated with the frequency from the detection result of the frequency of the target the user 130 is gazing at.
- the function determination unit 119 acquires the gaze target frequency that is the analysis result of the measured electroencephalogram from the electroencephalogram analysis unit 114 (step 1701).
- the function determination unit 119 determines the function corresponding to the gaze target frequency (step S1702).
- the SSVEP_ID 604 to which the gaze target frequency is assigned as the frequency 623 is specified.
- the mapping table 601 the corresponding function ID 603 is specified.
- the function outline 614 of the function ID 603 is extracted.
- the function determination unit 119 notifies the electroencephalogram control unit 120 of the function ID 603 and the function outline 614 determined in step 1702.
- the electroencephalogram control unit 120 requests the control unit 112 to execute the function in the execution unit 109.
- the display device 101 includes a Brain Computer Interface (BCI) as an input operation interface, and performs augmented reality, virtual reality, and / or mixed reality display.
- BCI Brain Computer Interface
- An EEG interface device that detects an electroencephalogram signal having a frequency corresponding to the frequency of the visual stimulation signal as BCI and controls the device, and is an operation area that is a predetermined area on each acquired video frame.
- Operation I / F creation unit 115 that creates the visual stimulation signal having the specific frequency by changing color information of the region to be displayed, and an operation unit 124 that outputs the visual stimulation signal having the specific frequency to the display device
- a control unit 112 for controlling in accordance with the control instruction, using the electroencephalogram interface system characterized in that it comprises a.
- the display device 101 periodically changes color information of a predetermined operation area on a video frame at a frequency assigned in advance in a range of 4 to 75 Hz to function as an evoked stimulus for SSVEP. That is, according to the present embodiment, the visual stimulation signal is inserted into a predetermined area of the video frame itself.
- the predetermined operation area For example, in the case of an operation button, a character input key, or the like as the predetermined operation area, it is changed between two predetermined luminance values. Also, when changing the image itself, the pixel value of the area is changed using a predetermined luminance value change amount.
- an electroencephalogram of a frequency assigned to the area is induced.
- the electroencephalogram analysis unit 114 detects the frequency assigned to the button or key.
- the operation or key selected by the user 130 can be determined according to the detected frequency, and the function assigned to each button or key can be executed. As a result, the user 130 can execute the operation intended by the user 130 simply by looking at the button or key for operation or the area.
- a desired function can be performed only by an operation by gaze. Since operations other than those by gaze are unnecessary, even public places can be used without problems. Therefore, I / F can be realized with few restrictions on the place of use.
- the BCI technology using brain waves includes the characteristics of waveform components of brain waves, those utilizing P300 and eye-related potentials, and the characteristics of frequency components of brain waves, such as event related synchronization (hereinafter referred to as ERS), events There is an event related de-synchronization (Event Related De-synchronization (hereinafter referred to as ERD) and one utilizing SSVEP.
- ERS event related synchronization
- ERD Event Related De-synchronization
- SSVEP has the most excellent features in terms of performance, data transfer rate, required training period, and the like.
- a visual stimulation signal that can be inserted depending on the frame rate of basic visual information Is limited and the available frequencies are limited.
- the visual stimulation signal is directly inserted on each video frame. Therefore, the desired frequency can be freely inserted in the selectable frequency range independently of the frame rate. Therefore, BCI using SSVEP with a higher degree of freedom can be realized compared to the conventional method of inserting a visual stimulation signal between frames. Further, since the desired frequency can be freely inserted, the visual stimulation signal can be effectively assigned to the input key or the operation screen.
- the visual stimulation signal is superimposed on the video frame generated by the video generation unit 106, and the case of displaying on the display device unit 125 together with the video frame has been described as an example. It is not limited to this. For example, only the visual stimulus signal may be displayed not in the video frame but in the area corresponding to the operation area of the real world visually recognized by the user. In this case, the display position and the display pixel value are calculated by the same method as described above.
- ⁇ Modification 2> when the visual stimulation signal is directly superimposed on the video frame, the amount of change in the luminance value is added to the RGB value of the original video frame.
- the amount of change in the luminance value is added to the RGB value of the original video frame.
- it is not limited to this method. For example, as shown in FIG. 15, without adjusting the RGB values of the original video frame, one color (color for luminance, LC below) is newly added, and four colors of R, G, B, and LC are added. It may be implemented using a channel.
- the color LC to be added may be any of R, G, and B. Also, they may be mixed colors (for example, gray scale). The amount of change in luminance value for the evoked stimulus for SSVEP is adjusted for this added color LC.
- FIG. 15 is an example in the case of superimposing on an image (frame) of an instrument of an airplane, as in FIG.
- Each instrument is a superposition target object.
- the rectangular area surrounding the meter 501 is the overlapping area AA502.
- the base color of each pixel in the overlapping area AA 502 changes as shown by the solid line graph 503. Also in the present modification, based on the frequency curve 504, the amount of change in luminance 512 for each pixel is calculated according to the specific frequency set in the overlap area AA 502, and the pixel value (RGBLC value after superposition of the stimulation frequency for SSVEP) , 505, 506, 507).
- the LC values 533 and 534 of each pixel in the overlapping area AA 502 based on the variation (508, 509, 510) of the change in luminance of the pixel in the overlapping area AA 502 determined for each video frame and the pixel value in the overlapping area AA 502 , 535 is calculated. Based on the result, the image of the frame is edited and displayed, and a visual stimulus for inducing SSVEP is presented to the user 130.
- the display device 204 is a liquid dry display (LCD) 221 (first display device) for displaying an image, and a visual stimulation adjustment for inducing SSVEP.
- LCD 222 second display device. That is, the display device 204 is configured in a double configuration of the image LCD 221 and the brightness adjustment LCD 222 for creating a visual stimulus for inducing SSVEP.
- the input light is made incident on the LCD 222 for luminance adjustment, the luminance is adjusted for visual stimulation, and then the input light whose luminance is adjusted is inputted to the LCD 221 for video.
- the user will eventually view the video from the video LCD 221. Thereby, the image after the brightness adjustment is viewed (perceived).
- the functional block of the display unit 103a of this modification is shown in FIG.
- the display unit 103a according to the present modification further includes a spatial dimmer 131 corresponding to the LCD 222 for performing luminance adjustment for inducing SSVEP.
- the spatial dimmer 131 determines the RBG value necessary for modulation based on the result of the operation I / F storage unit 116 (such as position information of a pixel necessary to create a stimulus for inducing SSVEP, a change in luminance, etc.) Calculate the and adjust the output.
- the space dimmer 131 is disposed between the illuminator 126 for emitting input light and the display device unit 125 corresponding to the LCD 221 for video.
- space dimmer 131 is shown independently in FIG.16 (b), it is not limited to this. It may be incorporated into the illuminator 126 or the display device unit 125.
- the LCD 222 for adjusting the visual stimulus for inducing SSVEP can adjust not only the luminance but also the hue and the saturation.
- this modification is applicable also when inserting a visual stimulation signal by icons, such as a button.
- icons such as a button.
- An icon such as a button is displayed on the LCD 222.
- the brightness is further adjusted using one additional color or one additional device (LCD 222). Therefore, the number of operations can be reduced and the processing can be performed at high speed.
- each function of the display device 101 is realized by one hardware in the above embodiment, the present invention is not limited to this. Each function may be distributed to a plurality of hardware to realize a display device.
- the display device 101a illustrated in FIG. 17 includes an electroencephalogram I / F device 141, a control device 143, an image generation device 145, and a display device 146.
- the electroencephalogram I / F device 141 includes an electroencephalogram I / F unit 102 and a communication unit 142.
- the communication unit 142 communicates (transmits and receives data) with another device, here, the control device 143.
- the configuration of the brain wave I / F unit 102 is the same as the configuration of the same name in the above embodiment.
- the control device 143 further includes a control unit 112, a storage unit 110, an execution unit 109, an operation unit 107, a communication unit 105, and a microphone / speaker 104.
- Each configuration basically implements the same function as the configuration of the same name in the above embodiment.
- the communication unit 105 also communicates with the communication unit 142 of the electroencephalogram I / F device 141, the communication unit 151 of the video generation device 145, and the communication unit 161 of the display device 146. Further, the video generation unit 106 and the display unit 103 are not provided.
- the video generation device 145 includes a video generation unit 106, a communication unit 151, a video output I / F unit 153, and a video generation control unit 152.
- the video output I / F unit 153 is connected to the video input I / F unit 163 of the display device 146, and transmits and receives video and video data.
- the image generation control unit 152 controls the operation of the entire image generation apparatus 145 and each component.
- the display device 146 includes a display unit 103, a communication unit 161, a display control unit 162, and a video input I / F unit 163.
- the display control unit 162 controls the operation of the entire display 146 and each component.
- the configuration of the display unit 103 is the same as the configuration of the display unit 103 or 103 a in the above embodiment.
- the respective devices 141, 143, 145, 146 are connected via the communication units 142, 105, 151, 161, respectively, and operate as one system.
- the electroencephalogram I / F device 141 can be realized by, for example, an electroencephalograph.
- the control device 143 can be realized by, for example, a PC or a smartphone.
- the image generation device 145 can be realized by, for example, a camera.
- the display device 146 can be realized by, for example, a display.
- the determination result by the function determination unit 119 of the electroencephalogram I / F device 141 is transmitted to the control device 143 via the communication units 142 and 105. Then, the control device 143 controls the video generation device 145 and the display device 146 based on the received determination result.
- the brain wave I / F device 141 by making the brain wave I / F device 141, the control device 143, the image generation device 145, and the display device 146 independent devices, products such as a head mounted display, a head up display, and a projector can be provided.
- the display device 101 is also applicable.
- the HUD system 101 b includes an electroencephalogram I / F device 141 and an imaging device 147.
- the electroencephalogram I / F device 141 has the same configuration as that of the third modification.
- the video device 147 includes a control unit 112, a storage unit 110, an execution unit 109, an operation unit 107, a video generation unit 106, a communication unit 105, a microphone / speaker 104, and a display unit 103.
- Each configuration basically implements the same function as the configuration of the same name in the above embodiment.
- the communication unit 105 also communicates with the communication unit 142 of the electroencephalogram I / F device 141.
- the display unit 103 has the same configuration as the display unit 103 or 103 a of the above embodiment.
- the HUD system 101 b has a configuration in which the electroencephalogram I / F unit 102 is independent of the display device 101 of the above embodiment.
- the electroencephalogram I / F device 141 of the HUD system 101b includes, for example, a headrest type electroencephalograph, a headrest mounted with a non-contact electroencephalograph, a steering wheel mounted with a technology capable of measuring electroencephalograms from the skin surface of a hand, and a watch type This is realized by the electroencephalogram measurement apparatus of
- sensors that can measure brain waves without contact include an optical electric field sensor that detects the potential from an electric field, and a Magneto Impedance sensor (hereinafter referred to as an MI sensor) that detects a potential from a magnetic field.
- the electroencephalogram I / F device 141 can be obtained by incorporating these techniques into a headrest portion or the like.
- the electroencephalogram detection unit 113 uses not an electrode but an optical fiber or an MI sensor.
- the determination result of the function determination unit 119 of the electroencephalogram I / F device 141 is transmitted to the video apparatus 147 via the communication units 142 and 105.
- the control unit 112 of the video device 147 controls the video generation unit 106 and the display unit 103 based on the determination result received from the electroencephalogram I / F device 141.
- the determination result of the function determination unit 119 of the electroencephalogram I / F device 141 is not limited to the control of the image device 147, and cooperates with other devices in the vehicle such as a steering wheel and a seat having a communication function. You may use it for
- FIG. 19 shows a configuration example in the case where the display device of the above embodiment is applied to a projector system.
- the projector system 101 c includes an electroencephalogram I / F device 141, a control device 148, and a display device 146.
- the electroencephalogram I / F device 141 and the display device 146 have the same configuration as that of the third modification.
- Control device 148 includes control unit 112, storage unit 110, execution unit 109, operation unit 107, video generation unit 106, communication unit 105, microphone / speaker 104, video output I / F unit 153, and the like. And. Each configuration basically implements the same function as the configuration of the same name in the above embodiment.
- the communication unit 105 also communicates with the communication unit 142 of the electroencephalogram I / F device 141 and the communication unit 161 of the display device 146. Also, the video output I / F unit 153 is connected to the video input I / F unit 163 of the display device 146, and transmits and receives video and video data.
- the projector system 101c has a configuration in which the electroencephalogram I / F unit 102 and the display unit 103 are independent of each other from the display device 101 according to the above-described embodiment.
- the electroencephalogram I / F device 141 of the projector system 101c is realized by, for example, a headset type electroencephalograph, a wristwatch type electroencephalograph which detects an electroencephalogram from a hand, or a headrest type electroencephalograph such as a chair or a sofa.
- the control device 148 of the projector system 101c is realized by, for example, a PC or a smartphone.
- the display device 146 of the projector system 101c is realized by a projector.
- the projector for realizing the display device 146 may not have the calculation unit 124.
- the controller 148 is configured to include the arithmetic unit 124 instead.
- a visual stimulation signal is displayed as in the first embodiment.
- the operation instruction is performed using the detection result of the electroencephalogram of the user 130 who has seen the video frame.
- the detection result is used to determine whether the user 130 gazes at an object.
- FIGS. 20 (a) and 20 (b) An outline of this embodiment will be described with reference to FIGS. 20 (a) and 20 (b).
- HUD head-up display
- an object 541 that is difficult for the driver to see at night or in bad weather. For example, people crossing the road, cars, obstacles, etc.
- the imaging is performed by, for example, a vehicle-mounted visible light camera, a far infrared camera, a stereo camera or the like.
- the object is detected by, for example, a moving object detection program (moving object detection unit) or the like.
- the marker 542 is displayed on the display device unit 125 of the HUD as highlighting, and the visual stimulation signal is superimposed on the highlighting portion (marker 542).
- the display position of the marker 542 is in the vicinity of a region on the transparent display device unit 125 where the user 130 sees a real image of the object 541 (hereinafter, referred to as a region corresponding to the real image of the object 541).
- a semicircular figure (emphasis marker 542 for highlighting) is superimposed on the area corresponding to the foot of the real image of the elderly person (object 541) crossing the detected road.
- the visual stimulation signal is superimposed using the method of the first embodiment.
- An example of the image recognized by the user is shown in FIG.
- the configuration of the HUD system 101b of the present embodiment is basically the same as that of the first embodiment.
- the storage unit 110 includes a moving object detection program.
- the function determination unit 119 also refers to the operation I / F storage unit 116.
- the operation I / F table 620 detects the frequency 623, the shape, the size 624, the used color 1 (626), the used color 2 (627), the superimposed color 628, and the marker display position An area 625 which is a relative position to the moving object is registered in advance.
- the display position of the marker 542 changes for each frame.
- the operation I / F creation unit 115 of the present embodiment detects the object 541 as a moving body by the moving body detection program each time the video generation unit 106 generates a video frame, and registers the area 625.
- the operation I / F creation unit 115 of the present embodiment detects the object 541 as a moving body by the moving body detection program each time the video generation unit 106 generates a video frame, and registers the area 625.
- the operation I / F creation unit 115 of the present embodiment detects the object 541 as a moving body by the moving body detection program each time the video generation unit 106 generates a video frame, and registers the area 625.
- there are a plurality of moving bodies they are registered in association with different frequencies 623.
- an area 625 is registered in association with the same frequency 623 for those considered to be the same moving body.
- the video generation unit 106 generates a video frame
- the operation I / F creation unit 115 registers the area 625 of the operation I / F table 620, and every time the superimposed color 628 is determined, the operation I / F is performed.
- F table 620 a display frame is generated.
- mapping table 601 and the function table 610 may not be provided.
- the function determination unit 119 of the electroencephalogram I / F device 141 refers to the operation I / F table 620 of the operation I / F storage unit 116 when the frequency for SSVEP is detected. It is determined whether or not there is a record corresponding to the detected SSVEP frequency.
- the brain wave detection unit 113 includes, for example, a headrest using a magnetic sensor or an optical electric field sensor, a steering wheel using a sensor that measures brain waves from the surface of a hand, The mobile device etc. which used the sensor of the implant form, etc. are used.
- FIG. 22 is an alerting process flow of the present embodiment. The following processing is performed each time the video generation unit 106 generates a video frame.
- the imaging device 147 detects the object 541 in the field of view (step S4101).
- the object 541 is an object moving around the road, an obstacle object 541 (for example, a part of a tree), or the like.
- a visual stimulation signal of a specific frequency is superimposed on the vicinity of the detected object 541 on the display device unit 125 of the HUD by the electroencephalogram I / F device 141 and the video device 147 (step S4102).
- the operation I / F creation unit 115 of the electroencephalogram I / F device 141 creates the operation I / F table 620.
- the operation unit 124 generates a display frame.
- the marker is displayed on the display device unit 125 near the detected object 541, and a visual stimulation signal of a specific frequency is superimposed on the marker.
- the electroencephalogram I / F device 141 measures an electroencephalogram (step S4103) and analyzes it (step S41104).
- the function determining unit 119 then refers to the operation I / F table 620, and determines whether the superimposed specific frequency is detected as a frequency for SSVEP (step S4105).
- the video apparatus 147 If not detected, the video apparatus 147 outputs a warning (step S4106).
- the warning is output as voice using, for example, the microphone / speaker 104.
- the video apparatus 147 records the progress of the process as a drive log in the storage unit 110 of the video apparatus 147 (step 4107), and ends the process.
- step S4105 If it is detected in step S4105, the process directly proceeds to step S4107.
- a marker 542 for calling attention is inserted at a position near the real image of the detected object 541 on the display device unit 125, and the visual stimulation signal is superimposed on the marker 542 as an example. I gave it up and explained. However, it is not limited to this method. For example, a marker may be displayed on the area corresponding to the real image of the extracted object 541 on the display device unit 125, and the visual stimulation signal may be superimposed on the marker.
- the superposition method is the same as in the first embodiment.
- FIGS. 21 (a) and 21 (b) Display examples in this case are shown in FIGS. 21 (a) and 21 (b).
- the object image 543 is arranged on the display device unit 125 in the area corresponding to the object 541, and the visual stimulation signal is superimposed on the object image 543.
- the operation I / F creation unit 115 detects the object 541 as a moving object by the moving object detection program for each frame, and completes the operation I / F table 630. Then, the operation unit 124 generates a display frame according to the operation I / F table 630.
- the marker 542 may be inserted on the video frame generated by the video generation unit 106.
- the visual stimulus signal may be superimposed on the image (object image 543) of the object 541 on the video frame.
- the method of superimposing the visual stimulation signal may be configured to be selectable. For example, it is selectable according to the purpose, the age of the user, and the situation. Further, display / non-display of the alerting marker may be switchable.
- a marker for alerting is provided in accordance with the user's instruction. Further, it may be configured to learn from the recorded drive log the continuity of the user's attention and the situation where the attention is distracted. Then, the display / non-display of the marker for alerting may be automatically switched according to the learning result.
- a predetermined figure (icon) for a marker or the like is inserted into a detected moving object at a predetermined position (for example, immediately below or directly above the moving object). Then, a visual stimulus signal is realized by periodically changing the display color of the marker between two predetermined colors.
- this embodiment has such a configuration, when the driver gazes at the marker 542 in the semicircular highlight display, the superimposed frequency is detected by the electroencephalogram I / F device 141. This makes it possible to grasp whether the driver recognizes or pays attention to the highlighted portion.
- the present embodiment it is possible to confirm whether the driver is gazing at the object 541 by displaying the SSVEP induction signal in the vicinity of the object 541 on the HUD, and giving a warning when not gazing at the object 541. it can.
- the marker overlapping method has been described by taking the HUD as an example.
- the marker superposition method of the present embodiment can be applied to the real world, and the visual stimulation signal can be superimposed on the markers.
- the visual stimulation can be superimposed on the marker by using the overlapping area AA 502 in FIG. 5 as a marker.
- a marker is displayed so as to overlap a specific object in the real world.
- an event related de-synchronization (ERD) method is used in combination with the method using SSVEP described in each of the above embodiments as an electroencephalogram I / F.
- ERD refers to a phenomenon in which a predetermined frequency component decreases before and after an event.
- the type of motion or motion image of the body is detected by the feature of electroencephalogram called ERD.
- ERD electroencephalogram
- the frequencies to be analyzed are, for example, ⁇ waves (8 to 12 Hz) and ⁇ waves (18 to 25 Hz). However, it is not necessarily limited to these frequencies.
- a ⁇ wave will be described as an example.
- the Fourier transform of the electroencephalogram measured in the motor area associated with the right hand gives the magnitude of the potential of the ⁇ wave (8 to 12 Hz) frequency Decrease immediately after the movement or movement image.
- This phenomenon can be detected, for example, by comparison with brain waves at relaxation. In the same manner, it is possible to detect a change in the potential when an action or action image of the left hand is recalled.
- the SSVEP method requires a display device for displaying a visual stimulation signal.
- ERD method only motion of the body or imaging of the motion is sufficient, and therefore no device other than an electroencephalogram I / F device is needed to realize control by electroencephalogram.
- electroencephalogram I / F device since only the motion image can be operated, there are few restrictions at the time of operation.
- the display device (AR device) of this embodiment basically has the same configuration as the display device 101 of the first embodiment. However, as described above, not only SSVEP but also ERD is used in combination. Therefore, the configuration of the electroencephalogram analysis unit 114a is different. Also, the tables created by the mapping unit 117 and the operation I / F creation unit 115 and held in the corresponding storage units are different. Furthermore, the processing of the function determination unit 119 is also different. The following description will be made focusing on the configuration different from the first embodiment.
- FIG. 23 is a functional block diagram of the electroencephalogram analysis unit 114a of the present embodiment. As shown in the figure, the electroencephalogram analysis unit 114a of this embodiment further includes an ERD detection unit 171 in addition to the components of the first embodiment.
- the ERD detection unit 171 detects the electroencephalogram detection unit 113, analyzes the feature amount extracted by the feature extraction unit 122 through the pre-processing unit 121, and detects a portion of the brain where the electric potential of the microwave is decreased (mainly near the motor area). Identify Then, it is detected which part of the body the user has moved or which part of the body is moved. Then, as the detection result, the fact that the action or action image execution of the part concerned has been detected is output.
- the ERD detection unit 171 analyzes the change of the frequency in real time while the electroencephalogram is detected from the electroencephalogram detection unit 113.
- the ERD detection unit 171 performs the above analysis, brain waves are detected from a plurality of electrodes.
- the location of the electrode suitable for detecting the change in the frequency is the motor area near the top of the head (a wide area from the left brain to the right brain). Since the place where the change in electric potential occurs differs depending on the part of the body (for example, the movement of the right hand is the motor area of the left brain, and the movement of the left hand is the movement area of the right brain near the motor area of the right brain).
- “general” means that it is not biased to a part of the area such as only the left brain and only the right brain.
- the installation place of the electrode for detecting the change of the said frequency is not necessarily limited to the exercise
- an example is shown in which the mode of the SSVEP system is turned ON / OFF by control based on the ERD system. That is, an example of the case where the actual motion by the left hand or the motion image 818 is detected by ERD and the visual stimulus signal for SSVEP is displayed (SSVEP ON) / non-displayed (SSEVP OFF) on the screen of the display device 101. It is.
- the visual stimulation signal for SSVEP is displayed on the screen of the display device 101 (SSVEP function ON) 811
- SSVEP function ON when the user operates the left hand or recalls an operation image, the visual stimulus signal for SSVEP is made non-display (SSVEP function OFF) 812.
- SSVEP function ON 811 When the user operates the left hand or recalls an operation image in the SSVEP function OFF 812 state, the SSVEP function ON 811 is set.
- the function determination unit 119 refers to the function table based on the analysis result of the electroencephalogram analysis unit 114, and determines the function selected by the user.
- the function determination unit 119 determines that the function selected by the user is to turn on the SSVEP function when the output with the movement of the left hand is received from the ERD detection unit 171 in the state of the SSVEP function OFF 812 Do.
- the function selected by the user is to turn off the SSVEP function.
- mapping unit 117 creates the mapping table 640 for ERD and the function table 650, and the operation I / F creating unit 115 creates the mode management table 660. Examples of these are shown in FIGS. 25 (a), 25 (b) and 25 (c), respectively.
- mapping table 640 for ERD ERD_ID 644 is registered, for example, in association with the function ID 643.
- the mapping table 640 is stored in the mapping data storage unit 118 by the user controlling the control unit 112, the electroencephalogram control unit 120, and the mapping unit 117 via the operation unit 107 at the time of initial setting.
- the function name 653 and the function outline 654 of each function ID 643 are registered.
- the electroencephalogram control unit 120 receives the function prepared for each application, generates an instruction to the mapping unit 117, creates the function table 650 for ERD, and registers the function table 650 in the mapping data storage unit 118.
- the mode management table 660 for ERD manages ON / OFF states of control methods such as the SSVEP method. Therefore, as shown in FIG. 25C, the mode type 663 and the state 664 of each ERD_ID 644 are registered in the mode management table 660.
- the mode management table 660 is created by the operation I / F creation unit 115 according to an instruction from the electroencephalogram control unit 120 and registered in the operation I / F storage unit 116.
- the state 664 has states of ON and OFF, and for example, 1 and 0 are assigned, respectively.
- the function determination unit 119 when the function determination unit 119 according to the present embodiment receives information on the part where the ERD is detected from the ERD detection unit 171, the function determination unit 119 accesses the mapping table 640 for the ERD and associates it with ERD_ID 644 indicating the information on the part.
- the function ID 643 is identified.
- the function table 650 is accessed to specify the function associated with the function ID 643.
- the mode management table 660 for ERD is accessed, the state 664 is extracted from the ERD_ID 644, and the processing to be performed is determined.
- FIG. 26 is a flow of processing when the operation described in FIG. 24 is performed. That is, the visual stimulus for SSVEP is displayed (ON) / non-displayed (OFF) by the motion of the left hand or the motion image. In addition, functions are not assigned to other motions or motion images.
- the ERD detection unit 171 Fourier-transforms each of the brain waves measured by the plurality of electrodes (814, 815, 816, 817) of the motor area to detect a ⁇ wave (step S5101).
- the electrode 817 is similarly provided also on the left side. This makes it possible to determine whether the potential of the right brain has changed or the potential of the left brain has changed.
- the ERD detection unit 171 checks whether the ⁇ wave of the electroencephalogram measured by the electrode 815 in the motor area corresponding to the left hand is lowered (step S5102), and if it is lowered, the operation or action image of the left hand is executed It is determined that Here, the ERD_ID 644 of the mapping table 640 is transmitted to the function determination unit 119.
- the function determination unit 119 transmits the ERD_ID 644 to the electroencephalogram control unit 120. Further, the function name and function outline corresponding to the ERD_ID 644 are checked with reference to the function table 650, the corresponding function is specified, and the result is transmitted to the electroencephalogram control unit 120 (step S5103).
- the electroencephalogram control unit 120 refers to the mode management table 660 based on the received ERD_ID 644 and determines whether the state 664 is ON (step S5104).
- the electroencephalogram control unit 120 turns off the SSVEP function (step S5105), sets 0 in the state 664 of the mode management table 660 (step S5106), and ends the processing.
- step S5104 the electroencephalogram control unit 120 turns on the SSVEP function (step S5107), sets 1 in the state 664 (step S5108), and ends the processing.
- step S5102 when the ⁇ wave of the electroencephalogram measured by the electrode 815 of the motor area corresponding to the left hand is not decreased, the ERD detection unit 171 determines the ⁇ of the electroencephalogram measured by the electrode 815 of the motor area corresponding to the right hand. It is checked whether the wave has dropped (step S5109), and the result is transmitted to the function determination unit 119.
- the function determination unit 119 transmits the ERD_ID 644 of the corresponding mapping table 640 to the electroencephalogram control unit 120. Further, the function name and function outline corresponding to the ERD_ID 644 are checked with reference to the function table 650, the corresponding function is specified, and the result is transmitted to the electroencephalogram control unit 120 (step S5110). As a result, since the corresponding function is not assigned, the electroencephalogram control unit 120 instructs the display unit 103 to display an operation error message. In response to that, the display unit 103 outputs an operation error message (step S5111), and ends the process.
- step S5109 If it is determined in step S5109 that the ⁇ wave of the electroencephalogram measured by the electrode 817 in the exercise area corresponding to the right hand has not decreased, the process returns to step S5101 and the process is repeated.
- the mode ON / OFF function is assigned to the motion or motion image of the left hand, it is also possible to assign to the motion of the right hand or motion image of the right hand. It is also possible to assign different functions to the right hand and left hand movements or movement images.
- ON / OFF of SSVEP is allocated as operation by ERD, it is not limited to this. For example, it may be used to turn on / off the power of the display device 101. Moreover, when several I / F is prepared, you may use for switching of I / F.
- the ERD method in order to use the ERD method in combination, by operating the limb or imaging the motion of the limb, not only the SSVEP mode ON / OFF but also the display device Operation control such as power ON / OFF and I / F switching can be performed. As a result, control by the electroencephalogram of the display device in a state where the SSVEP method is not functioning becomes possible.
- the present invention is not limited to this.
- an ERS scheme using event related synchronization (ERS) may be used together.
- the case of using an I / F using brain waves such as SSVEP or ERD as the operation I / F of the operation unit 107 of the AR device (display device) has been described as an example.
- the type of operation I / F of the display device is not limited to one.
- a plurality of types of I / Fs may be provided and configured to be selectable by the user.
- a display device provided with an I / F (electroencephalogram interface) using a brain wave, a gesture interface (gesture I / F), and an audio interface (audio I / F) will be exemplified.
- I / F electronic medical record
- gesture I / F gesture interface
- audio I / F audio interface
- the display device includes, for example, an imaging device 147 and an electroencephalogram I / F device 141 as in a HUD system 101b shown in FIG. Furthermore, a gesture I / F device for realizing the gesture IF and an audio I / F device for realizing the audio I / F are provided. Further, the control unit 112 of the video apparatus 147 functions as a reception unit that receives the selection of the I / F. Then, the control unit 112 functions as a setting unit that sets the selected I / F as the operation unit 107.
- the selected interface is enabled. That is, only the instruction from the selected I / F is accepted.
- the control unit 112 may display, for example, selectable I / F types on the display unit 103, and may be configured to receive a selection from the user via the display.
- the control unit 112 displays selectable I / F types on the display unit 103, and waits for a selection instruction from the user via the operation unit 107.
- the control unit 112 determines whether or not the electroencephalogram I / F is selected (step S6101), and when it is selected, sets the electroencephalogram I / F as the operation unit 107 (step S6102), and ends the processing.
- it is set to receive only an instruction from the electroencephalogram I / F as an operation instruction. For example, it does not receive data from the communication unit of another I / F device.
- the control unit 112 determines whether the gesture I / F is selected (step S6103), and when it is selected, the gesture I / F is used as the operation unit 107. The setting is made (step S6104), and the process ends.
- step S6103 when the gesture I / F is not selected, the control unit 112 determines whether or not the audio I / F is selected (step S6105), and when it is selected, the audio I / F is The operation unit 107 is set (step S6106), and the process ends.
- step S6105 If the voice I / F is not selected in step S6105, the control unit 112 notifies the user that there is no settable I / F, returns to step S6101, and repeats the process.
- the process ends after the respective interfaces are set in steps S6102, S6104, and S6016.
- steps S6102, S6104, and S6016 it is not limited to this.
- a plurality of types of I / F may be set by returning to S6103 after S6102 and to S6015 after S6104.
- the user may use a plurality of I / Fs at the same time. Therefore, the priority of each interface for the operation is set.
- the selection of the I / F is basically performed at the time of initial setting.
- the I / F may be configured to be changeable during use of the device.
- the user can change the I / F depending on the use environment. For example, in a public place such as a vehicle, the brain wave I / F is selected, and when alone at home, the voice I / F is selected, and in a limited space such as an office, the gesture I / F Choose
- a button for receiving an I / F change instruction is disposed on the display device, and a selection instruction is received via the button.
- the selection of these I / Fs may be configured to be performed automatically.
- the space where the user is located is determined using, for example, a signal acquired by a sensor installed in each space.
- the application destination of the present invention is not limited to the AR apparatus.
- the present invention is similarly applicable to a VR device, a mixed reality (MR) device, and the like.
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Animal Behavior & Ethology (AREA)
- Pathology (AREA)
- Psychology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Psychiatry (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
Abstract
入力操作インタフェースとして、BCIを備え、拡張現実および/または仮想現実表示を行う。BCIには、取得した各映像フレーム上の予め定めた領域である操作領域に、特定の周波数である特定周波数を割り当て、定周波数の逆数の周期で、予め定めた最大値と最小値との間、または色情報の差分変化量で、操作領域に対応する領域の色情報を変化させることにより、当該特定周波数を有する視覚刺激信号を作成する操作インタフェース作成部115と、前記当該特定周波数を有する前記視覚刺激信号を表示デバイスに出力する演算部124と、特定周波数に、制御指示を対応づけて保持する対応データベースと、検出した脳波信号から特定周波数を抽出する脳波分析部114と、抽出した特定周波数に対応する制御指示を対応データベースから取得し、制御指示に従って制御を行う制御部112と、を備える脳波インタフェース装置を用いる。
Description
本発明は、脳波を表示装置のインタフェースに用いる技術に関する。
近年、拡張現実(Augmented Reality、AR)/仮想現実(Virtual Reality、VR)/複合現実(Mixed Reality、MR;MRは、ARとVRを融合した新たな空間表現を実現するための映像技術の総称)装置が普及しつつある。これらの主な入力/操作インタフェース(I/F)は、外部接続リモコン、ジェスチャ、音声、視線追跡などによるものである。例えば、ジェスチャや音声による操作インタフェースを使用したMR製品に、Microsoft社のHoloLensがある。この製品のインタラクションデザインに、ジェスチャや音声等よる操作インタフェースが記載されている(例えば、非特許文献1参照。)。また、このインタラクションデザインのジェスチャデザインの項目には、3つのキーコンポーネントジェスチャとして“2.1 Bloom、2.2 Air tap、2.3 Tap and Hold”が記載されている(例えば、非特許文献2参照。)。また、このインタラクションデザインのボイスデザインの項目には、操作コマンドとしての音声の使用方法が記載されている(例えば、非特許文献3参照。)。
脳波の定常状態視覚誘発電位(Steady-State Visual Evoked Potential、以下SSVEP)を使用したブレイン・コンピュータ・インタフェース(以下BCI:Brain Computer Interface)技術がある。例えば、特許文献1には、「脳波信号を発生させる視覚刺激信号及び基本視覚情報を表示するディスプレイ部と、前記視覚刺激信号を、前記基本視覚情報に予め設定された周波数に応じて挿入する制御部と、前記発生した脳波信号が有する周波数を把握する脳波分析部と、を含む」ディスプレイ装置が開示されている。
"Interaction design"、[online]、Microsoft Windows Dev Center、[平成29年7月6日検索]、インターネット<URL: https://developer.microsoft.com/en-us/windows/mixed-reality/category/interaction_design>
"Gesture design"、[online]、Microsoft Windows Dev Center、[平成29年7月6日検索]、インターネット<URL:https://developer.microsoft.com/en-us/windows/mixed-reality/gesture_design>
"Voice design"、[online]、Microsoft Windows Dev Center、[平成29年7月6日検索]、インターネット<URL:https://developer.microsoft.com/ru-ru/windows/mixed-reality/voice_design>
AR/VR/MR装置を用いるにあたり、外部接続リモコンやジェスチャは、操作時にユーザの負担が大きい。また、ジェスチャや音声は、乗り物の中やカフェなどの公共の場所では使用が難しく、使用場所が制限される。このため、ユーザの負担が少なく、使用場所を制限しないインタフェースが望まれている。
使用場所を制限しないインタフェースとして、例えば、特許文献1に記載のSSVEPを用いたBCI等が考えられる。しかしながら、SSVEPによる入力/操作の対象ごとに異なる周波数を割り当てる必要がある。そして、SSVEPを誘発可能な周波数が4~75Hzに限定されていることからその活用には工夫が必要である。例えば、上記の特許文献1では、SSVEPを誘発するための視覚刺激信号をあらかじめ設定された周波数に応じて基本視覚情報(映像)に挿入する。このとき、SSVEPを誘発するための視覚刺激信号を、フレーム間に挿入する。このため、基本視覚情報のフレームレートに依存して挿入可能な視覚刺激信号の数が制限され、使用可能な周波数が限定される。従って、複雑な操作のインタフェースには用いることができない。
本発明は、上記事情に鑑みてなされたもので、AR/VR/MR装置に、ユーザへの負担が少なく、使用環境に制約の少ないインタフェースを提供することを目的とする。
本発明は、入力操作インタフェースとして、BCI(Brain Computer Interface)を備え、拡張現実、仮想現実、および/または複合現実表示を行う表示装置を提供する。
そして、そのBCI装置には、例えば、視覚刺激信号の周波数に応じた周波数を有する脳波信号を検出し、機器の制御を行う脳波インタフェース装置であって、取得した各映像フレーム上の予め定めた領域である操作領域に、特定の周波数である特定周波数を割り当て、前記特定周波数の逆数の周期で、予め定めた最大値と最小値との間で前記操作領域に対応する領域の色情報を変化させることにより、当該特定周波数を有する前記視覚刺激信号を作成する操作インタフェース作成部と、前記特定周波数を有する前記視覚刺激信号を表示デバイスに出力する演算部と、前記特定周波数に、制御指示を対応づけて保持する対応データベースと、検出した脳波信号から前記特定周波数を抽出する脳波分析部と、抽出した前記特定周波数に対応する前記制御指示を前記対応データベースから取得し、当該制御指示に従って制御を行う制御部と、を備えることを特徴とする脳波インタフェース装置を用いる。
AR/VR/MR装置に、使用環境に制約の少ないインタフェースを提供できる。上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
以下、図面を用いて、本発明の実施形態を説明する。以下、本明細書において、同一機能を有するものは、特に断らない限り同一の符号を付し、繰り返しの説明は省略する。なお、本発明はここで説明する実施形態に限定されるものではない。
<<第一の実施形態>>
本実施形態では、AR装置(以下、表示装置と呼ぶ。)に、SSVEP(定常状態視覚誘発電位)を用いたBCIを利用する。すなわち、本実施形態では、映像にSSVEP誘発用の視覚刺激(以下、視覚刺激信号と呼ぶ。)を呈示してそれらをARやVRなどの映像表示装置の操作用インタフェースとして使用する。このとき、使用可能な視覚刺激信号の周波数の数を増加させるため、基本視覚情報(映像)そのものに視覚刺激信号を挿入あるいは重畳する。SSVEPを誘発する視覚刺激(以下、視覚刺激信号と呼ぶ)の挿入あるいは重畳は、表示領域の所定領域の輝度値の変化により実現する。
本実施形態では、AR装置(以下、表示装置と呼ぶ。)に、SSVEP(定常状態視覚誘発電位)を用いたBCIを利用する。すなわち、本実施形態では、映像にSSVEP誘発用の視覚刺激(以下、視覚刺激信号と呼ぶ。)を呈示してそれらをARやVRなどの映像表示装置の操作用インタフェースとして使用する。このとき、使用可能な視覚刺激信号の周波数の数を増加させるため、基本視覚情報(映像)そのものに視覚刺激信号を挿入あるいは重畳する。SSVEPを誘発する視覚刺激(以下、視覚刺激信号と呼ぶ)の挿入あるいは重畳は、表示領域の所定領域の輝度値の変化により実現する。
まず、本実施形態の表示装置の機能ブロック図を説明する。図1は、本実施形態の表示装置101の機能ブロック図である。
本図に示すように、本実施形態の表示装置101は、脳波インタフェース(I/F)部102と、表示部103と、マイク/スピーカ104と、通信部105と、映像生成部106と、操作部107と、実行部109と、記憶部110と、制御部112と、を備える。
通信部105は、有線あるいは無線で外部の機器と通信を行うための1つ以上の通信モジュール(LAN、Bluetooth(登録商標)、HDMI(登録商標)等)を備える。
映像生成部106は、入力された映像を用いて、表示部103に表示する映像の全てあるいは一部を生成する。映像は、内蔵あるいは外付けのカメラから、予め記録済みの記録媒体から、または、通信部105経由で他の機器から、映像生成部106に入力される。
操作部107は、マウスやリモコン、操作ボタン、キーボード、タッチパネル等を備え、ユーザ130による操作指示を受け付ける。
実行部109は、脳波I/F部102や操作部107を介して受け付けたユーザ130からの操作指示に応じた処理を実行する。
記憶部110は、映像データ、表示装置101全体の制御プログラムや設定情報などを記憶する。
制御部112は、表示装置101の各コンポーネントの動作を制御する。
脳波I/F部102は、脳波を検出し、制御指示を抽出する。これを実現するため、本実施形態の脳波I/F部102は、脳波検出部113と、脳波分析部114と、操作I/F作成部115と、操作I/F格納部116と、マッピング部117と、マッピングデータ格納部118と、機能判定部119と、脳波制御部120とを備える。
脳波検出部113は、脳波信号を検出する。
脳波分析部114は、脳波検出部113で検出した脳波を分析する。ここでは、検出した脳波信号から前記特定周波数を抽出する。本実施形態では、これを実現するため、前処理部121と、特徴抽出部122と、視線周波数検出部123と、を備える。
前処理部121は、脳波検出部113で検出した脳波信号からノイズ等を取り除き、信号を増幅する。特徴抽出部122は、前処理した脳波信号の特徴量を抽出する。本実施形態では、例えば、脳波信号をフーリエ変換し、周波数ごとの電位の大きさを分析する周波数分析部として機能する。視線周波数検出部123は、特徴抽出部122で抽出した特徴量を分類し、ユーザ130が注視した視覚刺激信号の周波数を検出する。
操作I/F作成部115は、視覚刺激信号を用いてユーザ130が操作入力するためのI/Fデータ(以下、SSVEP操作I/F)を作成する。ここでは、取得した各映像フレーム上の予め定めた領域である操作領域に、特定の周波数である特定周波数を有する視覚刺激信号を割り当てる。そして、例えば、特定周波数の逆数の周期で、予め定めた最大値と最小値との間、または色情報の差分変化量で、操作領域に対応する領域の色情報を変化させることにより視覚刺激信号を作成する。
なお、SSVEP操作I/Fには、操作ボタン、直接映像フレーム内のオブジェクトに重畳する、などがある。また、操作I/F格納部116には、操作I/F作成部115で作成したSSVEP操作I/Fが格納される。このとき、マッピングデータ格納部118は、特定周波数に、制御指示を対応づけて保持する。
マッピング部117は、実行機能とSSVEP操作I/Fとをマッピングする。例えば、矢印ボタンを選択した場合の実行機能と、SSVEP操作I/Fとをマッピングする。マッピングデータ格納部118は、マッピング部117がマッピングした対応データベースを格納する。また、機能の一覧テーブルを格納する。
機能判定部119は、脳波分析部114で分析した結果に基づき、ユーザ130により選択された機能を判定する。本実施形態では、脳波分析部114が抽出した視線周波数に対応づけてマッピングデータ格納部118に格納される機能を特定する。すなわち、脳波から抽出した特定周波数に対応する制御指示を対応データベースから取得する。
脳波制御部120は、脳波I/F部102の各コンポーネントの動作を制御する。また、制御部112の指示により、機能登録に関する処理も統括して実行する。さらに、制御部112を介して、演算部124の演算実行のON、OFFを制御する。
表示部103は、映像及びSSVEPを誘発するための視覚刺激を表示する。本実施形態の表示部103は、演算部124と、表示デバイス部125と、投射レンズ127と、照明器126とを備える。
演算部124は、操作I/F作成部115が作成したSSVEP操作I/Fに従って、視覚刺激信号を挿入あるいは、重畳した各映像フレームを生成し、表示デバイス部125に表示させるための演算を行う。
表示デバイス部125は、演算部124の演算結果に基づき、映像を表示する。照明器126は、表示デバイス部125に光を提供する。投射レンズ127は、表示デバイス部125で作成された映像を投射する。
なお、本実施形態の表示装置101は、例えば、計時用タイマ等、上記以外のコンポーネントを備えてもよい。
本実施形態の表示装置101のハードウェア構成を図2に示す。本実施形態の表示装置101は、CPU(Central Processing Unit)202と、脳波計203と、表示装置204と、カメラ205と、マイク/スピーカ206と、記憶装置208と、RAM(Random Access Memory)209と、通信モジュール211と、入力I/F212と、操作装置213と、システムバス214と、を備える。
表示装置204は、映像を表示する。カメラ205は、映像を生成する。入力I/F212は、外部からのデータ入力を受け付ける。操作装置213は、表示装置101本体へのタッピングなどによる入力操作を可能にする。
記憶装置208は、各種プログラム、データ等を記憶する。例えば、ROM(Read Only Memory)、ハードディスク等を備える。例えば、表示装置101の各種の機能を実現する基本プログラムは、ROMに格納される。また、プログラムの実行に用いられるデータ、プログラム実行中に生成されるデータ等は、ハードディスク等に格納される。なお、上述の操作I/F格納部116やマッピングデータ格納部118は、記憶装置208に設けられる。
RAM209は、キャッシュやワークメモリとして使用される。
CPU202は、表示装置101全体の動作を制御する。制御にあたっては、例えば、記憶装置208に格納されるプログラム及び各種データを、RAM209にロードして実行する。
システムバス214は、CPU202と、表示装置101の各コンポーネントとの間で、データの送受信を行うためのデータ通信路である。
脳波計203は、脳波信号を検出する。本実施形態では、脳波計203は、脳波検出用の電極と、ノイズなどを除去して信号を増幅する信号処理装置と、アナログ信号をディジタル信号に変換するアナログディジタルコンバータとを備える。
通信モジュール211は、外部機器と通信するインタフェースである。通信モジュール211は、3Gや4G、Wi-Fi、Bluetooth(登録商標)、HDMI(登録商標)、赤外線通信、放送サービス用通信などの無線通信機能と有線LANなどの有線通信機能とを備える。
脳波計203と、CPU202と、RAM209と、システムバス214とは、機能ブロックの脳波I/F部102と制御部112とに対応する。また、マイク/スピーカ206はマイク/スピーカ104に、カメラ205は映像生成部106に、表示装置204は表示部103に、通信モジュール211は通信部105に、入力I/F212は映像生成部106に、操作装置213は操作部107に、記憶装置208は記憶部110に、それぞれ、対応する。
[実装例]
次に、本実施形態の表示装置101における、電極の実装例を説明する。図3は、本実施形態の表示装置101の一実施形態である、メガネタイプの脳波制御によるAR装置301の例である。
次に、本実施形態の表示装置101における、電極の実装例を説明する。図3は、本実施形態の表示装置101の一実施形態である、メガネタイプの脳波制御によるAR装置301の例である。
AR装置301では、後頭部のバンド部分302とテンプル部分(303,304)とに、2つ以上の電極(305,306,307,308,309,310,311)が配置される。
AR装置301における脳波の誘導方法には双極誘導を用いる。AR装置301では、2つの電極から導出した電位差により脳波を測定する。図3のAR装置301の電極配置によれば、最大6チャンネルの脳波を検出できる。AR装置301では双極誘導を用いたが脳波の誘導方法はこれに限定されない。例えば、単極誘導を使用してもよい。単極誘導を使用する場合は、基準の電位を測定するための電極を耳たぶに装着可能な構成とする。
SSVEPは、視覚野のある後頭部で測定することが望ましい。このため、すべての電極から脳波を検出できた場合は、後頭部の電極(307,308,309)から測定した脳波を優先して使用する。後頭部のバンド部分では2チャンネル(307と308で1チャンネル、308と309で1チャンネル)の脳波の測定が可能である。使用する脳波は、電極の接触状態に応じて変更してもよい。
SSVEPの視覚刺激は高周波になるほど検出される電位が低下する傾向にある。このため、特に高周波の視覚刺激を使用する場合は、可能な限り後頭部で脳波を測定するようにする。例えば、左向き矢印の操作ボタンに視覚刺激として高周波を、右向き矢印の操作ボタンに低周波を、それぞれ割り当てた場合、前者については後頭部で測定した脳波を優先させる。具体的には、前者については、脳波分析部114での分析時に、後頭部以外の部分で測定した脳波を使用しない等の処理を行う。
なお、AR装置301では、表示デバイス部125は、メガネレンズ部分(312、313)に配置される。また、その他の機能は、フレーム本体314に設けられる。
[視覚刺激信号挿入手法]
次に、本実施形態の視覚刺激信号の挿入手法を説明する。
次に、本実施形態の視覚刺激信号の挿入手法を説明する。
SSVEPを誘発する刺激には、フラッシュ刺激(LEDライトの点滅)、白と黒のチェッカーパタン、色刺激(異なる色による)、画像の輝度変化などがある。これらの刺激を使用して、周期的刺激を呈示することで、SSVEPを誘発する。本実施形態では、これらの手法のうち、画像の輝度変化を用いる。
具体的には、本実施形態では、予め定めた形状を有するアイコン等を挿入し、当該アイコンの輝度値を、予め定めた周波数で変化させる第一の手法と、映像フレームの特定の領域の輝度値を、予め定めた周波数で変化させる第二の手法とがある。なお、特定の領域は、固定であってもよいし、フレーム毎に異なってもよい。
まず、第一の手法を、図4(a)を用いて説明する。ここでは、映像フレームとして、飛行機の計器類が表示された画像を用いる場合を例示する。表示される映像は、VR装置の仮想映像であってもよいし、AR装置のカメラを通して表示さてる現実世界の映像であってもよい。また、映像フレームにボタンA401を挿入し、ボタンA401の輝度値(色)を、色1と色2との間で、視覚刺激信号の周波数(特定周波数FsHz)で変化させる場合を例にあげて説明する。なお、挿入するアイコンは、ボタン等の図形に限定されず、各種の形状を有するものであってよい。なお、アイコンのサイズは、固定であってもよいし、映像フレーム中のオブジェクト等のサイズに応じて変化してもよい。
図中のボタンA401は、映像中の計器に対する操作を実行するためのボタンである。ここでは、ボタンA401がフリッカーとなる。フリッカーとは、SSVEPを誘発するための異なる2種類の刺激を周期的に繰り返し呈示するための機能を持つものの総称とする。
演算部124は、映像フレームを、予め定めたフレームレートFOHzで表示させる。このとき、映像フレームにおいて、予め定めた位置(操作領域)に、ボタンA401を挿入する。そして、特定周波数FsHzで輝度値が変化するよう、各映像フレームの、ボタンA401の領域の色(RGBを用いて算出した輝度値)を変化させて表示する。ボタンA401の挿入位置や表示色は、操作I/Fテーブル620を参照し、決定する。
このようにして、各映像フレームのボタンA401の色を、時間軸に沿って、色1(402)と色2(403)との間で、予め設定した視覚刺激信号の周波数(特定周波数;FsHz)で周期的に変化させることにより刺激を呈示する。
図4(a)下部のグラフの横軸は時間、縦軸は輝度値を示す。また、グラフ405の実線は、ボタンA401の輝度値の変化を示す。ボタンA401で使用する2色(色1及び色2)は、操作I/F作成部115で予め設定する。本実施形態では、このボタンA401の輝度値を、グラフ405の実線で示すように周期的に変化させることにより、フリッカーを実現する。
なお、ボタンA401の色は、色1(402)と色2(403)との間で周期的に変化する。映像のフレームレートと、特定周波数との関係によっては、色1(402)と、色2(403)と、それらの中間色404と、で示される。ここで、中間色とは、色1と色2との間の輝度値を有する色である。
本図の例では、ボタンA401の色を、特定周波数FsHzで、色1[R:128、G:255、B:255]402と、色2[R:0、G:255、B:255]403との間で変化させる。すなわち、FO/(2×Fs)フレーム毎に、交互に色1、色2とし、その間のフレームには、色1と色2との中間色404を設定する。
例えば、映像のフレームレートFOが120Hz、視覚刺激信号の特定周波数Fsが30Hzである場合を、図4(b)に示す。本図に示すように、この場合、フレーム番号(#)が1には、色1が、同2には、色1と色2の中間色である色3が、同3には、色2が、同4には、色1と色2の中間色である色3が、設定され、その後、4フレーム毎に、同様の設定が繰り返される。すなわち、1秒間に120枚の映像フレームを用いて、色1、色2、色1という変化を4枚の映像フレームを1サイクルとし、色1と色2間で徐々に色が変化するよう、ボタンA401の輝度値が調整される。
なお、上述したように、各映像フレームのボタンA401の色を、色1(402)から色2(403)へ周期的に変化させる輝度値の演算や、各映像フレームに割り当てる輝度値の設定は、操作I/F作成部115で行う。
また、ここでは、輝度を周期的に変化させることによりボタンA401の色を変化させているが、変化の軸はこれに限定されない。例えば、色相や彩度、明度等の輝度値以外の色情報を変更してもよい。この場合、色の変化が、ユーザ130に識別可能でなくてもよい。以下、本明細書では、輝度を調整軸として説明するが、これに限定されない。
次に、視覚刺激信号挿入の、第二の手法を、図5を用いて説明する。図4(a)で説明した第一の手法では、映像に操作用のボタンAを配置する。しかし、図5で説明する第二の手法では、映像そのものに含まれるオブジェクトに視覚刺激信号を重畳する。なお、重畳するオブジェクト(重畳対象オブジェクト)は、予め定められているものとする。
本図においても、映像フレームとして、飛行機の計器類が表示された画像を用いる場合を例示する。第二の手法では、映像フレームの、予め定めた領域(操作領域;重畳エリアAA)502内の輝度値(画素の色)を、特定周波数FsHzで変化させる。本図の例では、映像内の各計器501を視覚刺激信号の重畳対象オブジェクトとする。すなわち、重畳対象オブジェクトである計器501の画素の色を、特定周波数FsHzで変化させる。
なお、重畳対象オブジェクトの、映像内位置(重畳エリアAA)は、映像フレーム毎に変化する。本実施形態では、後述するように、映像フレームを取得する毎に、操作I/F作成部115が重畳エリアAAを算出し、操作I/Fテーブルに格納する。
第二の手法では、重畳エリアAAの画像をそのまま使用し、その重畳エリアAA内の画素の色を変化させることでフリッカーを実現する。
図5下部のグラフの横軸は時間、縦軸は輝度値を示す。元の映像の重畳エリアAA502を構成する各画素のベース色は、例えば、実線のグラフ503のように任意に変化するものとする。
SSVEP用の視覚刺激として使用するフリッカーは、周波数曲線504に示すように、ベース色を周期的に変化させることにより実現する。
具体的には、操作I/F作成部115は、映像フレーム毎に、重畳エリアAA502内の画素の色の変化をベースに、重畳エリアに設定した特定周波数に応じて、画素ごとのベース色からの輝度値の変化量512を算出する。そして、映像フレーム毎に、視覚刺激信号重畳後の画素値(RGB値、505、506、507)を求める。演算部124は、操作I/F作成部115の決定に従って、表示フレームを作成する。
なお、本図において、511は、映像の画素の元のRGB値を示し、512は、フリッカー用の刺激を作成するために追加された輝度値(追加変化量)を反映したRGB値の変化量である。
重畳対象オブジェクトは、以下で説明するようにフリッカー機能を持つオブジェクトとしてユーザ130に認識されない場合もある。このため映像中のオブジェトをフリッカーとする場合には、それらがフリッカー機能を保持していることがわかるようにそのエリアを示しても良い。
例えば、図5に示すように、重畳エリアAA502を破線等で囲んでもよい。この各計器を取り囲む破線で示された長方形のエリアが重畳エリアAA、すなわち、フリッカー機能を持つエリアである。このような工夫により、ユーザ130は映像中の計器が脳波による操作の対象であることを知ることができる。
[マッピングテーブル/機能テーブル/オブジェクトテーブル]
次に、マッピング部117が作成するテーブルについて説明する。図6(a)、図6(b)、図7(a)および図7(b)は、マッピング部117が生成するマッピングテーブル601と、機能テーブル610と、オブジェクトテーブル670と、オブジェクトテーブル680、の一例を説明するための図である。これらの各テーブル601、610、670、680は、マッピングデータ格納部118に格納される。
次に、マッピング部117が作成するテーブルについて説明する。図6(a)、図6(b)、図7(a)および図7(b)は、マッピング部117が生成するマッピングテーブル601と、機能テーブル610と、オブジェクトテーブル670と、オブジェクトテーブル680、の一例を説明するための図である。これらの各テーブル601、610、670、680は、マッピングデータ格納部118に格納される。
マッピングテーブル601は、表示装置101が提供する機能と、脳波I/F部102が提供するSSVEP操作I/Fとを対応づけたテーブルである。
図6(a)に示すように、マッピングテーブル601は、マッピングテーブル内の要素を一意に識別する識別番号(No.)602と、表示装置101が提供する機能を一意に識別する機能ID603と、脳波I/F部102が提供するSSVEP操作I/Fを一意に識別するSSVEP_ID604とを備える。
なお、SSVEP_ID604は、機能ID603とは独立に設定できる。すなわち、1つの画面で同時に呈示されない機能であれば、異なる機能ID603に、同一のSSVEP_ID604を対応づけてもよい。
なお、機能とSSVEP操作I/Fとのマッピングは、初期設定時に一度だけ実施されてもよいし使用状況に応じて再実行されてもよい。マッピングテーブル601への登録は、例えば、後述する操作I/Fテーブル620において、割り当て周波数の登録が実施された時点で行う。
機能テーブル610は、機能ID603毎の機能の詳細を格納するテーブルである。
図6(b)に示すように、機能テーブル610は、表示装置101が提供する機能を一意に識別する機能ID603と、機能名613と、機能ID603が示す機能の概要である機能概要614と、視覚刺激信号を映像中のオブジェクトに重畳して呈示するか否かを示す重畳フラグ615と、オブジェクトを一意に識別するオブジェクトID616と、を備える。
重畳フラグ615は、映像中のオブジェクトに重畳して提示する場合は、ON617に、その他の場合は、OFF618に設定される。重畳して提示する手法の一例は、例えば、図5で説明した第二の手法である。また、もう一方の手法の一例は、例えば、図4で説明した第一の手法のように、アイコン(ボタン)を挿入し、当該アイコンで視覚刺激信号を実現する手法である。
オブジェクトテーブル670およびオブジェクトテーブル680は、各機能を重畳するオブジェクトを特定する情報を格納するテーブルである。それぞれ、オブジェクトID616に対応づけて、オブジェクトが登録される。
オブジェクトテーブル670の一例を図7(a)に示す。オブジェクトテーブル670は、重畳フラグ615がOFFの場合に参照されるテーブルである。オブジェクトテーブル670には、オブジェクトID616毎に、オブジェクト672として、画像に挿入するオブジェクトが登録される。図4(a)に示す映像フレームの例では、ボタンAである。画像に重畳するオブジェクト672の他の例は、例えば、右向き矢印ボタン、左向き矢印ボタン、特定の数字のボタン、等である。
オブジェクトテーブル680の一例を図7(b)に示す。オブジェクトテーブル680は、重畳フラグ615がONの場合に参照されるテーブルである。オブジェクトテーブル680には、オブジェクトID616毎に、重畳対象オブジェクトがオブジェクト682として登録される。登録されるオブジェクト682は、例えば、図5に示す映像フレームの例では、燃料メータ、速度メータ等である。
なお、マッピングテーブル601、機能テーブル610、オブジェクトテーブル670およびオブジェクトテーブル680は、表示装置101が提供する機能に対して、脳波制御部120がマッピング部117に指示を出すことにより作成され、マッピングデータ格納部118に登録される。
各テーブル601、610、670、680は、予め登録されても良いし、映像生成部106の扱う映像の種類に合わせて、必要に応じて作成、あるいは、更新されてもよい。また、表示装置101は、自身が提供するサービスやアプリの全機能に関する機能テーブル610の全部あるいは一部を、記憶部110に格納し、脳波制御部120またはマッピング部117がそれらの機能の中から脳波で操作可能な機能のみを抽出し、機能テーブル610を作成し、マッピングデータ格納部118に登録しても良い。
[操作I/Fテーブル]
次に、操作I/F作成部115が作成し、操作I/F格納部116に格納する操作I/Fテーブルについて説明する。図8(a)および図8(b)は、それぞれ、操作I/Fテーブル620および操作I/Fテーブル630の一例である。
次に、操作I/F作成部115が作成し、操作I/F格納部116に格納する操作I/Fテーブルについて説明する。図8(a)および図8(b)は、それぞれ、操作I/Fテーブル620および操作I/Fテーブル630の一例である。
操作I/Fテーブル620は、重畳フラグがOFFの場合に参照されるテーブルである。本図に示すように、操作I/Fテーブル620は、脳波I/F部102が提供するSSVEP操作I/Fを一意に識別するSSVEP_ID604毎に、当該SSVEP操作I/Fに割り当てた、視覚刺激信号の周波数623と、映像に付加するために必要な情報とを備える。
本実施形態では、SSVEP_ID604毎に、任意の1つの周波数623が割り当てられる。ただし、1つの画面(映像)で同時に呈示されない機能であって、呈示される場合、一定時間以上間をあけて呈示される機能に対応づけられたSSVEP操作I/F(SSVEP_ID604)であれば、異なるSSVEP_ID604に、同一の周波数を対応づけてもよい。
映像に付加するために必要な情報として、操作I/Fテーブル620には、各SSVEP_ID604に対応づけて、視覚刺激信号を挿入する映像フレームの位置であるエリア625、視覚刺激信号に用いる色情報(使用色1(626)、使用色2(627))、形状(サイズ)624、重畳色628等が登録される。
形状(サイズ)624は、視覚刺激信号の挿入対象となる画像(ボタンなど)の形状とサイズとである。例えば、長方形の場合は、縦と横との大きさが形状(サイズ)として登録される。円の場合は、半径の大きさが記述される。
エリア625は、視覚刺激信号を挿入する画像を配置する位置の情報である。本実施形態では、映像フレーム内の位置情報(画素位置)が登録される。例えば、形状(サイズ)624が長方形の場合は、特定の頂点の位置が登録される。また、円の場合は、中心位置が登録される。位置情報として、映像画面の左上角を原点(0,0)とした時の各頂点の位置情報を記述する。エリア625を記述するデータは数値で記述してもよいし、変数で記述してもよい。
使用色1(626)と使用色2(627)とは、視覚刺激信号に用いる画像の色(2色)のRGB値である。すなわち、視覚刺激信号を生じさせる輝度値の最大値と最小値とが登録される。
重畳色628は、重畳時に用いられる色のRGB値である。この値は、映像生成部106が生成した映像のフレームレートと周波数623とに応じて、フレーム毎に算出され、決定される。例えば、周波数623の逆数の周期で、予め定めた最大値と最小値との間で挿入対象となる画像領域の色情報が変化するよう、フレームレートに応じて各フレームの当該領域の重畳色628を決定する。
操作I/Fテーブル630は、重畳フラグがONの場合に参照されるテーブルである。基本的に、操作I/Fテーブル620と同様に、脳波I/F部102が提供するSSVEP操作I/Fを一意に識別するSSVEP_ID604毎に、当該SSVEP操作I/Fに割り当てた、視覚刺激信号の周波数631と、映像に付加するために必要な情報とを備える。
操作I/Fテーブル630においても、操作I/Fテーブル620同様、SSVEP_ID604毎に、任意の1つの周波数631が割り当てられる。また、映像に付加するために必要な情報として、各SSVEP_ID604に対応づけて、形状632と、挿入エリア633と、オリジナル色634と、重畳時の色635と、が登録される。
形状632は、視覚刺激信号の重畳対象となるオブジェクトの形状である。重畳フラグがONの場合、映像中の重畳対象オブジェクトに視覚刺激信号を重畳する。このため、形状632は、例えば、当該重畳対象オブジェクトを取り囲む長方形とする。映像中のオブジェクトは様々な形状を持つためである。
挿入エリア633は、視覚刺激信号を挿入する位置の情報である。本実施形態では、映像フレーム内の位置情報(画素位置)が登録される。例えば、形状として、オブジェクトを取り囲む長方形が登録される場合、エリア625には、当該長方形の左上頂点の位置を記述する。円の場合は中心座標の位置を記述する。
オリジナル色634は、重畳対象のオブジェクトの重畳前の色情報であり、重畳時の色635は、重畳時の色情報である。それぞれ、RGB値が登録される。
なお、上述のように、重畳フラグがONの場合、映像中の重畳対象オブジェクトに視覚刺激信号を重畳する。従って、形状632、挿入エリア633、オリジナル色634および重畳時の色635は、フレームを取得する毎に、フレーム単位で、決定する。例えば、操作I/F作成部115は、フレーム毎に、オブジェクト抽出プログラムを実行し、重畳対象オブジェクトを抽出し、これらの各情報を決定する。重畳時の色635は、映像生成部106が生成した映像のフレームレート、周波数631およびオリジナル色634により決定される。
[レイアウト]
次に、アイコンを挿入する場合のレイアウト例を説明する。図9(a)は、操作ボタンをアイコンとして挿入する場合の例であり、図9(b)は、テンキーの例である。
次に、アイコンを挿入する場合のレイアウト例を説明する。図9(a)は、操作ボタンをアイコンとして挿入する場合の例であり、図9(b)は、テンキーの例である。
アイコンを挿入する場合、利便性等を考慮して、予めSSVEP用の視覚刺激信号を呈示する操作領域の挿入箇所を決めておく。操作領域は、アプリケーションごとに予め定めたテンプレートを使用してもよいし、脳波I/F部102内に、予め作成して保持してもよい。
まず、操作ボタンを複数用意し、それぞれに、異なる周波数を割り当てる場合のレイアウト例を、図9(a)を用いて説明する。本図の例では、4つの長方形のボタンを、それぞれ、エリアB711,エリアC712、エリアD713、エリアE714に、それぞれ、挿入する例である。エリアB711は画面左上のエリア、エリアC712は画面中央のエリア、エリアD713は画面右上のエリア、エリアE714は画面右中央のエリアである。
本実施形態では、各ボタン(エリアB~E 711~714にそれぞれ挿入)に、視覚刺激信号に使用する2色と、それらの色を繰り返し周期的に呈示するための周波数と、を割り当てる。
各エリアは、長方形の頂点を示す座標値(映像の画素の位置情報)で表現される。例えば、エリアB711は、(B1,a)715、(B2,b)716、(B3,c)717、(B4,d)718の4つの座標値で表現される。残りのエリアC712、エリアD713、エリアE714についても同様である。
なお、操作I/Fテーブル620のエリア625には、図9(a)の各エリアの左上の頂点が登録される。例えば、エリアB711の場合は(B1,a)715が登録される。すなわち、エリア625には、アイコンを挿入するエリアとそのエリア内における、左上頂点からの相対的な位置(+数値で記述)を明示したデータが記述される。
なお、エリア625は、表示装置101の表示方式などにより具体的な場所が調整できる方がよいため、表示装置101の表示能力にあわせて、具体的な数値を入力することが望ましい。エリア625には、エリア情報として変数(たとえばエリアB711の(B1,a)715を基準にした値)を入力してもよいし、具体的な配置データを入れてもよい。ただし、変数を入力する場合には、映像を出力する前に具体的な位置データに変換する必要がある。
図9(b)に、テンキー721を用意し、それぞれに、異なる周波数を割り当てる場合を例示する。なお、テンキー721は、数値を入力するためのボタン(数値入力ボタン0~ボタン9;722~731)と、数値入力ボタン722~731を介して入力された数値を表示すための数字表示パッド732と、入力した数値データを確定するためのリターンキーボタン733と、入力された数値データをクリアするためのクリアボタン734とを備える。
本例では、例えば、数字表示パッド732以外のボタンに、視覚刺激信号として使用する2色と、それらの色を繰り返し周期的に呈示するための周波数と、を割り当てる。なお、数字表示パッド732には、数値の表示桁の位置それぞれに異なる周波数を割り当ててもよい。これにより、入力した数値の中から所定の位置を選択することも可能となる。
[周波数決定処理]
次に、操作I/F作成部115による、操作I/Fテーブル620および操作I/Fテーブル630作成処理のうち、割当周波数決定処理の流れを、図10を用いて説明する。
次に、操作I/F作成部115による、操作I/Fテーブル620および操作I/Fテーブル630作成処理のうち、割当周波数決定処理の流れを、図10を用いて説明する。
なお、本実施形態では、制御部112は、予め、脳波制御部120を介してマッピング部117と操作I/F格納部116とに対して、マッピングテーブル601と、機能テーブル610と、操作I/Fテーブル620と、操作I/Fテーブル630と、オブジェクトテーブル670と、オブジェクトテーブル680との作成を指示する。
ここで、周波数決定処理実施時には、操作I/Fテーブル620および操作I/Fテーブル630以外のテーブルは既に作成されているものとする。また、操作I/Fテーブル620については、SSVEP_ID604、形状、サイズ624、エリア625、使用色1(626)、使用色2(627)は、登録されていてもよい。一方、操作I/Fテーブル630については、SSVEP_ID604のみ登録されているものとする。
まず、操作I/F作成部115は、機能テーブル610を参照し、重畳フラグ615がONの機能を抽出する(ステップ1101)。なお、重畳フラグ615がONの機能は、映像に直接、視覚刺激信号を重畳する機能である。
次に、操作I/F作成部115は、抽出した機能に、視覚刺激信号の周波数として、34Hz以上75Hz以下の範囲で、任意の周波数を割り当てる(ステップ1102)。そして、その結果を、操作I/Fテーブル630に登録する。ここでは、まず、当該機能(機能ID603)に対応づけられているSSVEP_ID604を、マッピングテーブル601で特定する。そして、操作I/Fテーブル630の当該SSVEP_ID604のレコードの周波数631に、割り当てた値を登録する。
これを、操作I/F作成部115は、機能テーブル610の重畳フラグ615がONの全ての機能ID603について、繰り返す。ただし、機能ID603毎に、異なる周波数を割り当てる(ステップS1103)。
重畳フラグ615がONの全ての機能ID603について、上記処理を終えると、次に、操作I/F作成部115は、機能テーブル610の重畳フラグ615を参照し、重畳フラグがOFFの機能を抽出する(ステップ1104)。なお、重畳フラグがOFFの機能は、映像にボタン等のアイコンを挿入し、当該アイコンに直接視覚刺激信号を重畳する機能である。
次に、操作I/F作成部115は、抽出した機能に、視覚刺激信号の周波数として、34Hz以上75Hz以下の範囲の周波数を割り当てる(ステップ1105)。このとき、未使用の周波数を割り当てる。そして、その結果を、上記手法で、操作I/Fテーブル620に登録する。
これを、操作I/F作成部115は、機能テーブル610の重畳フラグ615がOFFの全ての機能ID603について、繰り返し(ステップS1106)、処理を終了する。ここでも、機能ID603毎に、異なる周波数を割り当てる。
ここで、視覚刺激信号の周波数は、4~75Hzである。ステップS1102において、各機能に、34Hz以上の周波数の視覚刺激信号を割り当てるのは、34Hz以上の周波数の信号が、人間にちらつきを感じさせないためである。このちらつきを感じなくなる境界となる周波数を臨界融合周波数(閾値周波数)と呼び、通常約34Hzがこの閾値周波数に当たる。
なお、ステップS1102では、例えば34Hz以上75Hz以下の範囲で小さい周波数から割り当てる。周波数が高くなるほどSSVEPとして検出される電位が小さくなる傾向があるため、重要な機能あるいは使用頻度の高い機能に対して優先的に小さい周波数を割り当てるようにしても良い。
また、ステップS1105では、34Hzより下の周波数では、人の目にちらつきが感じられるため、例えば、残りの周波数の中から、大きい周波数から割り当てる。重要な機能に対しては意図的に優先して大きい周波数を割り当てるようにしても良い。
さらに、ステップS1105では、操作ボタン等に視覚刺激信号を重畳する。この場合、34Hzより小さい周波数であっても、ちらつきを感じさせない2色の色(マクアダムの楕円内の2色の色)を選択することにより、ちらつきの回避が可能である。これを利用した、周波数決定処理は、後述する。
一方、ステップS1102では、元の映像に直接視覚刺激信号を重畳する。この場合、色をマクアダムの楕円内の2色に限定できない。このため、ステップS1102では、34Hz以上の周波数から優先的に割り当てる。
ここで、視覚刺激信号の周波数は、上述のように4~75Hzである。しかしながら、SSVEPは、設定された周波数およびその整数倍の周波数で発生する。このため、4~75Hzの全ての周波数を使用できるわけではない。例えば、使用する周波数を整数に限定する場合、4~75Hzの周波数の中で、奇数周波数と一部の偶数周波数しか使用することができない。
このため、周波数決定処理では、予め使用可能な周波数の組み合わせを登録しておき、それらの登録内容を参照しながら周波数を割り当てる。この組み合わせは、製品出荷時に最初から記憶部110に保存しておいてもよいし、制御部112が、記憶部110に保存されたアプリケーションプログラムの指示を受けて、記憶部110に登録するようにしてもよい。
なお、使用する周波数を整数に限定する場合、使用可能な周波数の組み合わせには、以下の2つのパタンがある。
・第一のパタン)高い周波数から順に偶数の周波数を割り当てる組み合わせパタン。以下にこのパタンの周波数の数値を列挙する。
4,10,11,12,13,14,15,16,17,18,38,39,40,41,42,43,44,45,46,47,48,49,50,51,52,53,54,55,56,57,58,59,60,61,62,63,64,65,66,67,68,69,70,71,72,73,74,75
・第二のパタン)低い周波数から順に偶数の周波数を割り当てる組み合わせパタン。以下にこのパタンの周波数の数値を列挙する。
4,5,6,7,9,11,13,15,16,17,19,20,21,23,24,25,27,28,29,31,33,35,36,37,39,41,43,44,45,47,49,51,52,53,55,57,59,60,61,63,64,65,67,68,69,71,73,75
・第一のパタン)高い周波数から順に偶数の周波数を割り当てる組み合わせパタン。以下にこのパタンの周波数の数値を列挙する。
4,10,11,12,13,14,15,16,17,18,38,39,40,41,42,43,44,45,46,47,48,49,50,51,52,53,54,55,56,57,58,59,60,61,62,63,64,65,66,67,68,69,70,71,72,73,74,75
・第二のパタン)低い周波数から順に偶数の周波数を割り当てる組み合わせパタン。以下にこのパタンの周波数の数値を列挙する。
4,5,6,7,9,11,13,15,16,17,19,20,21,23,24,25,27,28,29,31,33,35,36,37,39,41,43,44,45,47,49,51,52,53,55,57,59,60,61,63,64,65,67,68,69,71,73,75
なお、本実施形態では、SSVEPを誘発する周波数が4~75Hzであることを前提に説明している。しかしながら、これに限定されない。SSVEPを誘発する周波数の範囲は今後の研究成果で変わりうるため、範囲が変わった場合においても同様の方法で使用する周波数を割り当てるものとする。また、本実施形態では、SSVEPを誘発する周波数として、上述のように整数の周波数を使用している。しかしながら、小数点以下の周波数(例えば、4.5Hz、4.77Hz等)も使用可能な周波数に含めてもよい。なお、周波数を、小数点以下まで許容する場合、組み合わせパタン数は、さらに増加する。
重畳フラグONの数が多い場合は、第一のパタンを使用する方が望ましい。これは、第一のパタンの方が、偶数の周波数を高周波数から割り当てるため、34Hz以上のちらつきを感じさせない周波数の数が多いためである。
周波数決定処理では、以上の周波数の特性を考慮して、例えば、使用頻度の高い機能は、高い電位が測定でき、ちらつきを感じない周波数を割り当てることが望ましい。また、正確性や信頼性が必要となる機能に関しては、安定した電位が測定できる周波数を選択することが望ましい。
ここで、ボタン等のアイコンに、低周波数の視覚刺激信号を重畳する場合、マクアダムの楕円を利用してもよい。この場合の、周波数決定処理の変形例を、図11に沿って説明する。
マクアダムの楕円とは、光の色特性の違いを、人が認識できない範囲であり、所定色を中心(楕円の中心の色)として、人が、その所定色と区別することができない色の範囲を、色度図上に表現したものである。すなわち、マクアダムの楕円の範囲内で、SSVEP誘発可能な周波数で色相または彩度を変化させた場合、観察者自身は、色特性の変化に気づかないが、脳波においては、SSVEPが検出される。なお、マクアダムの楕円の範囲は、基準とする点(上記所定色)毎に異なる。
操作I/F作成部115は、まず、図10と同様に、重畳フラグ615がONの機能ID603について、周波数を割り当てる(ステップS1101~S1103)。
そして、重畳フラグ615がOFFの機能ID603、すなわち、ボタン等のアイコンを挿入する機能については、操作I/F作成部115は、以下の処理を行う。
まず、重畳フラグ615がOFFの機能を抽出する(ステップS1104)。次に、34Hz以上の周波数で割り当て可能な周波数が残っているかを判別する(ステップS1205)。残っている場合は、図10で説明した処理同様、当該機能ID603に、周波数を割り当てる(ステップS1105)、ステップS1106へ移行する。
一方、残っていない場合は、34Hz以下の周波数を割り当てる必要がある。前述した通り、34Hzより下の周波数では人の目にちらつきが感じられる。そこで、ちらつきを感じさせない2色の色(マクアダムの楕円内の2色の色)を選択することにより回避する。
この場合、操作I/F作成部115は、まず、抽出した機能ID603に対応するSSVEP_ID604に対応づけて、操作I/Fテーブル620に登録されている使用色1(626)および使用色2(627)を抽出する(ステップS1206)。
そして、抽出した使用色1(626)および使用色2(627)が、同一のマクアダムの楕円内の色であるか否かを判別する。このため、まず、使用色1(626)および使用色2(627)の色領域を決定する(ステップ1207)。ここで、色領域とは、通常使用する色の名前に相当し、数値的な幅を持つ。本実施形態では、例えば、RGB系の各値を決定する。
使用色1(626)および使用色2(627)は、例えば、青と緑というように、別な色が使用されている場合もあるし、青と青、というように、ともに、同系色の色が使用されている場合もある。マクアダムの楕円を活用してちらつきを解消するためには、使用色1(626)および使用色2(627)が同系色の色であり、かつ、それらが、同一楕円内の色である必要がある。
決定した色領域を用い、使用色1(626)および使用色2(627)が、同一のマクアダム楕円内であるか否かを判別する(ステップS1208)。使用色1(626)および使用色2(627)のRGB系の各値とマクアダムの楕円を示すXYZ値との間の相互変換は、所定の変換式を使用する。
そして、使用色が2色とも同一楕円内の色であれば、そのまま、設定された色を用い、残りの周波数の中から、周波数を割り当てる(ステップS1210)。
一方、使用色1(626)および使用色2(627)が、同一のマクアダム楕円内でなければ、使用色1(626)または使用色2(627)に最も近いマクアダム楕円を決定し、使用色1(626)および使用色2(627)を、当該楕円内の色に調整する(ステップS1209)。そして、ステップS1210へ移行する。
ステップS1209では、使用色のいずれか一方のみが、マクアダムの楕円内の色である場合、他方の使用色を、当該マクアダムの楕円内の色から任意に選定し、再登録する。また、両使用色ともマクアダム楕円内にない場合は、いずれかの使用色に一番近いマクアダム楕円の中から1色を選択し、他方の使用色も、その楕円内の任意の色に設定する。
以上の処理を、操作I/F作成部115は、機能テーブル610の重畳フラグ615がOFFの全ての機能ID603について、繰り返し(ステップS1106)、処理を終了する。
上記の処理により、視覚刺激信号に34Hz以下の周波数を割り当てる場合、2色の使用色を同一のマクアダムの楕円内の色で設定できる。このため、挿入するボタン等のアイコンに低周波数を割り当てたとしても、ユーザ130にちらつきを感じさせない。
[表示画像作成処理]
次に、操作I/Fテーブルに登録されているデータに従って表示デバイス部125に表示する表示画像を作成する、表示画像作成処理の流れを説明する。
次に、操作I/Fテーブルに登録されているデータに従って表示デバイス部125に表示する表示画像を作成する、表示画像作成処理の流れを説明する。
上述のように、演算部124は、操作I/Fテーブル620および/または操作I/Fテーブル630に従って、各映像フレーム内の画素値を調整し、表示フレームを作成する。
操作I/Fテーブル620は、機能テーブル610の重畳フラグ615がOFFの場合の操作I/Fの例である。この場合、ボタン等のアイコンを挿入し、当該アイコンに視覚刺激信号を重畳する。操作I/Fテーブル630は、機能テーブル610の重畳フラグ615がONの場合の操作I/Fの例である。この場合、映像フレーム内のオブジェクトに視覚刺激信号を重畳する。
ボタン等のアイコンを挿入する場合(操作I/Fテーブル620)は、当該アイコンに視覚刺激信号を重畳する際のアイコンの配置位置やサイズは、操作I/Fテーブル620に予め登録される。しかしながら、映像フレーム中のオブジェクトに直接重畳する場合(操作I/Fテーブル630)の視覚刺激信号の配置位置やサイズは、実際の映像フレームを取得してからでないと、判断できない。
本実施形態では、まず、映像生成部106が映像フレームを生成する毎に、操作I/F作成部155が、操作I/Fテーブル620や操作I/Fテーブル630を更新する。具体的には、重畳フラグ615がOFFの場合用の操作I/Fテーブル620においては、重畳色628を決定する。また、重畳フラグ615がONの場合の操作I/Fテーブル630においては、形状632、挿入エリア633、オリジナル色634および重畳時の色635を決定する。
そして、その後、演算部124が、最新の操作I/Fテーブル620および操作I/Fテーブル630を参照し、表示フレームを生成する。
なお、操作I/Fテーブル620は、重畳色628を除く項目が登録されているものとする。ただし、各アイコンの挿入位置や形状を変化させる場合は、操作I/Fテーブル620の形状、サイズ624とエリア625とをフレーム毎に決定してもよい。
なお、アイコンの非表示/表示は、操作I/Fテーブル620から登録されている情報を削除したり登録したりすることにより実現する。具体的には、エリアや625や重畳色628などに関するデータを削除したり、登録したりし、アイコンを非表示/表示する。
従って、表示画像作成処理は、図12(a)に示すように、操作I/Fテーブル630を更新し、完成させる操作I/Fテーブル更新処理(ステップS1301)と、表示フレームを作成する表示フレーム作成処理(ステップS1302)と、を備える。なお、図12(a)に示す表示画像作成処理は、映像フレームを取得する毎に実行される。
[操作I/Fテーブル更新処理]
図12(b)に、映像フレームを取得する毎に、操作I/F作成部115が実行する操作I/Fテーブル更新処理の流れを示す。まず、操作I/F作成部115は、当該映像フレーム(処理対象フレーム)の画素情報を取得する(ステップS1401)。
図12(b)に、映像フレームを取得する毎に、操作I/F作成部115が実行する操作I/Fテーブル更新処理の流れを示す。まず、操作I/F作成部115は、当該映像フレーム(処理対象フレーム)の画素情報を取得する(ステップS1401)。
そして、操作I/F作成部115は、操作I/Fテーブル620の全てのレコードについて、処理対象フレームの、重畳色628を、それぞれ決定する(ステップS1402)。この時、登録されているボタンなどのオブジェクトを非表示にする場合は、重畳色を決定しない(したがって空欄にする)ようにする。
操作I/Fテーブル620の全てのレコードについて、上記処理を終えると(ステップS1403)、次に、操作I/F作成部115は、操作I/Fテーブル630の全てのレコードについて、以下のステップS1404~S1408の処理を行う。
まず、操作I/F作成部115は、重畳対象オブジェクトを特定する(ステップS1404)。ここでは、マッピングテーブル601と、機能テーブル610と、オブジェクトテーブル680と、を参照する。そして、処理対象のレコードのSSVEP_ID604に対応づけられた機能ID603を特定する。そして、機能ID603に対応づけられたオブジェクトID616を特定する。そして、オブジェクトID616に対応づけられたオブジェクト682を、重畳対象オブジェクトとして特定する。
次に、操作I/F作成部115は、処理対象フレームの重畳対象オブジェクトを抽出する(ステップS1405)。ここでは、予め記憶部110に登録されている専用プログラムを用い、処理対象フレームの、オブジェクト682の画素領域を抽出する。抽出時は、取得した画素情報を用いる。例えば、オブジェクト682が燃料メータであれば、画素情報の中から、燃料メータに対応する画素領域を重畳対象オブジェクトとして抽出する。
そして、操作I/F作成部115は、抽出した重畳対象オブジェクトの形状と、当該映像フレーム内の画素位置と、色情報とを特定し、それぞれ、操作I/Fテーブル630の形状632と、挿入エリア633と、オリジナル色634と、に登録する(ステップS1406)。
なお、形状が複雑であると視認性が悪いため、オブジェクトの形状をそのまま重畳対象とせずに、図5の重畳エリアAA502のようにオブジェクトを取り囲む図形をオブジェクトの形状としてもよい。
最後に操作I/F作成部115は、映像のフレームレートと周波数623とオリジナル色634とに応じて、重畳時の色635を決定する(ステップS1407)。全てのレコードについて、ステップS1404~S1407の処理を終えると、本処理を終了する(ステップS1408)。
[表示フレーム作成処理]
次に、演算部124による表示フレーム作成処理を説明する。図13は、本実施形態の表示フレーム作成処理の処理フローである。本処理は、映像生成部106が映像フレームを生成する毎に、操作I/F作成部115が、操作I/Fテーブル更新処理を終えたことを受け、実行される。
次に、演算部124による表示フレーム作成処理を説明する。図13は、本実施形態の表示フレーム作成処理の処理フローである。本処理は、映像生成部106が映像フレームを生成する毎に、操作I/F作成部115が、操作I/Fテーブル更新処理を終えたことを受け、実行される。
演算部124は、最新の映像フレームの画素情報を取得する(ステップS1501)。そして、操作I/Fテーブル620および操作I/Fテーブル630を参照し、各レコードについて、以下の処理を行う。以下では、操作I/Fテーブル620、操作I/Fテーブル630の順に処理を行うものとする。なお、この順は逆であってもよい。
まず、処理対象レコードの、形状、サイズ624、エリア625により、ボタン等のアイコンの挿入画素位置を特定する(ステップS1502)。そして、重畳色628を参照し、当該画素位置の、表示色を決定し(ステップS1503)、表示フレームに反映する(ステップS1504)。このとき、表示色は、表示デバイス部125の特性に応じて規格化した値とする。
以上の処理を、操作I/Fテーブル620の、形状、サイズ624、エリア625、重畳色628の、登録のある全てのレコードについて行うと(ステップS1505)、次に、操作I/Fテーブル630の各レコードの処理に移行する。なお、ここで、図12のステップ1402において重畳色628を決定しなかった場合には、重畳色628には値が入力されていない。
操作I/Fテーブル630の形状632、挿入エリア633より、重畳対象オブジェクトの画素領域を特定する(ステップS1506)。そして、重畳時の色635により、当該重畳画素領域の表示色を決定し(ステップS1507)、表示フレームに反映する(ステップS1508)。このときも、表示色は、表示デバイス部125の特性に応じて規格化した値とする。
以上の処理を、操作I/Fテーブル630の、形状632、挿入エリア633の登録のある全てのレコードについて行うと(ステップS1509)、処理を終了する。なお、ここで、図12のステップ1404において重畳対象オブジェクトを特定できなかった場合には、操作I/Fテーブル630の挿入エリア633のデータは少なくとも空欄にする。
[視線周波数検出処理]
次に、脳波I/F部102における脳波分析部114による視線周波数検出処理の流れを説明する。図14(a)は、本実施形態の視線周波数検出処理の処理フローである。本処理は、視線周波数検出部123が、表示装置101の装着者であるユーザ130が注視している視覚対象の周波数を検出するために行う。
次に、脳波I/F部102における脳波分析部114による視線周波数検出処理の流れを説明する。図14(a)は、本実施形態の視線周波数検出処理の処理フローである。本処理は、視線周波数検出部123が、表示装置101の装着者であるユーザ130が注視している視覚対象の周波数を検出するために行う。
まず、前処理部121が、測定した脳波の前処理(ノイズ除去)を実行し(ステップ1601)、信号の増幅を行う(ステップ1602)。
次に、特徴抽出部122が、処理後の脳波をフーリエ変換し、周波数系列パワースペクトルを算出し(ステップ1603)、ピークのある周波数を検出する(ステップ1604)。最後に、視線周波数検出部123が、検出した周波数のうちでも最も小さい周波数を注視対象周波数として検出する(ステップ1605)。
[機能判定処理]
次に、本実施形態の機能判定部119による、機能判定処理の流れを説明する。図14(b)は、本実施形態の機能判定処理の処理フローである。機能判定部119は、ユーザ130が注視している対象の周波数の検出結果から、それに対応づけられている機能を判定する。
次に、本実施形態の機能判定部119による、機能判定処理の流れを説明する。図14(b)は、本実施形態の機能判定処理の処理フローである。機能判定部119は、ユーザ130が注視している対象の周波数の検出結果から、それに対応づけられている機能を判定する。
機能判定部119は、脳波分析部114から測定脳波の分析結果である注視対象周波数を取得する(ステップ1701)。
そして、機能判定部119は、当該注視対象周波数に対応する機能を判定する(ステップS1702)。ここでは、まず、操作I/Fテーブル620を参照し、前記注視対象周波数が周波数623として割り当てられたSSVEP_ID604を特定する。そして、マッピングテーブル601を参照し、対応する機能ID603を特定する。最後に機能テーブル610を参照し、当該機能ID603の機能概要614を抽出する。
機能判定部119は、ステップ1702で判定した機能ID603および機能概要614を、脳波制御部120に通知する。脳波制御部120は、実行部109で当該機能を実行するよう制御部112に要求する。
以上説明したように、本実施形態の表示装置101は、入力操作インタフェースとして、BCI(Brain Computer Interface)を備え、拡張現実、仮想現実および/または複合現実表示を行う。そして、BCIとして、視覚刺激信号の周波数に応じた周波数を有する脳波信号を検出し、機器の制御を行う脳波インタフェース装置であって、取得した各映像フレーム上の予め定めた領域である操作領域に、特定の周波数である特定周波数を有する前記視覚刺激信号を割り当て、特定周波数の逆数の周期で、予め定めた最大値と最小値との間、または色情報の差分変化量で、操作領域に対応する領域の色情報を変化させることにより当該特定周波数を有する前記視覚刺激信号を作成する操作I/F作成部115と、前記特定周波数を有する前記視覚刺激信号を表示デバイスに出力する演算部124と、前記特定周波数に、制御指示を対応づけて保持する対応データベースと、検出した脳波信号から前記特定周波数を抽出する脳波分析部114と、抽出した前記特定周波数に対応する前記制御指示を前記対応データベースから取得し、当該制御指示に従って制御を行う制御部112と、を備えることを特徴とする脳波インタフェース装置を用いる。
本実施形態の表示装置101は、映像フレーム上の、所定の操作領域の色情報を、4~75Hzの範囲で予め割り当てた周波数で、周期的に変化させ、SSVEP用の誘発刺激として機能させる。すなわち、本実施形態によれば、映像フレームそのものの所定の領域に、視覚刺激信号を挿入する。
所定の操作領域として、例えば、操作ボタンや文字入力キー等であれば、予め定めた2つの輝度値の間で、変化させる。また、映像そのものを変化させる場合、予め定めた輝度値変化量を用い、当該領域の画素値を変化させる。
ユーザ130が画面上の操作領域となる所定のボタンやキー、あるいは、映像領域を凝視することにより、当該領域に割り当てられた周波数の脳波が誘発される。そして、脳波検出部113で検出した測定脳波の中から、脳波分析部114でそのボタンやキーに割り当てた周波数を検出する。そして、検出された周波数により、ユーザ130が選択した操作、あるいはキーが判別でき、それぞれのボタンやキーに割り当てられた機能を実行できる。これにより、ユーザ130は、操作のためのボタンやキー、あるいは、領域を見つめるだけで、ユーザ130が意図した操作を実行できる。
このように、本実施形態によれば、注視による操作のみで、所望の機能を実行できる。注視による操作以外の操作が不要であるため、公共の場所であっても、問題なく使用できる。従って、使用場所に制約の少ない、I/Fを実現できる。
脳波を用いたBCI技術には、脳波の波形成分の特徴、P300や眼球停留関連電位を活用したものや、脳波の周波数成分の特徴である、事象関連同期(Event Related Synchronization、以下ERS)、事象関連脱同期(Event Related De-synchronization、以下ERD)、SSVEPを活用したものがある。このうち、SSVEPは性能、データ転送速度、必要となるトレーニング期間などの観点から見て最も優れた特徴を備える。しかし、従来のSSVEPを活用したBCI技術では、上述のように、SSVEPを誘発するための視覚刺激信号をフレーム間に挿入するため、基本視覚情報のフレームレートに依存して挿入可能な視覚刺激信号の数が制限され、利用可能な周波数が限定される。
しかしながら、本実施形態によれば、上述のように、SSVEPを用いたBCIにおいて、視覚刺激信号を、各映像フレーム上に直接挿入する。従って、フレームレートに依存せず、選択可能な周波数の範囲で、所望の周波数を、自由に挿入できる。従って、フレーム間に視覚刺激信号を挿入する従来手法に比べ、さらに、自由度の高いSSVEPを用いたBCIを実現できる。また、所望の周波数を自由に挿入できるため、視覚刺激信号を、入力キーや操作画面に効果的に割り当てることができる。
<変形例1>
なお、上記実施形態では、映像生成部106が生成した映像フレームに、視覚刺激信号を重畳し、映像フレームとともに表示デバイス部125に表示する場合を例にあげて説明したが、本実施形態は、これに限定されない。例えば、映像フレームではなく、ユーザが視覚的に認識している現実世界の操作領域に相当する領域に、視覚刺激信号のみを表示させてもよい。この場合、表示位置および表示画素値は、上記同様の手法で算出する。
なお、上記実施形態では、映像生成部106が生成した映像フレームに、視覚刺激信号を重畳し、映像フレームとともに表示デバイス部125に表示する場合を例にあげて説明したが、本実施形態は、これに限定されない。例えば、映像フレームではなく、ユーザが視覚的に認識している現実世界の操作領域に相当する領域に、視覚刺激信号のみを表示させてもよい。この場合、表示位置および表示画素値は、上記同様の手法で算出する。
<変形例2>
また、上記実施形態では、直接映像フレームに視覚刺激信号を重畳する場合、輝度値の変化量を、元の映像フレームのRGB値に加えている。しかし、この手法に限定されない。例えば、図15に示すように、元の映像フレームのRGB値は調整せず、新たに1つの色(輝度用の色、以下LC)を追加し、R,G,B,LCの4つの色チャンネルを使用して実現してもよい。
また、上記実施形態では、直接映像フレームに視覚刺激信号を重畳する場合、輝度値の変化量を、元の映像フレームのRGB値に加えている。しかし、この手法に限定されない。例えば、図15に示すように、元の映像フレームのRGB値は調整せず、新たに1つの色(輝度用の色、以下LC)を追加し、R,G,B,LCの4つの色チャンネルを使用して実現してもよい。
追加する色LCは、R、G、Bのいずれかを用いてよい。また、それらをミックスした色(例えばグレースケール)であってもよい。この追加する色LCに対して、SSVEP用の誘発刺激のための輝度値の変化量を調整する。
図15は、図5と同様に、飛行機の計器の映像(フレーム)に重畳する場合の例である。各計器が重畳対象オブジェクトである。本図の例においても、計器501を取り囲む長方形のエリアが重畳エリアAA502である。
重畳エリアAA502内の各画素のベース色は、実線のグラフ503のように変化する。本変形例においても、周波数曲線504をベースに、重畳エリアAA502に設定した特定周波数に応じて、画素ごとの輝度の変化量512を算出し、SSVEP用の刺激周波数重畳後の画素値(RGBLC値、505、506、507)を求める。
映像フレームごとに求めた重畳エリアAA502内の画素の輝度の変化量(508、509、510)と、重畳エリアAA502内の画素値とに基づいて重畳エリアAA502内の各画素のLC値533、534、535を算出する。その結果に基づいてフレームの画像を編集して表示し、SSVEPを誘発するための視覚刺激をユーザ130に呈示する。
なお、本変形例では、表示装置204は、図16(a)に示すように、映像表示用のLiquid Drystal Display(LCD)221(第一の表示デバイス)と、SSVEP誘発用の視覚刺激調整用のLCD222(第二の表示デバイス)とを備える。すなわち、映像用のLCD221とSSVEP誘発のための視覚刺激を作成するための輝度調整用のLCD222との2重構成で表示装置204は、構成される。
本変形例では、まず初めに入力光を輝度調整用のLCD222に入光させ、視覚刺激用の輝度調整を行った後、輝度調整した入力光を映像用のLCD221に入力する。この場合、ユーザは、最終的に映像用のLCD221からの映像を見ることになる。これにより、輝度調整後の映像を見る(知覚する)。
なお、本変形例の表示部103aの機能ブロックを図16(b)に示す。本変形例の表示部103aは、SSVEP誘発するための輝度調整を行うためのLCD222に対応する空間調光器131をさらに備える。空間調光器131は、操作I/F格納部116の結果(SSVEP誘発のための刺激を作成するために必要な画素の位置情報や輝度の変化量など)に基づき、変調に必要なRBG値を算出して出力を調整する。
この空間調光器131は、入力光を出射する照明器126と映像用のLCD221に該当する表示デバイス部125との間に配置される。
なお、図16(b)では、空間調光器131を独立して示しているが、これに限定されない。照明器126あるいは表示デバイス部125の中に組み込まれてもよい。
また、SSVEP誘発用の視覚刺激調整用のLCD222は、輝度だけではなく、色相や彩度も調整可能である。
なお、本変形例は、ボタン等のアイコンにより、視覚刺激信号を挿入する場合にも適用可能である。ボタン等のアイコンをLCD222に表示させる。
本変形例によれば、さらに、1つの追加色あるいは1つの追加機材(LCD222)を用いて、輝度を調整する。このため演算が少なくて済み、高速に処理できる。
<変形例3>
なお、上記実施形態では、表示装置101の各機能は、1つのハードウェアで実現しているが、これに限定されない。各機能を複数のハードウェアに分散して、表示装置を実現してもよい。
なお、上記実施形態では、表示装置101の各機能は、1つのハードウェアで実現しているが、これに限定されない。各機能を複数のハードウェアに分散して、表示装置を実現してもよい。
上記実施形態とは異なる構成を、図17に示す。図17に示す表示装置101aは、脳波I/F装置141と、制御装置143と、映像生成装置145と、表示装置146とを備える。
脳波I/F装置141は、脳波I/F部102と、通信部142とを備える。通信部142は、他装置、ここでは、制御装置143と通信(データの送受信)を行う。なお、脳波I/F部102の構成は、上記実施形態の同名の構成と同様である。
また、制御装置143は、制御部112と、記憶部110と、実行部109と、操作部107と、通信部105と、マイク/スピーカ104とを備える。各構成は、基本的に上記実施形態の同名の構成と同様の機能を実現する。ただし、通信部105は、脳波I/F装置141の通信部142と、映像生成装置145の通信部151と、表示装置146の通信部161とも、通信を行う。また、映像生成部106および表示部103は備えない。
映像生成装置145は、映像生成部106と、通信部151と、映像出力I/F部153と、映像生成制御部152とを備える。映像出力I/F部153は、表示装置146の映像入力I/F部163に接続され、映像および映像に関するデータの送受信を行う。映像生成制御部152は、映像生成装置145の全体および各コンポーネントの動作を制御する。
表示装置146は、表示部103と、通信部161と、表示制御部162と、映像入力I/F部163とを備える。表示制御部162は、表示装置146の全体および各コンポーネントの動作を制御する。なお、表示部103の構成は、上記実施形態の表示部103または103aの構成と同様である。
各装置141、143、145、146は、それぞれ通信部142、105、151、161を介して連結され、1つのシステムとして動作する。
図17に示すシステム構成において、脳波I/F装置141は、例えば、脳波計で実現できる。また、制御装置143は、例えば、PCやスマートフォンで実現できる。映像生成装置145は、例えば、カメラで実現できる。また、表示装置146は、例えば、ディスプレイで実現できる。
脳波I/F装置141の機能判定部119による判定結果は、通信部142、105を介して制御装置143に送信される。そして、制御装置143では、受信した判定結果に基づいて、映像生成装置145や表示装置146を制御する。
本変形例のように、脳波I/F装置141、制御装置143、映像生成装置145、表示装置146を、それぞれ独立した装置とすることにより、ヘッドマウントディスプレイやヘッドアップディスプレイ、プロジェクタなどの製品にも、表示装置101を適用可能である。
<変形例4>
[ヘッドアップディスプレイシステム]
また、上記実施形態の表示装置を、ヘッドアップディスプレイシステム(HUDシステム)に適用する場合の構成例を図18に示す。HUDシステム101bは、脳波I/F装置141と、映像装置147と、を備える。
[ヘッドアップディスプレイシステム]
また、上記実施形態の表示装置を、ヘッドアップディスプレイシステム(HUDシステム)に適用する場合の構成例を図18に示す。HUDシステム101bは、脳波I/F装置141と、映像装置147と、を備える。
脳波I/F装置141は、上記変形例3と同様の構成を有する。
映像装置147は、制御部112と、記憶部110と、実行部109と、操作部107と、映像生成部106と、通信部105と、マイク/スピーカ104と、表示部103とを備える。各構成は、基本的に上記実施形態の同名の構成と同様の機能を実現する。ただし、通信部105は、脳波I/F装置141の通信部142とも通信を行う。なお、表示部103は、上記実施形態の表示部103または103aと同様の構成を有する。
このように、HUDシステム101bは、上記実施形態の表示装置101から、脳波I/F部102が独立した構成を有する。
HUDシステム101bの脳波I/F装置141は、例えば、ヘッドセットタイプの脳波計、非接触の脳波計を実装したヘッドレスト、手の皮膚表面から脳波を測定可能な技術を実装したステアリングホイール、腕時計タイプの脳波測定装置等により、実現される。
なお、非接触で脳波を計測可能なセンサには、電界からの電位検出する光電界センサ、磁界から電位を検出するMagneto Impedanceセンサ(以下MIセンサ)などがある。これらの技術をヘッドレスト部分などに組み込むことで脳波I/F装置141とすることができる。この場合、脳波検出部113は、電極ではなく、光ファイバやMIセンサを使用する。
脳波I/F装置141の機能判定部119の判定結果は、通信部142、105を介して、映像装置147に送信される。
映像装置147の制御部112は、脳波I/F装置141から受信した判定結果に基づいて映像生成部106と表示部103とを制御する。
なお、脳波I/F装置141の機能判定部119の判定結果は、映像装置147の制御に限定されるわけではなく、通信機能をもつステアリグホイールや座席等の車内の他の機器と連携するために使用してもよい。
<変形例5>
[プロジェクタシステム]
また、上記実施形態の表示装置を、プロジェクタシステムに適用する場合の構成例を図19に示す。プロジェクタシステム101cは、脳波I/F装置141と、制御装置148と、表示装置146と、を備える。
[プロジェクタシステム]
また、上記実施形態の表示装置を、プロジェクタシステムに適用する場合の構成例を図19に示す。プロジェクタシステム101cは、脳波I/F装置141と、制御装置148と、表示装置146と、を備える。
脳波I/F装置141および表示装置146は、上記変形例3と同様の構成を有する。
制御装置148は、制御部112と、記憶部110と、実行部109と、操作部107と、映像生成部106と、通信部105と、マイク/スピーカ104と、映像出力I/F部153と、を備える。各構成は、基本的に上記実施形態の同名の構成と同様の機能を実現する。
ただし、表示部103は備えない。また、通信部105は、脳波I/F装置141の通信部142および表示装置146の通信部161とも通信を行う。また、映像出力I/F部153は、表示装置146の映像入力I/F部163に接続され、映像および映像に関するデータの送受信を行う。
このように、プロジェクタシステム101cは、上記実施形態の表示装置101から、脳波I/F部102および表示部103が独立した構成を有する。
プロジェクタシステム101cの脳波I/F装置141は、例えば、ヘッドセットタイプの脳波計、手から脳波を検出する腕時計タイプの脳波計、椅子やソファーなどのヘッドレストタイプの脳波計等により、実現される。
プロジェクタシステム101cの制御装置148は、例えばPCやスマートフォン等で実現される。また、プロジェクタシステム101cの表示装置146は、プロジェクタで実現される。
なお、表示装置146を実現するプロジェクタは、演算部124を持たなくてもよい。この場合、制御装置148が、代わりに演算部124を備えるよう構成する。
<<第二の実施形態>>
次に、本発明を適用する第二の実施形態を説明する。本実施形態においても、第一の実施形態同様、視覚刺激信号を表示する。第一の実施形態では、当該映像フレームを見たユーザ130の脳波の検出結果を用いて操作指示を行う。一方、本実施形態では、検出結果を、ユーザ130がオブジェクトを注視したか否かの判断に用いる。
次に、本発明を適用する第二の実施形態を説明する。本実施形態においても、第一の実施形態同様、視覚刺激信号を表示する。第一の実施形態では、当該映像フレームを見たユーザ130の脳波の検出結果を用いて操作指示を行う。一方、本実施形態では、検出結果を、ユーザ130がオブジェクトを注視したか否かの判断に用いる。
本実施形態の概要を、図20(a)および図20(b)を用いて説明する。ここでは、図18に示すヘッドアップディスプレイ(以下HUD)システム101bを用いる場合を例にあげて説明する。
夜間や悪天候時に運転者に見えにくいオブジェクト541がある。たとえば、道路上を横切る人、車、障害物等である。このようなオブジェクト541を撮像した二次元あるいは三次元の画像を解析し、車に装備するHUDにおいて強調表示する技術がある。撮像は、例えば、車載の可視光カメラ、遠赤外カメラ、ステレオカメラ等によって行われる。また、オブジェクトは、例えば、動体検出プログラム(動体検出部)等により検出される。
本実施形態では、図20(a)に示すように、強調表示として、HUDの表示デバイス部125上に、マーカ542を表示するとともに、この強調表示部分(マーカ542)に、視覚刺激信号を重畳する。マーカ542の表示位置は、透過性の表示デバイス部125上の、ユーザ130がオブジェクト541の実像を見る領域(以下、オブジェクト541の実像に対応する領域と呼ぶ。)の近傍とする。ここでは、検出された道路横断中の高齢者(オブジェクト541)の実像の足元に対応する領域に、半円形の図形(強調表示用のマーカ542)を重畳する例を示す。なお、視覚刺激信号は、第一の実施形態の手法を用いて重畳する。ユーザが認識する映像の例を図20(b)に示す。
本実施形態のHUDシステム101bの構成は、基本的に第一の実施形態と同様の構成を有する。ただし、本実施形態では、記憶部110が、動体検出プログラムを備える。また、機能判定部119は、操作I/F格納部116も参照する。
本実施形態では、操作I/Fテーブル620に、周波数623と、形状、サイズ624と、使用色1(626)と、使用色2(627)と、重畳色628と、マーカ表示位置として、検出された動体に対する相対位置であるエリア625とが、予め、登録される。
ただし、本実施形態では、マーカ542の表示位置がフレーム毎に変化する。このため、本実施形態の操作I/F作成部115は、映像生成部106が映像フレームを生成する毎に、動体検出プログラムにて動体としてオブジェクト541を検出し、エリア625を登録する。なお、動体が複数ある場合は、異なる周波数623に対応づけて、それぞれ、登録する。また、映像フレーム毎に、同一の動体と考えられるものに対しては、同一の周波数623に対応づけて、エリア625を登録する。
演算部124は、映像生成部106が映像フレームを生成し、操作I/F作成部115が、操作I/Fテーブル620のエリア625を登録し、重畳色628を決定する毎に、操作I/Fテーブル620に従って、表示フレームを生成する。
なお、本実施形態では、マッピングテーブル601および機能テーブル610は、備えなくてもよい。
例えば、動体が複数検出された場合、脳波I/F装置141の機能判定部119は、SSVEP用の周波数が検出されると、操作I/F格納部116の操作I/Fテーブル620を参照し、検出したSSVEP用の周波数に対応するレコードの有無を判定する。
なお、本実施形態では、脳波I/F装置141として、脳波検出部113に、例えば、磁気センサや光電界センサを用いたヘッドレスト、手の表面から脳波測定するセンサを用いたステアリングホイール、植毛などのインプラント形態のセンサ等を用いたモバイル機器等を使用する。
次に、本実施形態のHUDシステム101bにおける注意喚起処理の流れを説明する。図22は、本実施形態の注意喚起処理フローである。以下の処理は、映像生成部106が、映像フレームを生成する毎に行われる。
映像装置147は、視野内のオブジェクト541を検出する(ステップS4101)。オブジェクト541は、路上周辺で動きのあるもの、障害となるオブジェクト541(例えば樹木の一部)などである。
次に、脳波I/F装置141と映像装置147とにより、HUDの表示デバイス部125上の、検出したオブジェクト541の近傍に特定周波数の視覚刺激信号が重畳される(ステップS4102)。上述のように、脳波I/F装置141の操作I/F作成部115が、操作I/Fテーブル620を作成する。そして、それに従って、演算部124が、表示フレームを生成する。これにより、表示デバイス部125上の、検出したオブジェクト541の近傍に当該マーカが表示されるとともに、当該マーカに特定周波数の視覚刺激信号が重畳される。
脳波I/F装置141は、脳波を測定する(ステップS4103)と、分析を行う(ステップS41104)。そして、機能判定部119は、操作I/Fテーブル620を参照し、重畳した特定周波数が、SSVEP用の周波数として検出されたか否かを判別する(ステップS4105)。
検出されていない場合は、映像装置147は、警告を出力する(ステップS4106)。警告は、例えば、マイク/スピーカ104を使用して音声で出力する。そして、映像装置147は、処理経過を、ドライブログとして、映像装置147の記憶部110に記録し(ステップ4107)、処理を終了する。
なお、ステップS4105で検出されている場合、そのままステップS4107へ移行する。
また、操作I/Fテーブル620に、複数のレコードが登録されている場合は、ステップS4105、ステップS4106の処理を、レコードの数分、繰り返す。
また、上記実施形態では、表示デバイス部125上の、検出したオブジェクト541の実像の近傍となる位置に、注意喚起のマーカ542を挿入し、そのマーカ542に視覚刺激信号を重畳する場合を例にあげて説明した。しかしながら、この手法に限定されない。例えば、表示デバイス部125上の、抽出したオブジェクト541の実像に対応する領域に、マーカを表示し、そのマーカに視覚刺激信号を重畳してもよい。重畳手法は、第一の実施形態と同様とする。
この場合の表示例を、図21(a)および図21(b)に示す。本図に示すように、表示デバイス部125上の、オブジェクト541に対応する領域にオブジェクト像543を配置し、当該オブジェクト像543に視覚刺激信号を重畳する。この場合も、第一の実施形態同様、操作I/F作成部115が、フレーム毎に、動体検出プログラムにて動体としてオブジェクト541を検出し、操作I/Fテーブル630を完成させる。そして、演算部124が、操作I/Fテーブル630に従って、表示フレームを生成する。
また、第一の実施形態同様、映像生成部106が生成した映像フレーム上にマーカ542を挿入してもよい。また、映像フレーム上のオブジェクト541の画像(オブジェクト像543)上に、視覚刺激信号を重畳してもよい。
また、本実施形態においては、視覚刺激信号の重畳方法を選択可能に構成してもよい。例えば、目的、ユーザの年齢、状況に応じて、選択可能とする。また、注意喚起用マーカの表示/非表示を切り替え可能に構成してもよい。
例えば、高齢者が運転している場合、あるいは長時間運転している場合には、注意力の低下が見込まれる。従って、このような状況では、ユーザの指示に従って、注意喚起用のマーカを付与する。また、記録したドライブログから、ユーザの注意の継続性や、注意が散漫になるような状況を学習できるように構成してもよい。そして、この学習結果に応じて、自動的に注意喚起用のマーカの表示/非表示を切り替えるよう構成してもよい。
このように、本実施形態では、検出された動体に対して、予め設定された位置(例えば、動体の直下、真上等)に、予め設定したマーカ用の図形(アイコン)等を挿入する。そして、当該マーカの表示色を、予め定めた2色の間で周期的に変化させることにより、視覚刺激信号を実現する。
本実施形態は、このような構成を有するため、運転者が、この半円形の強調表示のマーカ542を注視すると、脳波I/F装置141により重畳された周波数が検出される。これにより、運転者がこの強調表示部分を認知、すなわち注意を払っているかを把握できる。
本実施形態によれば、HUD上のオブジェクト541の近傍に、SSVEP誘発信号を表示することにより、運転者がオブジェクト541を注視しているかを確認でき、注視していない場合、警告を与えることができる。
なお、本実施形態では、HUDを例にマーカの重畳方法について説明した。しかしながら、第一の実施形態におけるAR装置やMR装置においても同様に、現実世界に本実施形態のマーカの重畳方法を適用し、マーカに視覚刺激信号を重畳することができる。具体的には、図5の重畳エリアAA502をマーカにしてそのマーカに視覚刺激を重畳できる。この場合は、実世界中の特定オブジェクトに重なるようにマーカが表示される。
<<第三の実施形態>>
次に、本発明の第三の実施形態を説明する。本実施形態では、脳波I/Fとして、上記各実施形態で説明したSSVEPを活用した方式に加え、事象関連脱同期(ERD:Event Related De-synchronization)方式を併用する。
次に、本発明の第三の実施形態を説明する。本実施形態では、脳波I/Fとして、上記各実施形態で説明したSSVEPを活用した方式に加え、事象関連脱同期(ERD:Event Related De-synchronization)方式を併用する。
ERDは、所定の周波数成分が、事象の前後で減少する現象のことをいう。ERD方式では、ERDという脳波の特徴により、体の動作あるいは動作イメージの種類を検出する。ERDが発生した脳の部位(主に運動野付近)を特定することにより、当該運動野が司る身体部位の動作あるいは動作イメージがなされた、と判定できる。動作あるいは動作イメージによりERDが検出される身体部位は、左手、右手、足などである。
分析の対象となる周波数は、たとえば、μ波(8~12Hz)やβ波(18~25Hz)である。ただし、これらの周波数に限定されるわけではない。以下、本実施形態では、μ波を例に説明する。
例えば、ユーザが右手を動作させることをイメージした場合、右手に関連する運動野(頭頂部左側の運動野)で測定した脳波をフーリエ変換すると、μ波(8~12Hz)の周波数の電位の大きさが、運動あるいは運動イメージ直後に減少する。この現象はたとえば、リラクゼーション時の脳波と比較することによって検出可能である。同様にして、左手の動作あるいは動作イメージ想起時の電位の変化が検出できる。
SSVEP方式では視覚刺激信号を表示するための表示装置が必要である。しかしながら、ERD方式では、体の動作のみ、あるいは、動作をイメージするだけでよいため、脳波による制御を実現するために脳波I/F装置以外の装置を必要としない。また、動作イメージだけでも操作できるので、操作時の制約が少ない。
以下、本実施形態では、上述のように、SSVEP方式とERD方式とを併用する場合を例にあげて説明する。
本実施形態の表示装置(AR装置)は、基本的に第一の実施形態の表示装置101と同様の構成を有する。ただし、上述のように、SSVEPだけでなく、ERDも併用する。このため、脳波分析部114aの構成が異なる。また、マッピング部117や操作I/F作成部115が作成し、対応する格納部に保持するテーブルも異なる。さらに、機能判定部119の処理も異なる。以下、第一の実施形態と異なる構成に主眼をおいて説明する。
まず、本実施形態の脳波分析部114aの構成を説明する。図23は、本実施形態の脳波分析部114aの機能ブロック図である。本図に示すように、本実施形態の脳波分析部114aは、第一の実施形態の各構成に加え、ERD検出部171をさらに備える。
ERD検出部171は、脳波検出部113が検出し、前処理部121を経て特徴抽出部122が抽出した特徴量を分析し、μ波の電位が減少した脳の部位(主に運動野付近)を特定する。そして、ユーザが身体のどの部位を動作させたか、あるいは身体のどの部位を動かすことをイメージしたかを検出する。そして、検出結果として、当該部位の動作あるいは動作イメージ実施を検出したことを出力する。ここでは、なお、ERD検出部171は、脳波検出部113から脳波が検出されている間、リアルタイムに周波数の変化を分析する。
なお、ERD検出部171が上記分析を行うため、複数箇所の電極から脳波を検出する。特に、前記周波数の変化を検出するのに適した電極の設置場所は、頭頂部付近の運動野(左脳から右脳わたる広範囲の領域)である。身体の部位によって電位に変化の出る場所が異なるため(例えば右手の動作は、左脳の運動野、左手の動作は右脳の運動野付近となる)、電極は運動野全般に配置する必要がある。ここで、全般とは、左脳だけ、右脳だけというように一部の領域に偏らないという意味である。なお、前記周波数の変化を検出するための電極の設置場所は頭頂部付近の運動野に限定されるわけではない。
また、マッピング部117が生成するテーブル、および、機能判定部119の処理の違いについて、以下の実例に沿って説明する。
SSVEP方式とERD方式とによる制御の実例を、図24を用いて説明する。ここでは、検出用の電極を、登頂部の3箇所(815、816、817)と、後頭部814とに配置する場合を例にあげて説明する。
ここでは、ERD方式による制御により、SSVEP方式のモードをON/OFFする場合の例を示す。すなわち、左手による実際の動作、あるいは、動作イメージ818をERDにより検出し、表示装置101の画面上に、SSVEP用の視覚刺激信号を表示(SSVEP ON)/非表示(SSEVP OFF)する場合の例である。
具体的には、表示装置101の画面上に、SSVEP用の視覚刺激信号が表示されている状態(SSVEP機能ON)811で、ユーザが左手を動作させた場合あるいは動作イメージを想起した場合は、SSVEP用の視覚刺激信号を非表示(SSVEP機能OFF)812にする。また、SSVEP機能OFF812の状態で、ユーザが左手を動作させた場合あるいは動作イメージを想起した場合は、SSVEP機能ON811にする。
ここでは、機能判定部119は、上述のように、脳波分析部114で分析した結果に基づき、機能テーブルを参照し、ユーザにより選択された機能を判定する。ここでは、機能判定部119は、SSVEP機能OFF812の状態でERD検出部171から左手の動き有りとの出力を受け取ると、ユーザにより選択された機能は、SSVEP機能をONにするものであると判定する。一方、SSVEP機能ON811の状態で、ERD検出部171から左手の動き有りとの出力を受け取ると、ユーザにより選択された機能は、SSVEP機能をOFFにするものであると判定する。
これを実現するため、マッピング部117は、ERD用のマッピングテーブル640、機能テーブル650を、操作I/F作成部115は、モード管理テーブル660を、作成する。これらの一例を、それぞれ、図25(a)、図25(b)、図25(c)に示す。
図25(a)に示すように、本実施形態では、ERD用のマッピングテーブル640には、例えば、機能ID643に対応づけて、ERD_ID644が登録される。マッピングテーブル640は、初期設定時に、ユーザが、操作部107を介して、制御部112、脳波制御部120、マッピング部117を制御することによって、マッピングデータ格納部118に保存する。
また、ERD用の機能テーブル650には、図25(b)に示すように、各機能ID643の、機能名653と、機能概要654とが登録される。なお、ERD用の機能テーブル650は、アプリケーションごとに用意されている機能を、脳波制御部120が受け取り、マッピング部117に指示を出して作成し、マッピングデータ格納部118に登録する。
ERD用のモード管理テーブル660は、SSVEP方式などの制御方式のON、OFF状態を管理する。このため、モード管理テーブル660には、図25(c)に示すように、各ERD_ID644の、モード種類663と状態664とが登録される。モード管理テーブル660は、脳波制御部120の指示により操作I/F作成部115が作成し、操作I/F格納部116に登録する。状態664には、ONとOFFの状態があり、それぞれ、例えば、1、0が割り当てられる。
本実施形態の機能判定部119は、まず、ERD検出部171から、ERDを検出した部位の情報を受け取ると、ERD用のマッピングテーブル640にアクセスし、当該部位の情報を示すERD_ID644に対応づけられている機能ID643を特定する。そして、その後、機能テーブル650にアクセスし、当該機能ID643に対応づけられている機能を特定する。また、併せてERD用のモード管理テーブル660にアクセスし、ERD_ID644から状態664を抽出し、行う処理を決定する。
次に、SSVEP方式の脳波制御にERD方式による制御を追加して、SSVEP方式のモードをON/OFFする場合の処理の流れを説明する。図26は、図24で説明した操作を実行する場合の処理のフローである。すなわち、左手の動作あるいは、動作イメージにより、SSVEP用の視覚刺激を表示(ON)/非表示(OFF)する。また、それ以外の運動や運動イメージには機能が割り当てられていない。
なお、右頭部の運動野のμ波帯の電位が減少した場合、左手の動作あるいは動作イメージが実行されたと判定され、左頭部の運動野のμ波帯の電位が減少した場合、右手の動作あるいは動作イメージが実行されたと判定される。
ERD検出部171は、運動野の複数の電極(814、815、816、817)で測定した脳波を、それぞれ、フーリエ変換し、μ波を検出する(ステップS5101)。
なお、図24の表示装置101では、右側と中央の電極のみ図示しているが、左側にも同様に電極817を備える。これにより、右側の脳の電位が変化したのか、左側の脳の電位が変化したのかがわかる。
次に、ERD検出部171は、左手に対応する運動野の電極815で測定した脳波のμ波が低下しているかを調べ(ステップS5102)、低下していれば左手の動作あるいは動作イメージを実行したものと判定する。ここでは、マッピングテーブル640のERD_ID644を、機能判定部119に伝達する。
機能判定部119は、ERD_ID644を、脳波制御部120に伝達する。また、機能テーブル650を参照して、ERD_ID644に対応する機能名や機能の概要を調べ、対応機能を特定しその結果を脳波制御部120に送信する(ステップS5103)。また、脳波制御部120は、受け取ったERD_ID644に基づき、モード管理テーブル660を参照し、状態664がONであるか否かを判別する(ステップS5104)。
ここで、状態664がONである場合、脳波制御部120は、SSVEP機能をOFFし(ステップS5105)、モード管理テーブル660の状態664に0を設定し(ステップS5106)、処理を終了する。
一方、ステップS5104において、状態664がOFFの場合、脳波制御部120は、SSVEP機能をONし(ステップS5107)、状態664に1を設定し(ステップS5108)、処理を終了する。
また、ステップS5102において、左手に対応する運動野の電極815で測定した脳波のμ波が低下していない場合、ERD検出部171は、右手に対応する運動野の電極815で測定した脳波のμ波が低下しているか調べ(ステップS5109)、その結果を、機能判定部119に伝達する。
機能判定部119は、対応するマッピングテーブル640のERD_ID644を脳波制御部120に伝達する。また、機能テーブル650を参照して、ERD_ID644に対応する機能名や機能の概要を調べ、対応機能を特定しその結果を脳波制御部120に送信する(ステップS5110)。その結果、対応する機能が割り当てられていないため、脳波制御部120は、操作ミスメッセージを表示部103に表示するよう指示を行う。表示部103は、それを受け、操作ミスメッセージを出力し(ステップS5111)、処理を終了する。
なお、ステップS5109で、右手に対応する運動野の電極817で測定した脳波のμ波が低下していなければ、ステップS5101に戻り、処理を繰り返す。
なお、本処理フローでは、左手の動作や動作イメージにモードON/OFF機能を割り当てているが、右手の動作や右手の動作イメージに割り当てることも可能である。また、右手と左手の動作あるいは動作イメージにそれぞれ異なる機能を割り当てることも可能である。
また、ERDによる操作として、SSVEPのON/OFFを割り当てているが、これに限定されない。例えば、表示装置101の電源のON/OFFに使用してもよい。また、複数のI/Fが用意されている場合、I/Fの切り替えに用いてもよい。
以上説明したように、本実施形態によれば、ERD方式を併用するため、手足を動作させたり、手足の動作をイメージしたりすることで、SSVEPモードのON/OFFだけではなく、表示装置の電源のON/OFF、I/Fの切り替えなどの操作制御ができる。これによりSSVEP方式が機能していない状態における表示装置の、脳波による制御が可能となる。
なお、本実施形態では、ERD方式を併用する場合を例にあげて説明したが、これに限定されない。例えば、さらに事象関連同期(ERS)を利用するERS方式を併用してもよい。また、ERD方式の代わりにERS方式を併用してもよい。
<変形例>
なお、上記各実施形態では、AR装置(表示装置)の操作部107の操作I/Fとして、SSVEPやERD等の脳波を用いたI/Fを利用する場合を例にあげて説明したが、表示装置の操作I/Fの種類は、1つに限定されない。例えば、複数種類のI/Fを備え、ユーザにより選択可能に構成してもよい。
なお、上記各実施形態では、AR装置(表示装置)の操作部107の操作I/Fとして、SSVEPやERD等の脳波を用いたI/Fを利用する場合を例にあげて説明したが、表示装置の操作I/Fの種類は、1つに限定されない。例えば、複数種類のI/Fを備え、ユーザにより選択可能に構成してもよい。
以下では、脳波を用いたI/F(脳波インタフェース)と、ジェスチャインタフェース(ジェスチャI/F)と、音声インタフェース(音声I/F)と、を備える表示装置を例にあげて、ユーザによるI/Fの選択を受け付けた場合のI/F設定処理を説明する。
この場合、表示装置は、例えば、図18に示すHUDシステム101bのように、映像装置147と、脳波I/F装置141と、を備える。さらに、ジェスチャIFを実現するジェスチャI/F装置と、音声I/Fを実現する音声I/F装置と、を備える。また、映像装置147の制御部112は、I/Fの選択を受け付ける受付部として機能する。そして、制御部112は、選択されたI/Fを操作部107として設定する設定部として機能する。ここでは、選択されたインタフェースを有効にする。すなわち、選択されたI/Fからの指示のみを受け付ける。
なお、制御部112は、例えば、表示部103に、選択可能なI/F種を表示し、当該表示を介してユーザからの選択を受け付けるよう構成してもよい。
以下、図27に従って、I/F設定処理の流れを説明する。
制御部112は、表示部103に、選択可能なI/F種を表示し、操作部107を介したユーザからの選択指示を待つ。
制御部112は、脳波I/Fが選択されたか否かを判別し(ステップS6101)、選択された場合、脳波I/Fを、操作部107として設定し(ステップS6102)、処理を終了する。ここでは、脳波I/Fからの指示のみを操作指示として受け付けるよう設定する。例えば、他のI/F装置の通信部からのデータを受け付けない。
次に、制御部112は、脳波I/Fが選択されない場合、ジェスチャI/Fが選択されたか否かを判別し(ステップS6103)、選択された場合、ジェスチャI/Fを、操作部107として設定し(ステップS6104)、処理を終了する。
次に、制御部112は、ステップS6103において、ジェスチャI/Fが選択されない場合、音声I/Fが選択されたか否かを判別し(ステップS6105)、選択された場合、音声I/Fを、操作部107として設定し(ステップS6106)、処理を終了する。
ステップS6105において、音声I/Fが選択されない場合、制御部112は、設定可能なI/Fがないことをユーザに通知し、ステップS6101に戻り、処理を繰り返す。
なお、上記例では、ステップS6102、S6104、S6016において、それぞれのインタフェースを設定した後に処理を終了している。しかしながら、これに限定されない。例えば、S6102の後にS6103に、S6104の後にS6015に、それぞれ戻り、複数種類のI/Fを設定するよう構成してもよい。
複数種類のI/Fを設定可能に構成する場合、ユーザは複数のI/Fを同時に利用する可能性があるため、操作に対する各インタフェースの優先度を設定しておく。
また、上記I/Fの選択は、基本的に初期設定時に行う。しかしながら、I/Fを、機器の使用中に変更可能に構成してもよい。このように構成することで、例えば、ユーザは、使用環境によってI/Fを変更できる。例えば、乗り物の中などの公共の場所では、脳波I/Fを選択し、自宅に一人でいる場合には、音声I/Fを選択し、オフィス等の限られた空間では、ジェスチャI/Fを選択する。例えば、I/F変更指示を受け付けるボタンを表示装置に配置し、当該ボタンを介して選択指示を受け付ける。
また、これらのI/Fの選択を自動で行うよう構成してもよい。ユーザのいる空間は、例えば、空間ごとに設置されているセンサで取得した信号等を用いて判別する。
なお、上記各実施形態は、主にAR装置を例に説明しているが、本発明の適用先は、AR装置に限定されない。例えば、VR装置、複合現実(Mixed Reality、MR)装置等にも同様に適用可能である。
101:表示装置、101a:表示装置、101b:ヘッドアップディスプレイシステム、101c:プロジェクタシステム、102:脳波I/F部、103:表示部、103a:表示部、104:マイク/スピーカ、105:通信部、106:映像生成部、107:操作部、109:実行部、110:記憶部、112:制御部、113:脳波検出部、114:脳波分析部、114a:脳波分析部、115:操作I/F作成部、116:操作I/F格納部、117:マッピング部、118:マッピングデータ格納部、119:機能判定部、120:脳波制御部、121:前処理部、122:特徴抽出部、123:視線周波数検出部、124:演算部、125:表示デバイス部、126:照明器、127:投射レンズ、130:ユーザ、131:空間調光器、141:脳波I/F装置、142:通信部、143:制御装置、145:映像生成装置、146:表示装置、147:映像装置、148:制御装置、151:通信部、152:映像生成制御部、153:映像出力I/F部、155:操作I/F作成部、161:通信部、162:表示制御部、163:映像入力I/F部、171:ERD検出部、
202:CPU、203:脳波計、204:表示装置、205:カメラ、206:マイク/スピーカ、208:記憶装置、209:RAM、211:通信モジュール、212:入力I/F、213:操作装置、214:システムバス、221:LCD、222:LCD、
301:AR装置、302:バンド部分、303、304:テンプル部分、305~311:電極、312、313:メガネレンズ部分、314:フレーム本体、
401:ボタンA、402:色1、403:色2、404:中間色、405:実線、
501:計器、502:重畳エリアAA、503:グラフ、504:周波数曲線、505~507:RGB値、511:元のRGB値、512:変化量、533~535:LC値、541:オブジェクト、542:マーカ、543:オブジェクト像
601:マッピングテーブル、602:識別番号、603:機能ID、604:SSVEP_ID、610:機能テーブル、613:機能名、614:機能概要、615:重畳フラグ、616:オブジェクトID、620:操作I/Fテーブル、623:周波数、624:形状、サイズ、625:エリア、626:使用色1、627:使用色2、628:重畳色、630:操作I/Fテーブル、631:周波数、632:形状、633:挿入エリア、634:オリジナル色、635:重畳時の色、640:マッピングテーブル、643:機能ID、644:ERD_ID、650:機能テーブル、653:機能名、654:機能概要、660:モード管理テーブル、663:モード種類、664:状態、670:オブジェクトテーブル、672:オブジェクト、680:オブジェクトテーブル、682:オブジェクト、
711:エリアB、712:エリアC、713:エリアD、714:エリアE、721:テンキー、722:数値入力ボタン、723:数値入力ボタン、724:数値入力ボタン、725:数値入力ボタン、726:数値入力ボタン、727:数値入力ボタン、728:数値入力ボタン、729:数値入力ボタン、730:数値入力ボタン、731:数値入力ボタン、732:数字表示パッド、733:リターンキーボタン、734:クリアボタン、
811:SSVEP機能ON、812:SSVEP機能OFF、814:後頭部、815:電極、816:電極、817:電極、818:動作イメージ
202:CPU、203:脳波計、204:表示装置、205:カメラ、206:マイク/スピーカ、208:記憶装置、209:RAM、211:通信モジュール、212:入力I/F、213:操作装置、214:システムバス、221:LCD、222:LCD、
301:AR装置、302:バンド部分、303、304:テンプル部分、305~311:電極、312、313:メガネレンズ部分、314:フレーム本体、
401:ボタンA、402:色1、403:色2、404:中間色、405:実線、
501:計器、502:重畳エリアAA、503:グラフ、504:周波数曲線、505~507:RGB値、511:元のRGB値、512:変化量、533~535:LC値、541:オブジェクト、542:マーカ、543:オブジェクト像
601:マッピングテーブル、602:識別番号、603:機能ID、604:SSVEP_ID、610:機能テーブル、613:機能名、614:機能概要、615:重畳フラグ、616:オブジェクトID、620:操作I/Fテーブル、623:周波数、624:形状、サイズ、625:エリア、626:使用色1、627:使用色2、628:重畳色、630:操作I/Fテーブル、631:周波数、632:形状、633:挿入エリア、634:オリジナル色、635:重畳時の色、640:マッピングテーブル、643:機能ID、644:ERD_ID、650:機能テーブル、653:機能名、654:機能概要、660:モード管理テーブル、663:モード種類、664:状態、670:オブジェクトテーブル、672:オブジェクト、680:オブジェクトテーブル、682:オブジェクト、
711:エリアB、712:エリアC、713:エリアD、714:エリアE、721:テンキー、722:数値入力ボタン、723:数値入力ボタン、724:数値入力ボタン、725:数値入力ボタン、726:数値入力ボタン、727:数値入力ボタン、728:数値入力ボタン、729:数値入力ボタン、730:数値入力ボタン、731:数値入力ボタン、732:数字表示パッド、733:リターンキーボタン、734:クリアボタン、
811:SSVEP機能ON、812:SSVEP機能OFF、814:後頭部、815:電極、816:電極、817:電極、818:動作イメージ
Claims (16)
- 入力操作インタフェースとして、BCI(Brain Computer Interface)を備え、拡張現実、仮想現実、および/または複合現実表示を行う表示装置。
- 視覚刺激信号の周波数に応じた周波数を有する脳波信号を検出し、機器の制御を行う脳波インタフェース装置であって、
取得した各映像フレーム上の予め定めた領域である操作領域に、特定の周波数である特定周波数を割り当て、前記特定周波数の逆数の周期で、予め定めた最大値と最小値との間、または色情報の差分変化量で、前記操作領域に対応する領域の色情報を変化させることにより、当該特定周波数を有する前記視覚刺激信号を作成する操作インタフェース作成部と、
前記特定周波数を有する前記視覚刺激信号または前記特定周波数を有する前記視覚刺激信号を含む映像データを表示デバイスに出力する演算部と、
前記特定周波数に、制御指示を対応づけて保持する対応データベースと、
検出した脳波信号から前記特定周波数を抽出する脳波分析部と、
抽出した前記特定周波数に対応する前記制御指示を前記対応データベースから取得し、当該制御指示に従って制御を行う制御部と、を備えること
を特徴とする脳波インタフェース装置。 - 請求項2記載の脳波インタフェース装置であって、
前記演算部は、各前記映像フレーム上の前記操作領域に前記視覚刺激信号を出力すること
を特徴とする脳波インタフェース装置。 - 請求項2記載の脳波インタフェース装置であって、
前記演算部は、前記表示デバイス上の、前記各映像フレームの前記操作領域に対応する領域に前記視覚刺激信号を出力すること
を特徴とする脳波インタフェース装置。 - 請求項2記載の脳波インタフェース装置であって、
前記操作インタフェース作成部は、前記操作領域の形状に対応する予め定めたアイコンの色情報を変化させること
を特徴とする脳波インタフェース装置。 - 請求項3記載の脳波インタフェース装置であって、
前記操作インタフェース作成部は、前記各映像フレームの前記操作領域の色情報を変化させること
を特徴とする脳波インタフェース装置。 - 請求項2記載の脳波インタフェース装置であって、
前記表示デバイスの、ユーザと反対側に第二の表示デバイスを備え、
前記操作インタフェース作成部は、前記第二の表示デバイスの前記操作領域に対応する領域の輝度を変化させること
を特徴とする脳波インタフェース装置。 - 請求項2記載の脳波インタフェース装置であって、
前記各映像フレームから動体を検出する動体検出部をさらに備え、
前記操作領域は、検出された前記動体に対する相対位置で定められること
を特徴とする脳波インタフェース装置。 - 請求項8記載の脳波インタフェース装置であって、
前記制御部は、前記脳波分析部が前記特定周波数を抽出しない場合、警告を出力すること
を特徴とする脳波インタフェース装置。 - 請求項5記載の脳波インタフェース装置であって、
前記操作インタフェース作成部は、前記色情報の最大値および最小値をさらに決定し、当該操作インタフェース作成部は、前記特定周波数が、予め定めた閾値未満の場合、前記色情報の最大値および最小値を、同一のマクアダム楕円内で選択して決定すること
を特徴とする脳波インタフェース装置。 - 請求項1記載の表示装置であって、
前記BCIは、請求項2記載の脳波インタフェース装置であること
を特徴とする表示装置。 - 請求項2記載の脳波インタフェース装置を備えるヘッドアップディスプレイシステム。
- 請求項2記載の脳波インタフェース装置を備えるプロジェクタシステム。
- 請求項1記載の表示装置であって、
複数の前記入力操作インタフェースと、
操作に使用する前記入力操作インタフェースの選択を受け付ける受付部と、
前記受付部で受け付けた前記入力操作インタフェースを有効にする設定部と、をさらに備え、
複数の前記入力操作インタフェースは、脳波インタフェース装置、ジェスチャインタフェースおよび音声インタフェースを含むこと
を特徴とする表示装置。 - 請求項1記載の表示装置であって、
前記BCIは、定常状態視覚誘発電位、事象関連同期および事象関連脱同期の少なくとも1つを用いるインタフェースを含むこと
を特徴とする表示装置。 - 脳波信号を誘発する視覚刺激信号の表示方法であって、
取得した各映像フレーム上の予め定めた領域である操作領域に、特定周波数を割り当て、
前記特定周波数の逆数の周期で、予め定めた最大値と最小値との間、または色情報の差分変化量で、前記操作領域に対応する領域の色情報を変化させることにより、当該特定周波数を有する前記視覚刺激信号を作成し、前記特定周波数を有する前記視覚刺激信号または前記特定周波数を有する前記視覚刺激信号を含む映像データを、前記予め定めた操作領域に表示する、視覚刺激信号の表示方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019547886A JP7101696B2 (ja) | 2017-10-13 | 2017-10-13 | 表示装置、脳波インタフェース装置、ヘッドアップディスプレイシステムおよびプロジェクタシステム |
PCT/JP2017/037224 WO2019073603A1 (ja) | 2017-10-13 | 2017-10-13 | 表示装置、脳波インタフェース装置、ヘッドアップディスプレイシステム、プロジェクタシステムおよび視覚刺激信号の表示方法 |
JP2022108320A JP7367132B2 (ja) | 2017-10-13 | 2022-07-05 | 脳波インタフェース装置 |
JP2023175951A JP2023178350A (ja) | 2017-10-13 | 2023-10-11 | 脳波インタフェース装置、表示装置、ヘッドアップディスプレイシステム、及びプロジェクタシステム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/037224 WO2019073603A1 (ja) | 2017-10-13 | 2017-10-13 | 表示装置、脳波インタフェース装置、ヘッドアップディスプレイシステム、プロジェクタシステムおよび視覚刺激信号の表示方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2019073603A1 true WO2019073603A1 (ja) | 2019-04-18 |
Family
ID=66100524
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2017/037224 WO2019073603A1 (ja) | 2017-10-13 | 2017-10-13 | 表示装置、脳波インタフェース装置、ヘッドアップディスプレイシステム、プロジェクタシステムおよび視覚刺激信号の表示方法 |
Country Status (2)
Country | Link |
---|---|
JP (3) | JP7101696B2 (ja) |
WO (1) | WO2019073603A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113349803A (zh) * | 2021-06-30 | 2021-09-07 | 杭州回车电子科技有限公司 | 稳态视觉诱发电位诱发方法、装置、电子装置和存储介质 |
CN113434040A (zh) * | 2021-06-07 | 2021-09-24 | 西北工业大学 | 基于增强现实诱发的脑机接口技术方法 |
KR20220098533A (ko) * | 2021-01-04 | 2022-07-12 | 한국과학기술원 | 귀-eeg를 이용한 음성 이미지 기반의 뇌-컴퓨터 인터페이스를 위한 데이터 획득 방법 및 시스템 |
WO2023228337A1 (ja) * | 2022-05-25 | 2023-11-30 | 日本電信電話株式会社 | 提示システム、提示方法及び提示プログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011076177A (ja) * | 2009-09-29 | 2011-04-14 | Advanced Telecommunication Research Institute International | 歯の接触によって誘発された脳波を利用した機器制御方法及び機器制御装置 |
JP2015226723A (ja) * | 2014-06-02 | 2015-12-17 | トヨタ自動車株式会社 | 脳波検出装置 |
JP2016179164A (ja) * | 2015-03-23 | 2016-10-13 | 現代自動車株式会社Hyundai Motor Company | ディスプレイ装置、車両及びディスプレイ方法 |
JP2017524394A (ja) * | 2014-05-30 | 2017-08-31 | ザ リージェンツ オブ ザ ユニバーシティー オブ ミシガン | 多肢選択式の解答の直接選択及び状態変更の特定を容易にするためのブレインコンピュータインターフェース |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5075457B2 (ja) | 2007-04-13 | 2012-11-21 | 株式会社トヨタIt開発センター | 警報装置 |
JP5282480B2 (ja) | 2008-08-20 | 2013-09-04 | 株式会社ニコン | 電子カメラ |
CN101571748A (zh) | 2009-06-04 | 2009-11-04 | 浙江大学 | 一种基于增强现实的脑机交互系统 |
WO2011150407A2 (en) | 2010-05-28 | 2011-12-01 | The Regents Of The University Of California | Cell-phone based wireless and mobile brain-machine interface |
US20130138248A1 (en) | 2011-11-30 | 2013-05-30 | Honeywell International Inc. | Thought enabled hands-free control of multiple degree-of-freedom systems |
CA3187490A1 (en) | 2013-03-15 | 2014-09-18 | Interaxon Inc. | Wearable computing apparatus and method |
JP2016189164A (ja) | 2015-03-30 | 2016-11-04 | 東芝テック株式会社 | 電子機器及び表示装置 |
CN206162388U (zh) | 2016-08-31 | 2017-05-10 | 博睿康科技(常州)股份有限公司 | 一种脑机交互穿戴系统 |
-
2017
- 2017-10-13 WO PCT/JP2017/037224 patent/WO2019073603A1/ja active Application Filing
- 2017-10-13 JP JP2019547886A patent/JP7101696B2/ja active Active
-
2022
- 2022-07-05 JP JP2022108320A patent/JP7367132B2/ja active Active
-
2023
- 2023-10-11 JP JP2023175951A patent/JP2023178350A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011076177A (ja) * | 2009-09-29 | 2011-04-14 | Advanced Telecommunication Research Institute International | 歯の接触によって誘発された脳波を利用した機器制御方法及び機器制御装置 |
JP2017524394A (ja) * | 2014-05-30 | 2017-08-31 | ザ リージェンツ オブ ザ ユニバーシティー オブ ミシガン | 多肢選択式の解答の直接選択及び状態変更の特定を容易にするためのブレインコンピュータインターフェース |
JP2015226723A (ja) * | 2014-06-02 | 2015-12-17 | トヨタ自動車株式会社 | 脳波検出装置 |
JP2016179164A (ja) * | 2015-03-23 | 2016-10-13 | 現代自動車株式会社Hyundai Motor Company | ディスプレイ装置、車両及びディスプレイ方法 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220098533A (ko) * | 2021-01-04 | 2022-07-12 | 한국과학기술원 | 귀-eeg를 이용한 음성 이미지 기반의 뇌-컴퓨터 인터페이스를 위한 데이터 획득 방법 및 시스템 |
KR102511641B1 (ko) | 2021-01-04 | 2023-03-21 | 한국과학기술원 | 귀-eeg를 이용한 음성 이미지 기반의 뇌-컴퓨터 인터페이스를 위한 데이터 획득 방법 및 시스템 |
CN113434040A (zh) * | 2021-06-07 | 2021-09-24 | 西北工业大学 | 基于增强现实诱发的脑机接口技术方法 |
CN113434040B (zh) * | 2021-06-07 | 2024-01-05 | 西北工业大学 | 基于增强现实诱发的脑机接口技术方法 |
CN113349803A (zh) * | 2021-06-30 | 2021-09-07 | 杭州回车电子科技有限公司 | 稳态视觉诱发电位诱发方法、装置、电子装置和存储介质 |
WO2023228337A1 (ja) * | 2022-05-25 | 2023-11-30 | 日本電信電話株式会社 | 提示システム、提示方法及び提示プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2022141738A (ja) | 2022-09-29 |
JP7101696B2 (ja) | 2022-07-15 |
JPWO2019073603A1 (ja) | 2020-11-19 |
JP2023178350A (ja) | 2023-12-14 |
JP7367132B2 (ja) | 2023-10-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7367132B2 (ja) | 脳波インタフェース装置 | |
US10665206B2 (en) | Method and system for user-related multi-screen solution for augmented reality for use in performing maintenance | |
US20240078771A1 (en) | Frame-by-frame rendering for augmented or virtual reality systems | |
US20020122014A1 (en) | Intelligent eye | |
US10296359B2 (en) | Interactive system control apparatus and method | |
EP3196734A1 (en) | Control device, control method, and program | |
CA3034847A1 (en) | System and method for receiving user commands via contactless user interface | |
US20210240331A1 (en) | Selecting a text input field using eye gaze | |
WO2016208261A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
US20240077937A1 (en) | Devices, methods, and graphical user interfaces for controlling avatars within three-dimensional environments | |
US20120282585A1 (en) | Interest-Attention Feedback System for Separating Cognitive Awareness into Different Left and Right Sensor Displays | |
KR20240091221A (ko) | 미디어를 캡처 및 디스플레이하기 위한 디바이스들, 방법들, 및 그래픽 사용자 인터페이스들 | |
CN118103799A (zh) | 与远程设备的用户交互 | |
US20220301264A1 (en) | Devices, methods, and graphical user interfaces for maps | |
US20240103616A1 (en) | User interfaces for gaze tracking enrollment | |
US20240118746A1 (en) | User interfaces for gaze tracking enrollment | |
US20230200715A1 (en) | Methods and Systems for Displaying Eye Images to Subjects and for Interacting with Virtual Objects | |
US20230298541A1 (en) | Color Correction Based on Perceptual Criteria and Ambient Light Chromaticity | |
KR20230029782A (ko) | 시각적 지원 | |
WO2020140905A1 (zh) | 虚拟内容交互系统及方法 | |
WO2022176541A1 (ja) | 情報処理方法および情報処理装置 | |
EP4407413A1 (en) | Mixed reality interaction with eye-tracking techniques | |
US11823343B1 (en) | Method and device for modifying content according to various simulation characteristics | |
WO2024075544A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
US20240103636A1 (en) | Methods for manipulating a virtual object |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17928324 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2019547886 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 17928324 Country of ref document: EP Kind code of ref document: A1 |