JPWO2018034113A1 - Content providing system, content providing method, and program for content providing system - Google Patents
Content providing system, content providing method, and program for content providing system Download PDFInfo
- Publication number
- JPWO2018034113A1 JPWO2018034113A1 JP2017552110A JP2017552110A JPWO2018034113A1 JP WO2018034113 A1 JPWO2018034113 A1 JP WO2018034113A1 JP 2017552110 A JP2017552110 A JP 2017552110A JP 2017552110 A JP2017552110 A JP 2017552110A JP WO2018034113 A1 JPWO2018034113 A1 JP WO2018034113A1
- Authority
- JP
- Japan
- Prior art keywords
- content
- user
- feature amount
- biological
- providing system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 73
- 230000008859 change Effects 0.000 claims abstract description 91
- 238000012545 processing Methods 0.000 claims abstract description 75
- 238000004364 calculation method Methods 0.000 claims abstract description 33
- 230000000694 effects Effects 0.000 claims abstract description 18
- 230000008569 process Effects 0.000 claims description 65
- 230000003190 augmentative effect Effects 0.000 claims description 6
- 230000004071 biological effect Effects 0.000 claims 1
- 230000003340 mental effect Effects 0.000 abstract description 5
- 230000006996 mental state Effects 0.000 description 20
- 210000004556 brain Anatomy 0.000 description 15
- 238000004891 communication Methods 0.000 description 14
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 11
- 230000000007 visual effect Effects 0.000 description 10
- 230000010365 information processing Effects 0.000 description 8
- 238000012549 training Methods 0.000 description 8
- 230000017531 blood circulation Effects 0.000 description 6
- 239000003205 fragrance Substances 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 239000008280 blood Substances 0.000 description 3
- 210000004369 blood Anatomy 0.000 description 3
- 230000036772 blood pressure Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 210000001747 pupil Anatomy 0.000 description 3
- 230000000241 respiratory effect Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000000638 stimulation Effects 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 235000015429 Mirabilis expansa Nutrition 0.000 description 2
- 244000294411 Mirabilis expansa Species 0.000 description 2
- 208000003443 Unconsciousness Diseases 0.000 description 2
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000036760 body temperature Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000005281 excited state Effects 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 235000013536 miso Nutrition 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 229910052760 oxygen Inorganic materials 0.000 description 2
- 239000001301 oxygen Substances 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 235000019615 sensations Nutrition 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 230000035900 sweating Effects 0.000 description 2
- 238000002560 therapeutic procedure Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000001914 calming effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000003183 myoelectrical effect Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000037081 physical activity Effects 0.000 description 1
- 238000000554 physical therapy Methods 0.000 description 1
- 238000001671 psychotherapy Methods 0.000 description 1
- 230000002040 relaxant effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 210000004243 sweat Anatomy 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/369—Electroencephalography [EEG]
- A61B5/377—Electroencephalography [EEG] using evoked responses
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H1/00—Apparatus for passive exercising; Vibrating apparatus; Chiropractic devices, e.g. body impacting devices, external devices for briefly extending or aligning unbroken bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M21/00—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
- A61M21/02—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis for inducing sleep or relaxation, e.g. by direct nerve stimulation, hypnosis, analgesia
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Heart & Thoracic Surgery (AREA)
- Biomedical Technology (AREA)
- Psychology (AREA)
- Molecular Biology (AREA)
- Human Computer Interaction (AREA)
- Pain & Pain Management (AREA)
- Biophysics (AREA)
- Anesthesiology (AREA)
- Medical Informatics (AREA)
- Psychiatry (AREA)
- Surgery (AREA)
- General Physics & Mathematics (AREA)
- Pathology (AREA)
- Epidemiology (AREA)
- Physical Education & Sports Medicine (AREA)
- Rehabilitation Therapy (AREA)
- Acoustics & Sound (AREA)
- Hematology (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
ユーザに意識させずに、ユーザの身体状態や精神状態等に影響を与え、所定の状態に導くことができるコンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供システム用のプログラムを提供する。コンテンツ提供システム1は、ユーザ3の生命活動又は生命状態を示す生体情報を検出し、生体情報に対応する生体信号を生成する生体センサ10と、生体信号を解析し、生体信号の特徴量を算出する特徴量算出部14と、特徴量に基づいて、コンテンツデータの少なくとも一部に変更処理を施すコンテンツ処理部18と、変更処理が施されたコンテンツデータに基づくコンテンツをユーザ3に出力するコンテンツ出力部20とを備える。Provided are a content providing system, a content providing method, and a program for the content providing system that can affect a user's physical condition, mental condition, and the like without being conscious of the user, and lead to a predetermined state. The content providing system 1 detects biological information indicating the life activity or life state of the user 3, generates a biological signal corresponding to the biological information, analyzes the biological signal, and calculates a feature value of the biological signal. A feature amount calculation unit 14, a content processing unit 18 that performs change processing on at least a part of the content data based on the feature amount, and content output that outputs content based on the content data subjected to the change processing to the user 3 Part 20.
Description
本発明は、コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供システム用のプログラムに関する。特に、本発明は、生体情報に応じ、出力されるコンテンツに変更処理を施すコンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供システム用のプログラムに関する。 The present invention relates to a content providing system, a content providing method, and a program for the content providing system. In particular, the present invention relates to a content providing system, a content providing method, and a program for the content providing system that perform change processing on output content according to biometric information.
従来、使用者の額部に電極を当接して生体信号を検出する生体信号検出手段と、生体信号検出手段で検出した生体信号を送信する送信手段と、送信手段から送信された生体信号を受信する受信手段と、受信手段で受信された生体信号をFFT処理して脳波パワースペクトルを得る変換手段と、パワースペクトルにより操作されるアプリケーションソフトと、アプリケーションソフトを制御する制御手段を備えてなる脳波のバイオフィードバックにより制御される脳トレーニング装置が知られている(例えば、特許文献1参照。)。特許文献1に記載の脳トレーニング装置によれば、使用者は、自己の脳をリラックス状態やエキサイト状態とするために視覚を通じて楽しみながら脳トレすることができる。 Conventionally, a biological signal detecting means for detecting a biological signal by contacting an electrode with a forehead of a user, a transmitting means for transmitting a biological signal detected by the biological signal detecting means, and a biological signal transmitted from the transmitting means are received. Of the electroencephalogram, comprising: a receiving means that performs the FFT processing on the biological signal received by the receiving means to obtain an electroencephalogram power spectrum; application software that is operated by the power spectrum; and a control means that controls the application software. A brain training device controlled by biofeedback is known (for example, see Patent Document 1). According to the brain training apparatus described in Patent Document 1, the user can perform brain training while enjoying his / her eyes through vision in order to put his / her brain into a relaxed state or an excited state.
しかし、特許文献1に記載されている脳トレーニング装置においては、使用者は自ら能動的にアプリケーションソフトを制御することを要する。すなわち、特許文献1に記載されている脳トレーニング装置は、使用者の生体信号に基づいてアプリケーションソフトを制御する場合に、自らの生体信号を変えることを使用者自身が意識しなければならない。したがって、特許文献1に記載されている脳トレーニング装置を含む従来技術は、使用者が脳トレーニング装置等を意識せずに自然の状態に任せたまま、使用者の身体状態や精神状態を変えることはできない。いわば、従来技術においては、使用者は能動的に自らの身体状態や精神状態を変えるように意識しなければならない。 However, in the brain training apparatus described in Patent Document 1, the user needs to actively control application software by himself. That is, in the brain training device described in Patent Document 1, when the application software is controlled based on the user's biological signal, the user himself / herself must be aware of changing his / her biological signal. Therefore, the conventional technology including the brain training device described in Patent Document 1 changes the physical state and mental state of the user while leaving the user to the natural state without being aware of the brain training device or the like. I can't. In other words, in the prior art, the user must be conscious of actively changing his / her physical state and mental state.
したがって、本発明の目的は、ユーザに意識させずに、ユーザの身体状態や精神状態等に影響を与え、所定の状態に導くことができるコンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供システム用のプログラムを提供することにある。 Therefore, an object of the present invention is to provide a content providing system, a content providing method, and a content providing system that can affect a user's physical condition, mental condition, and the like without being conscious of the user, and lead to a predetermined state. To provide a program.
本発明は、上記目的を達成するため、ユーザの生命活動又は生命状態を示す生体情報を検出し、生体情報に対応する生体信号を生成する生体センサと、生体信号を解析し、生体信号の特徴量を算出する特徴量算出部と、特徴量に基づいて、コンテンツデータの少なくとも一部に変更処理を施すコンテンツ処理部と、変更処理が施されたコンテンツデータに基づくコンテンツをユーザに出力するコンテンツ出力部とを備えるコンテンツ提供システムが提供される。 In order to achieve the above object, the present invention detects biological information indicating a user's life activity or life state, generates a biological signal corresponding to the biological information, analyzes the biological signal, and features of the biological signal A feature amount calculation unit for calculating the amount, a content processing unit for performing change processing on at least a part of the content data based on the feature amount, and content output for outputting content based on the content data subjected to the change processing to the user A content providing system comprising a unit is provided.
また、上記コンテンツ提供システムにおいて、コンテンツ出力部が、コンテンツの少なくとも一部を拡張現実空間、若しくは仮想現実空間内に出力することもできる。 In the content providing system, the content output unit may output at least part of the content in the augmented reality space or the virtual reality space.
また、上記コンテンツ提供システムにおいて、生体センサが、変更処理が施されたコンテンツデータに基づくコンテンツに接しているユーザの生体情報を検出し、当該生体情報に対応する生体信号を生成し、特徴量算出部が、変更処理が施されたコンテンツデータに基づくコンテンツに接しているユーザの生体信号を解析して当該生体信号の特徴量を第2の特徴量として算出し、コンテンツ処理部が、第2の特徴量に基づいて、変更処理が施されたコンテンツデータの少なくとも一部に更に変更処理を施すことが好ましい。 In the content providing system, the biometric sensor detects biometric information of a user who is in contact with the content based on the content data subjected to the change process, generates a biometric signal corresponding to the biometric information, and calculates a feature amount. The unit analyzes a biometric signal of a user who is in contact with the content based on the content data subjected to the change process, calculates a feature amount of the biosignal as a second feature amount, and the content processing unit It is preferable that the modification process is further performed on at least a part of the content data subjected to the modification process based on the feature amount.
また、上記コンテンツ提供システムにおいて、生体センサが、リアルタイムで変化する生体情報をリアルタイムで検出して生体信号を生成し、特徴量算出部が、生体信号の特徴量をリアルタイムで算出し、コンテンツ処理部が、リアルタイムで算出される特徴量に基づいて、コンテンツデータの少なくとも一部に変更処理をリアルタイムで施すこともできる。 Further, in the content providing system, the biometric sensor detects biometric information that changes in real time in real time to generate a biometric signal, and the feature amount calculation unit calculates the feature amount of the biometric signal in real time, and the content processing unit However, based on the feature amount calculated in real time, at least a part of the content data can be changed in real time.
また、上記コンテンツ提供システムにおいて、コンテンツが、ユーザが知覚可能な少なくとも1つの要素を有して構成され、コンテンツ処理部が、少なくとも1つの要素の性質、及び/又は量が変更されるようにコンテンツデータに変更処理を施すこともできる。 In the above content providing system, the content is configured to have at least one element that can be perceived by the user, and the content processing unit changes the property and / or amount of the at least one element. Data can be modified.
また、本発明は上記目的を達成するため、ユーザの生命活動又は生命状態を示す生体情報を検出し、生体情報に対応する生体信号を生成する生体センサからの生体信号を解析し、生体信号の特徴量を算出する特徴量算出段階と、特徴量に基づいて、コンテンツの少なくとも一部に変更処理を施すコンテンツ処理段階と、変更処理が施されたコンテンツをユーザに出力するコンテンツ出力段階とを備えるコンテンツ提供方法が提供される。 In order to achieve the above object, the present invention detects biological information indicating the life activity or life state of a user, analyzes a biological signal from a biological sensor that generates a biological signal corresponding to the biological information, A feature amount calculating stage for calculating a feature amount, a content processing stage for performing change processing on at least a part of the content based on the feature amount, and a content output stage for outputting the content subjected to the change processing to the user A content providing method is provided.
また、本発明は上記目的を達成するため、コンテンツ提供システム用のプログラムであって、コンピューターに、ユーザの生命活動又は生命状態を示す生体情報を検出し、生体情報に対応する生体信号を生成する生体センサからの生体信号を解析し、生体信号の特徴量を算出する特徴量算出機能と、特徴量に基づいて、コンテンツの少なくとも一部に変更処理を施すコンテンツ処理機能と、変更処理が施されたコンテンツをユーザに出力するコンテンツ出力機能とを実現させるコンテンツ提供システム用のプログラムが提供される。 In order to achieve the above object, the present invention is a program for a content providing system, which detects biological information indicating a user's life activity or life state on a computer and generates a biological signal corresponding to the biological information. A feature amount calculation function for analyzing a biological signal from a biological sensor and calculating a feature amount of the biological signal, a content processing function for performing a change process on at least a part of the content based on the feature amount, and a change process are performed. A program for a content providing system that realizes a content output function for outputting the content to a user is provided.
本発明に係るコンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供システム用のプログラムによれば、ユーザに意識させずに、ユーザの身体状態や精神状態等に影響を与え、所定の状態に導くことができるコンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供システム用のプログラムを提供できる。 According to the content providing system, the content providing method, and the program for the content providing system according to the present invention, the user's physical condition, mental condition, etc. can be affected and led to a predetermined state without being conscious of the user. Content providing system, content providing method, and program for content providing system can be provided.
[実施の形態]
(コンテンツ提供システム1の概要)
図1は、本発明の実施の形態に係るコンテンツ提供システムの概要を示す。具体的に、コンテンツ提供システム1の一例として、ユーザ3の脳波情報を生体情報として用い、ユーザ3が接している画像の色を変化させる場合の概要を説明する。[Embodiment]
(Outline of content providing system 1)
FIG. 1 shows an outline of a content providing system according to an embodiment of the present invention. Specifically, as an example of the content providing system 1, an outline in the case where the brain wave information of the user 3 is used as biological information and the color of the image that the user 3 is in contact with is changed.
図1では、コンテンツ提供システム1が、ヘッドマウントディスプレイ5の形態を有して構成されている例を示す。ヘッドマウントディスプレイ5は、画像(静止画、及び/又は動画)を出力する画像出力部50と、音声を出力する音声出力部52と、ユーザ3の脳波を検出して脳波信号を生成する脳波センサ54とを備える。また、ヘッドマウントディスプレイ5は、コンテンツデータを格納するコンテンツ格納部と、脳波信号の強度を算出する特徴量算出部と、脳波の強度に基づいてコンテンツデータに所定の変更処理を施すコンテンツ処理部とを更に備えることもできる。なお、コンテンツ格納部、特徴量算出部、及び/又はコンテンツ処理部は、外部の情報処理装置(図示しない。なお、情報処理装置としては、携帯電話やスマートフォン等の携帯端末、パーソナルコンピュータやサーバ等の情報処理端末、インターネット等の通信網上のサーバ等が挙げられる。以下同じ。)が有していてもよい。その場合、当該外部の情報処理装置とヘッドマウントディスプレイ5とは、有線、若しくは無線により通信可能に接続される。また、ヘッドマウントディスプレイ5は、画像出力部50が出力する画像の画像データ、及び/又は音声出力部52が出力する音声の音声データを、コンテンツ格納部、及び/又はインターネット等の通信網を介してヘッドマウントディスプレイ5と通信可能に接続される外部の情報処理装置等から取得してもよい。更に、音声出力部52はユーザ3から離れた位置に配置されるスピーカーであってもよい。 FIG. 1 shows an example in which the content providing system 1 has a configuration of a head mounted display 5. The head mounted display 5 includes an image output unit 50 that outputs an image (still image and / or moving image), an audio output unit 52 that outputs sound, and an electroencephalogram sensor that detects an electroencephalogram of the user 3 and generates an electroencephalogram signal. 54. The head mounted display 5 includes a content storage unit that stores content data, a feature amount calculation unit that calculates the intensity of an electroencephalogram signal, a content processing unit that performs predetermined change processing on the content data based on the intensity of the electroencephalogram, Can also be provided. Note that the content storage unit, the feature amount calculation unit, and / or the content processing unit are external information processing devices (not shown. Note that information processing devices include mobile terminals such as mobile phones and smartphones, personal computers, servers, and the like. Information processing terminal, a server on a communication network such as the Internet, etc. The same shall apply hereinafter). In that case, the external information processing apparatus and the head mounted display 5 are connected to be communicable by wire or wirelessly. The head mounted display 5 receives the image data output from the image output unit 50 and / or the audio data output from the audio output unit 52 via a content storage unit and / or a communication network such as the Internet. The information may be acquired from an external information processing apparatus or the like that is communicably connected to the head mounted display 5. Furthermore, the audio output unit 52 may be a speaker arranged at a position away from the user 3.
このようなヘッドマウントディスプレイ5は、所定のコンテンツ(例えば、ユーザ3が知覚可能なコンテンツ、及び/又は可視光領域外の光により構成されるコンテンツや可聴範囲外の音声で構成されるコンテンツ等のユーザ3が知覚できないが物理的に存在するコンテンツ)を出力する。例えば、コンテンツ提供システム1としてのヘッドマウントディスプレイ5は、画像出力部50から所定の画像を出力し、及び/又は音声出力部52から所定の音声を出力する。一例として、画像出力部50は、時刻t0において、出力画像200を出力する。出力画像200には、一例として、図1(c)の(c−1)に示すように所定のオブジェクト500が含まれているとする。Such a head-mounted display 5 includes predetermined content (for example, content that can be perceived by the user 3 and / or content composed of light outside the visible light range and content composed of sound outside the audible range). Content that cannot be perceived by the user 3 but physically exists). For example, the head mounted display 5 as the content providing system 1 outputs a predetermined image from the image output unit 50 and / or outputs a predetermined sound from the audio output unit 52. As an example, the image output unit 50 at time t 0, and outputs an output image 200. As an example, it is assumed that the output image 200 includes a predetermined object 500 as shown in (c-1) of FIG.
そして、脳波センサ54は、ユーザ3の脳波をリアルタイムに検出し、脳波信号を生成する。ここで、脳波センサ54が生成する脳波信号の概略を図1(b)に示す。図1(b)においては、脳波信号(例えば、デルタ波、シータ波、アルファ波、ベータ波、又はガンマ波の少なくともいずれか1つの脳波の信号)の経時変化を示すグラフ100を示しており、横軸が時間の経過を示し、縦軸が脳波信号の強度を示す。 The electroencephalogram sensor 54 detects the electroencephalogram of the user 3 in real time and generates an electroencephalogram signal. Here, an outline of an electroencephalogram signal generated by the electroencephalogram sensor 54 is shown in FIG. FIG. 1B shows a graph 100 showing a change over time of an electroencephalogram signal (for example, an electroencephalogram signal of at least one of a delta wave, theta wave, an alpha wave, a beta wave, or a gamma wave), The horizontal axis indicates the passage of time, and the vertical axis indicates the intensity of the electroencephalogram signal.
画像出力部50が出力する出力画像200、及び/又は音声出力部52が出力する音声(例えば、画像出力部50が出力する出力画像200に対応させた音楽や音声)に接したユーザ3の脳波には、ユーザ3が無意識のうちに、出力画像200及び/又は音声が出力された時点、又は出力画像200及び/又は音声が出力された時点からある程度の時間が経過した後(若しくは経過中)、出力画像200及び/又は出力された音声に応じた変化が生じる(若しくは変化し続ける)。例えば、図1(b)に示すように、出力画像200を提供した時刻t0における脳波信号の強度が、時刻t0から所定時間経過後の時刻t1において特徴的な変化を示し、時刻t0から時刻t1までの間において、脳波信号の強度が予め定められた強度Xを下回る変化が生じたとする。The brain wave of the user 3 in contact with the output image 200 output from the image output unit 50 and / or the sound output from the audio output unit 52 (for example, music or sound corresponding to the output image 200 output from the image output unit 50). After the user 3 unconsciously, when the output image 200 and / or the sound is output, or after a certain amount of time has elapsed from the time when the output image 200 and / or the sound is output (or during the process). Then, a change corresponding to the output image 200 and / or the output sound occurs (or keeps changing). For example, as shown in FIG. 1B, the intensity of the electroencephalogram signal at time t 0 when the output image 200 is provided shows a characteristic change at time t 1 after a predetermined time has elapsed from time t 0 , and time t in the period from 0 to time t 1, a change below the intensity X of the intensity of the brain wave signal is predetermined occurred.
この場合、特徴量算出部は、脳波信号の特徴量として脳波信号の強度をリアルタイムで算出する。そして、コンテンツ処理部は、特徴量算出部が算出した脳波信号の強度に基づいて、出力画像200に所定の変更処理を施す。一例として、コンテンツ処理部は、脳波信号の強度が予め定められた強度X以下の場合、出力画像中のオブジェクトの色を第1の色に変える処理を実行し、脳波信号の強度が予め定められた強度Y以上の場合(ただし、X<Yを満たす)、オブジェクトの色を第1の色とは異なる第2の色に変える処理を実行する。時刻t1においては、脳波信号の強度が強度Xを下回っているので、コンテンツ処理部は、出力画像200に含まれるオブジェクト500の色を第1の色に変える処理を実行して、オブジェクト500の色が第1の色に変更されたオブジェクト500aを生成する。そして、画像出力部50は、オブジェクト500aが含まれる出力画像205を出力する(図1(c)の(c−2)を参照。)。なお、コンテンツ処理部は、オブジェクトを元の色から第1の色若しくは第2の色に変える処理を実行する場合に、元の色から第1の色へ、若しくは元の色から第2の色へと徐々に変化する処理、又は不連続に変わる処理等の色の切替え処理を実行できる。同様に、コンテンツ処理部は、第1の色から第2の色への変化、及び/又は第2の色から第1の色への変化についても、色を徐々に変化させる処理、又は不連続に変化させる処理を実行できる。In this case, the feature amount calculation unit calculates the strength of the electroencephalogram signal in real time as the feature amount of the electroencephalogram signal. Then, the content processing unit performs a predetermined change process on the output image 200 based on the intensity of the electroencephalogram signal calculated by the feature amount calculation unit. As an example, when the intensity of the electroencephalogram signal is equal to or less than a predetermined intensity X, the content processing unit executes a process of changing the color of the object in the output image to the first color, and the intensity of the electroencephalogram signal is determined in advance. If the intensity is greater than or equal to Y (provided that X <Y is satisfied), a process of changing the color of the object to a second color different from the first color is executed. At time t 1, the intensity of the brain wave signal is below the intensity X, the content processing unit executes a process of changing the color of the object 500 included in the output image 200 to the first color, the object 500 An object 500a whose color is changed to the first color is generated. Then, the image output unit 50 outputs an output image 205 including the object 500a (see (c-2) in FIG. 1C). Note that the content processing unit performs the process of changing the object from the original color to the first color or the second color, from the original color to the first color, or from the original color to the second color. It is possible to execute a color switching process such as a process that gradually changes to or a process that changes discontinuously. Similarly, the content processing unit performs a process of gradually changing the color or a discontinuity with respect to the change from the first color to the second color and / or the change from the second color to the first color. The process to change to can be executed.
そして、出力画像205に接したユーザ3の脳波信号は、出力画像205に接したことにより再び変化する。例えば、図1(b)に示すように、時刻t2(ただし、t1<t2)における脳波信号の強度が、時刻t2において特異な変化を示し、時刻t0から時刻t2までの間において、脳波信号の強度が予め定められた強度Yを超える変化が生じたとする。この場合、特徴量算出部は、この脳波信号の強度をリアルタイムで算出し、コンテンツ処理部は、算出された脳波信号の強度に基づいて、出力画像205に所定の変更処理を施す。一例として、コンテンツ処理部は、時刻t2における脳波信号の強度が予め定められた強度Y以上であるので、オブジェクト500aの色を第1の色から第2の色に変え、オブジェクト500bを生成する。そして、画像出力部50は、オブジェクト500bを含む出力画像210をユーザ3に出力する(図1(c)の(c−3)を参照。)。コンテンツ提供システム1としてのヘッドマウントディスプレイ5は、上記のプロセスを繰り返す。Then, the brain wave signal of the user 3 in contact with the output image 205 changes again by contacting the output image 205. For example, as shown in FIG. 1 (b), the time t 2 (provided that, t 1 <t 2) the intensity of the EEG signal in is showed specific changes at time t 2, from time t 0 to time t 2 Assume that a change occurs in which the intensity of the electroencephalogram signal exceeds a predetermined intensity Y. In this case, the feature amount calculation unit calculates the intensity of the electroencephalogram signal in real time, and the content processing unit performs a predetermined change process on the output image 205 based on the calculated intensity of the electroencephalogram signal. As an example, the content processing unit, the strength of the EEG signal at time t 2 is a predetermined intensity Y above, changing the color of the object 500a from the first color to a second color, generating the object 500b . Then, the image output unit 50 outputs the output image 210 including the object 500b to the user 3 (see (c-3) in FIG. 1C). The head mounted display 5 as the content providing system 1 repeats the above process.
このように、本実施形態に係るコンテンツ提供システム1は、コンテンツ(以下、「第1のコンテンツ」という。)をユーザに呈示し、第1のコンテンツに接触することにより変化するユーザの生命活動又は生命状態を示す生体情報を検出する。コンテンツ提供システム1は、検出した生体情報に対応する生体信号の特徴量に基づいて、第1のコンテンツに所定の変更処理を施す。そして、コンテンツ提供システム1は、変更処理が施されたコンテンツ(以下、「第2のコンテンツ」という。)を第1のコンテンツに代えて出力する。コンテンツ提供システム1は、ユーザに提示するコンテンツを第1のコンテンツから第2のコンテンツに遷移させる場合に、第1のコンテンツから第2のコンテンツに連続的に変化させるか、又は段階的若しくは非連続的に変化させることができる。 As described above, the content providing system 1 according to the present embodiment presents content (hereinafter referred to as “first content”) to the user, and changes the user's life activity or the user's life activity by contacting the first content. Biological information indicating a life state is detected. The content providing system 1 performs a predetermined change process on the first content based on the feature amount of the biological signal corresponding to the detected biological information. Then, the content providing system 1 outputs the content subjected to the change process (hereinafter referred to as “second content”) instead of the first content. When the content providing system 1 changes the content to be presented to the user from the first content to the second content, the content providing system 1 continuously changes from the first content to the second content, or stepwise or discontinuous. Can be changed.
ここで、コンテンツに接したユーザの生命活動又は生命状態は、ユーザ自身が無意識のうちにコンテンツに接する前の生命活動又は生命状態から変化する(ユーザが覚醒状態であるか否かに関わらず、ユーザに対して出力されるコンテンツにより、ユーザの生命活動又は生命状態には、ユーザが無意識のうちに変化が生じると考えられる。)。つまり、第1のコンテンツに接したユーザの生命活動又は生命状態は、ユーザが無意識であっても、第1のコンテンツに接する前の生命活動又は生命状態から変化する。コンテンツ提供システム1は、変化したユーザの生体情報をリアルタイムで検出し、この生体情報に基づく生体信号の特徴量に基づいて、第1のコンテンツのコンテンツデータに所定の変更処理を施すことで第2のコンテンツのコンテンツデータを生成し、生成したコンテンツデータに基づく第2のコンテンツをユーザに対して出力する。そして、コンテンツ提供システム1は、このプロセスを繰り返す。コンテンツ提供システム1は、いわば、再帰的に上記プロセスを実行することで、ユーザに対して出力するコンテンツを変更し続ける。 Here, the life activity or life state of the user in contact with the content changes from the life activity or life state before the user himself / herself unintentionally contacts the content (regardless of whether the user is in an awake state or not) It is considered that the content that is output to the user causes the user's life activity or life state to change unconsciously. That is, the life activity or life state of the user in contact with the first content changes from the life activity or life state before contacting the first content even if the user is unconscious. The content providing system 1 detects the changed biological information of the user in real time, and performs a predetermined change process on the content data of the first content on the basis of the feature amount of the biological signal based on the biological information. Content data is generated, and the second content based on the generated content data is output to the user. Then, the content providing system 1 repeats this process. In other words, the content providing system 1 continues to change the content to be output to the user by recursively executing the above process.
このように、コンテンツ提供システム1は、コンテンツをユーザに提供することにより生じるユーザの生体情報の変化に応じ、ユーザの無意識下で、当該コンテンツにリアルタイムに変更処理を加え、変更処理後のコンテンツをユーザに再び呈示する。すなわち、コンテンツ提供システム1は、ユーザの生体情報を検出し、検出した生体情報に基づいてコンテンツに変更処理を施し、変更処理が施されたコンテンツに接することで変化したユーザの生体情報を再度検出して更に変更処理をコンテンツに施すプロセスを、ユーザがコンテンツに変更を加える意思の有無に関わらず繰り返す。これにより、本実施の形態に係るコンテンツ提供システム1によれば、ユーザの状態(精神状態等)を、鎮静化させる状態、興奮させる状態、リラックスさせる状態、現状に維持させる状態、瞑想状態、睡眠状態等の様々な状態に、ユーザに意識させずに自動的に遷移させることができる。いわば、コンテンツ提供システム1によれば、ユーザは受動的に自身の状態を変化させられていくことになる。 In this way, the content providing system 1 performs a change process on the content in real time and changes the content after the change process in response to a change in the biological information of the user caused by providing the content to the user. Present it to the user again. That is, the content providing system 1 detects the biometric information of the user, performs a change process on the content based on the detected biometric information, and again detects the biometric information of the user that has changed by touching the changed content. Then, the process of further applying the change process to the content is repeated regardless of whether or not the user intends to change the content. Thereby, according to the content provision system 1 which concerns on this Embodiment, a user's state (a mental state etc.) is a calming state, an excited state, a relaxing state, a state maintained at the present state, a meditation state, sleep It is possible to automatically transition to various states such as a state without the user being conscious. In other words, according to the content providing system 1, the user can passively change his / her state.
(コンテンツ提供システム1の詳細)
図2は、本発明の実施の形態に係るコンテンツ提供システムの機能構成の一例を示す。(Details of content providing system 1)
FIG. 2 shows an example of a functional configuration of the content providing system according to the embodiment of the present invention.
コンテンツ提供システム1は、ユーザ3の生体情報に対応する生体信号を生成する生体センサ10と、生体信号を取得する生体信号取得部12と、生体信号の特徴量を算出する特徴量算出部14と、コンテンツデータを格納するコンテンツ格納部16と、コンテンツデータの少なくとも一部に変更処理を施すコンテンツ処理部18と、変更処理が施されたコンテンツデータに基づいたコンテンツを出力するコンテンツ出力部20とを備える。なお、生体信号取得部12、特徴量算出部14、コンテンツ格納部16、及びコンテンツ処理部18のうち少なくとも1つの部材が、外部の情報処理装置やクラウド上に存在していてもよい。 The content providing system 1 includes a biological sensor 10 that generates a biological signal corresponding to the biological information of the user 3, a biological signal acquisition unit 12 that acquires the biological signal, and a feature amount calculation unit 14 that calculates a feature amount of the biological signal. A content storage unit 16 for storing content data, a content processing unit 18 for performing change processing on at least a part of the content data, and a content output unit 20 for outputting content based on the content data subjected to the change processing. Prepare. Note that at least one member of the biosignal acquisition unit 12, the feature amount calculation unit 14, the content storage unit 16, and the content processing unit 18 may exist on an external information processing apparatus or cloud.
(生体センサ10)
生体センサ10は、ユーザ3の生命活動又は生命状態を示す生体情報を検出し、生体情報に対応する生体信号を生成する。生体センサ10は、リアルタイムで変化するユーザ3の生体情報をリアルタイムで検出し、リアルタイムで生体信号を生成することもできる。ここで、生命活動又は生命状態を示す生体情報とは、ユーザ3の生命を維持するために営まれる身体活動や精神活動に付随して生じる状態に関する情報である。例えば、生体情報は、脳波情報、脈波情報、心拍情報、脈拍情報、発汗情報、体温情報、呼吸活動情報、血圧情報、血流速度情報、血流量情報、血中酸素濃度情報、筋電情報、眼電位情報、瞳孔の開き具合を示す情報、視線の動き情報、音声情報、匂い情報(ユーザ自身から発せられる匂いについての情報)、及びユーザ3の体の動き等を示す情報であるジェスチャー情報等からなる群から選択される少なくとも1つの情報である。そして、生体センサ10は、ユーザ3の脳波、脈波、心拍、脈拍、発汗、体温、呼吸活動、血圧、血流速度、血流量、血中酸素濃度、筋電、眼電位、瞳孔の開き具合、視線の動き、音声、匂い、及びジェスチャー等からなる群から選択される少なくとも1つの生命活動又は生命状態を生体情報として検出し、検出した生体情報に対応する生体信号を生成するセンサである。(Biosensor 10)
The biological sensor 10 detects biological information indicating the life activity or life state of the user 3 and generates a biological signal corresponding to the biological information. The biometric sensor 10 can also detect biometric information of the user 3 that changes in real time in real time and generate a biometric signal in real time. Here, the biological information indicating the life activity or the life state is information relating to a state generated in association with the physical activity or the mental activity carried out for maintaining the life of the user 3. For example, biological information includes brain wave information, pulse wave information, heart rate information, pulse information, sweating information, body temperature information, respiratory activity information, blood pressure information, blood flow velocity information, blood flow information, blood oxygen concentration information, myoelectric information , Electrooculogram information, information indicating the degree of pupil opening, eye movement information, voice information, scent information (information about the scent emitted from the user himself), and gesture information which is information indicating the body movement of the user 3 At least one piece of information selected from the group consisting of, and the like. Then, the biosensor 10 detects the brain wave, pulse wave, heart rate, pulse rate, sweating, body temperature, respiratory activity, blood pressure, blood flow rate, blood flow rate, blood oxygen concentration, myoelectricity, ocular potential, and pupil opening condition of the user 3. The sensor detects at least one life activity or life state selected from the group consisting of eye movement, voice, smell, gesture, and the like as biological information and generates a biological signal corresponding to the detected biological information.
生体センサ10の例としては、脳波センサ、脈波センサ、心拍センサ、発汗計、体温計、呼吸センサ、血圧計、血流センサ(血流計)、血中酸素濃度計(パルスオキシメーター)、筋電センサ、眼電位センサ、瞳孔センサ、視線センサ、音声検出センサ、匂いセンサ、及び撮像部と深度センサとマルチアレイマイクロフォンとを含むジェスチャーセンサ等からなる群から選択される少なくとも1つのセンサが挙げられる。なお、ジェスチャーセンサは、加速度センサ、及び/又はジャイロセンサを更に有していてもよい。生体センサ10は、生成した生体信号を生体信号取得部12に供給する。 Examples of the biosensor 10 include an electroencephalogram sensor, a pulse wave sensor, a heart rate sensor, a sweat meter, a thermometer, a respiratory sensor, a blood pressure meter, a blood flow sensor (blood flow meter), a blood oximeter (pulse oximeter), a muscle And at least one sensor selected from the group consisting of an electrical sensor, an electrooculogram sensor, a pupil sensor, a line-of-sight sensor, a voice detection sensor, an odor sensor, and a gesture sensor including an imaging unit, a depth sensor, and a multi-array microphone. . Note that the gesture sensor may further include an acceleration sensor and / or a gyro sensor. The biological sensor 10 supplies the generated biological signal to the biological signal acquisition unit 12.
(生体信号取得部12)
生体信号取得部12は、生体センサ10が生成した生体信号を取得する。生体信号取得部12は、連続的に生体信号を取得することができる。また、生体信号取得部12は、処理の負担軽減の観点から、予め定められたサンプリング間隔で生体信号を取得することもできる。生体信号取得部12は、生体信号のノイズを除去するノイズ除去処理、時間的に先の生体信号の値を推定する予測処理、時間周波数解析等を実行する直交変換処理、及び/又は予め定められた周波数成分を抽出若しくは除去するフィルタ処理等の信号処理を生体信号に施してもよい。生体信号取得部12は、取得した生体信号を特徴量算出部14に供給する。(Biological signal acquisition unit 12)
The biological signal acquisition unit 12 acquires the biological signal generated by the biological sensor 10. The biological signal acquisition unit 12 can continuously acquire biological signals. The biological signal acquisition unit 12 can also acquire a biological signal at a predetermined sampling interval from the viewpoint of reducing the processing burden. The biological signal acquisition unit 12 is a noise removal process that removes noise from the biological signal, a prediction process that estimates the value of the biological signal in terms of time, an orthogonal transformation process that performs temporal frequency analysis, and / or a predetermined value. The biological signal may be subjected to signal processing such as filter processing for extracting or removing the frequency component. The biological signal acquisition unit 12 supplies the acquired biological signal to the feature amount calculation unit 14.
(特徴量算出部14)
特徴量算出部14は、生体信号を解析し、生体信号の特徴量を算出する。特徴量算出部14は、特徴量をリアルタイムで算出することもできる。また、特徴量算出部14は、生体信号を解析することで、ユーザ3の身体状態や精神状態を推定することもできる。ここで、特徴量とは、生体信号を特徴づけるデータであって、例えば、生体信号の大きさ、生体信号の最大値、生体信号の最小値、生体信号の平均値(例えば、所定期間内で取得される生体信号の大きさや強度等の時間平均値等)、生体信号の分散値、生体信号の微分値、生体信号の経時変化に基づく量等である。(Feature amount calculation unit 14)
The feature quantity calculation unit 14 analyzes the biological signal and calculates the feature quantity of the biological signal. The feature amount calculation unit 14 can also calculate the feature amount in real time. Moreover, the feature-value calculation part 14 can also estimate the physical state and mental state of the user 3 by analyzing a biological signal. Here, the feature amount is data that characterizes the biological signal, and includes, for example, the magnitude of the biological signal, the maximum value of the biological signal, the minimum value of the biological signal, and the average value of the biological signal (for example, within a predetermined period). The time average value of the magnitude and intensity of the acquired biological signal, etc.), the variance value of the biological signal, the differential value of the biological signal, the amount based on the temporal change of the biological signal, and the like.
なお、生体信号の経時変化に基づく量とは、例えば、所定期間内における生体信号の検出回数(例えば、脈拍等)、所定期間内における生体信号の変化率の値、所定期間内における生体信号の変化の速度、所定期間内に取得される生体信号の信号強度が1/n(ただし、nは1以上の数値)になるまでに要する時間(例えば、半減期)、所定期間内に取得される生体信号の信号強度がn倍(ただし、nは1以上の数値)になるまでに要する時間、生体信号の信号強度、大きさ、平均値、若しくは分散値等が予め定められた値を超えるまで、予め定められた値になるまで、若しくは予め定められた値を下回るまでに要する時間、生体信号の信号強度、大きさ、平均値、若しくは分散値等が所定の範囲内に維持されている時間等である。 The amount based on the temporal change of the biological signal is, for example, the number of detections of the biological signal within a predetermined period (for example, pulse), the value of the rate of change of the biological signal within the predetermined period, and the biological signal within the predetermined period. The rate of change, the time required for the signal intensity of a biological signal acquired within a predetermined period to be 1 / n (where n is a numerical value of 1 or more) (for example, half-life), acquired within a predetermined period Until the time required for the signal strength of the biological signal to be n times (where n is a numerical value of 1 or more), the signal strength, magnitude, average value, or variance value of the biological signal exceeds a predetermined value. , The time required to reach a predetermined value or less than the predetermined value, the time during which the signal intensity, magnitude, average value, variance value, etc. of the biological signal is maintained within a predetermined range Etc.
例えば、生体信号が脳波信号である場合、特徴量算出部14は、デルタ波、シータ波、アルファ波、ベータ波、及びガンマ波のうち少なくともいずれか1つの脳波の信号強度をリアルタイムで算出し、脳波の信号強度を特徴量として算出する。また、例えば、生体信号が心拍信号である場合、特徴量算出部14は、単位時間当たりの心拍回数を特徴量として算出できる。特徴量算出部14は、算出した特徴量、及び/又はユーザ3の身体状態や精神状態の推定結果をコンテンツ処理部18に供給する。 For example, when the biological signal is an electroencephalogram signal, the feature amount calculation unit 14 calculates the signal intensity of at least one electroencephalogram of delta waves, theta waves, alpha waves, beta waves, and gamma waves in real time, The signal intensity of the electroencephalogram is calculated as a feature amount. For example, when the biological signal is a heartbeat signal, the feature amount calculation unit 14 can calculate the number of heartbeats per unit time as the feature amount. The feature amount calculation unit 14 supplies the calculated feature amount and / or the estimation result of the physical state and mental state of the user 3 to the content processing unit 18.
(コンテンツ格納部16)
コンテンツ格納部16は、コンテンツデータを格納する。コンテンツデータとしては、画像データ(静止画データ、及び/又は動画データ)、音声データ、触覚データ、嗅覚データ、及び/又は味覚データのうち少なくとも1つのデータが挙げられる。ここで、コンテンツデータに基づくコンテンツとしては、コンテンツデータによって規定されるコンテンツであって、ユーザ3に知覚可能なコンテンツ、及び/又はユーザ3の五感によっては実質的に知覚できないものの、物理的に存在するコンテンツが挙げられる。(Content storage unit 16)
The content storage unit 16 stores content data. The content data includes at least one data among image data (still image data and / or moving image data), audio data, tactile data, olfactory data, and / or taste data. Here, the content based on the content data is the content defined by the content data, and the content that can be perceived by the user 3 and / or cannot be substantially perceived by the five senses of the user 3, but physically exists. Content to be listed.
例えば、コンテンツとしては、視覚コンテンツ(例えば、静止画像、動画像、光(可視光、及び/又は赤外光や紫外光等の可視光を除く光を含む))、聴覚コンテンツ(例えば、人間の可聴域の音声、人間の可聴域外の音声)、触覚コンテンツ、嗅覚コンテンツ、味覚コンテンツ等が挙げられる。視覚コンテンツは、コンテンツ出力部20(例えば、モニター等)から画像や光を出力することでユーザ3に体験させることができ、聴覚コンテンツは、コンテンツ出力部20(例えば、スピーカー等)から音声を出力することでユーザ3に体験させることができる。 For example, the contents include visual contents (for example, still images, moving images, light (including visible light and / or light other than visible light such as infrared light and ultraviolet light)), auditory content (for example, human Examples include audible sound, sound outside human audible range), tactile content, olfactory content, and taste content. The visual content can be experienced by the user 3 by outputting an image or light from the content output unit 20 (for example, a monitor), and the audio content is output from the content output unit 20 (for example, a speaker). By doing so, the user 3 can be experienced.
また、触覚コンテンツは、例えば、ユーザ3の身体に対して圧力や振動、動き等を与えるコンテンツ出力部20としてのハプティクスを応用した触覚デバイスを用いることでユーザ3に触角を体験させることができる。また、嗅覚コンテンツは、例えば、匂いや芳香を発生するコンテンツ出力部20としての芳香発生装置を用いることでユーザ3に匂いや芳香を体験させることができる。更に、味覚コンテンツは、例えば、ユーザ3の味蕾に電気刺激等を与えることで所定の味を感じさせる装置を用いることでユーザ3に味覚を体験させることができる。 The tactile content can cause the user 3 to experience the tactile sensation by using, for example, a haptic device that applies haptics as the content output unit 20 that applies pressure, vibration, movement, etc. to the body of the user 3. In addition, the olfactory content can cause the user 3 to experience the odor and fragrance by using, for example, the fragrance generating device as the content output unit 20 that generates the odor and fragrance. Furthermore, the taste content can cause the user 3 to experience the taste by using, for example, a device that makes the user 3 feel the predetermined taste by applying electrical stimulation or the like to the miso of the user 3.
コンテンツは、ユーザ3が知覚可能な少なくとも1つの要素を有して構成されていてもよい。この場合、コンテンツはユーザ3に知覚可能になる。ここで、要素としては、色(色相、明度、及び/又は彩度を含む)、画像(画像に含まれるオブジェクトを含む)、音(人間の可聴範囲の音、及び可聴範囲外の音を含む)、匂い、振動、光(可視光、及び可視光を除く光を含む)、触覚、味等が挙げられる。例えば、視覚コンテンツとしての画像(静止画像又は動画像)は、画像に加え、画像に含まれるオブジェクト等、オブジェクトや背景の色、及び/又はオブジェクトや背景に照らされる光等の要素を有して構成される。また、コンテンツとしては、視覚コンテンツ、聴覚コンテンツ、触覚コンテンツ、嗅覚コンテンツ、及び味覚コンテンツ等からなる群から選択される少なくとも2つのコンテンツを組合わせることもできる。 The content may include at least one element that can be perceived by the user 3. In this case, the content can be perceived by the user 3. Here, the elements include color (including hue, brightness, and / or saturation), image (including objects included in the image), sound (sound within the human audible range, and sound outside the audible range). ), Odor, vibration, light (including visible light and light other than visible light), touch, and taste. For example, an image (still image or moving image) as visual content has elements such as an object and background color and / or light illuminated by the object and background in addition to the image. Composed. Further, as the content, at least two contents selected from the group consisting of visual content, auditory content, tactile content, olfactory content, and taste content can be combined.
なお、コンテンツ格納部16が格納する触覚データとしては、例えば、触覚デバイスを駆動させるプログラムデータであり、ユーザ3の身体に加えられる圧力、振動、動き等が規定されているプログラムデータが挙げられる。このプログラムデータに基づいて、触覚デバイスが駆動し、ユーザ3の身体に所定の圧力、振動、動き等が加えられる。また、コンテンツ格納部16が格納する嗅覚データとしては、芳香発生装置から放出される匂いを構成する化学物質を識別する識別データ、匂いを放出させるタイミング及び/又は匂いを放出させる継続時間を示すデータ等が挙げられる。更に、味覚データとしては、ユーザ3の味蕾に与えられる電気刺激の、電流値、電圧値、刺激を与える継続時間等を示すデータが挙げられる。 The tactile data stored in the content storage unit 16 is, for example, program data that drives a tactile device, and includes program data that defines the pressure, vibration, movement, and the like applied to the body of the user 3. Based on the program data, the tactile device is driven, and predetermined pressure, vibration, movement, and the like are applied to the body of the user 3. The olfactory data stored in the content storage unit 16 includes identification data for identifying a chemical substance constituting an odor released from the fragrance generating device, data indicating the timing for releasing the odor and / or the duration for releasing the odor. Etc. Furthermore, as taste data, the data which show the electric current value of the electrical stimulation given to the user's 3 miso, the voltage value, the duration which gives a stimulus, etc. are mentioned.
コンテンツ格納部16は、コンテンツ処理部18及び/又はコンテンツ出力部20からの働きかけに応じ、格納しているコンテンツデータをコンテンツ処理部18及び/又はコンテンツ出力部20に供給する。 The content storage unit 16 supplies the stored content data to the content processing unit 18 and / or the content output unit 20 in response to an action from the content processing unit 18 and / or the content output unit 20.
(コンテンツ処理部18)
コンテンツ処理部18は、特徴量算出部14が算出した特徴量に基づいて、コンテンツ格納部16が格納しているコンテンツデータの少なくとも一部に変更処理を施す。コンテンツ処理部18は、コンテンツを構成する少なくとも1つの要素の性質、及び/又は量が変更されるように、コンテンツデータに変更処理を施す。また、コンテンツ処理部18は、特徴量算出部14においてリアルタイムで算出される特徴量に基づいて、コンテンツデータの少なくとも一部に変更処理をリアルタイムで施すこともできる。コンテンツ処理部18は、コンテンツの種類に応じ、予め定められた基準に基づいた変更処理をコンテンツデータに施してもよい。予め定められた基準とは、一例として、特徴量が予め定められた値以上である基準、予め定められた値未満である基準、予め定められた値の範囲内である基準、及び予め定められた値の範囲外である基準等からなる群から選択される少なくとも1つの基準である。また、コンテンツ処理部18は、ユーザ3が自身の状態を客観視できるコンテンツを生成することを目的として、特徴量に基づいて、人間の様々な状態のそれぞれに予め対応付けられた変更処理をコンテンツデータに施してもよい。(Content processing unit 18)
The content processing unit 18 performs a change process on at least a part of the content data stored in the content storage unit 16 based on the feature amount calculated by the feature amount calculation unit 14. The content processing unit 18 performs a change process on the content data so that the property and / or amount of at least one element constituting the content is changed. In addition, the content processing unit 18 can also perform a change process in real time on at least a part of the content data based on the feature amount calculated in real time by the feature amount calculation unit 14. The content processing unit 18 may perform a change process on the content data based on a predetermined standard according to the type of content. Examples of the predetermined standard include a standard whose feature value is equal to or greater than a predetermined value, a standard that is less than a predetermined value, a standard that is within a predetermined value range, and a predetermined standard. Is at least one criterion selected from the group consisting of criteria that are outside the range of values. In addition, the content processing unit 18 performs a change process associated with each of various human states in advance based on the feature amount for the purpose of generating content in which the user 3 can objectively view his / her state. May be applied to data.
具体的に、コンテンツ処理部18は、コンテンツを構成する要素である、色、画像、音、匂い、振動、光、触覚、及び/又は味等が、強調されるか、現状に維持されるか、弱められるか、異なる性質及び/又は量に変更されるか、又は所定のタイミングでコンテンツ出力部20から出力されるように、コンテンツデータの少なくとも一部に変更処理を施す。 Specifically, the content processing unit 18 emphasizes or maintains the current components such as color, image, sound, smell, vibration, light, touch, and / or taste. The content data is subjected to change processing so as to be weakened, changed to a different property and / or amount, or output from the content output unit 20 at a predetermined timing.
例えば、特徴量が脳波信号の強度である場合、コンテンツ処理部18は、脳波信号の強度が予め定められた強度値以上を満たす基準、予め定められた強度値以下を満たす基準、予め定められた時間内における脳波信号の強度の平均値が予め定められた値以上若しくは以下である基準、予め定められた時間内における脳波信号の強度の変化率が予め定められた変化率以上若しくは以下である基準等、様々な基準に基づいて変更処理を実行する。 For example, when the feature amount is the intensity of the electroencephalogram signal, the content processing unit 18 determines the criterion that the intensity of the electroencephalogram signal satisfies a predetermined intensity value or more, the criterion that satisfies the predetermined intensity value or less, A standard in which the average value of the intensity of the electroencephalogram signal within the time is greater than or less than a predetermined value, and a standard in which the rate of change in the intensity of the electroencephalogram signal within the predetermined time is greater than or less than the predetermined rate The change process is executed based on various criteria.
一例として、コンテンツ処理部18は、特徴量としての脳波信号の強度に応じ、視覚コンテンツを構成する要素である色が変更されるように(つまり、要素が異なる性質になるように)、コンテンツデータに変更処理を施すことができる。すなわち、コンテンツ処理部18は、特徴量としての脳波信号の強度が予め定められた第1の強度値以上の場合、視覚コンテンツ(例えば、静止画像、又は静止画像に含まれるオブジェクト)の色を第1の色(例えば、赤)に変更する変更処理を実行し、脳波信号の強度が予め定められた第2の強度値以下の場合(ただし、第1の強度値>第2の強度値)、視覚コンテンツの色を第2の色(例えば、青)に変更する変更処理を実行できる。 As an example, the content processing unit 18 changes the content data so that the color, which is an element constituting the visual content, is changed according to the intensity of the electroencephalogram signal as the feature amount (that is, the elements have different properties). Can be modified. That is, the content processing unit 18 sets the color of visual content (for example, a still image or an object included in the still image) to the first color when the intensity of the electroencephalogram signal as the feature amount is equal to or higher than a predetermined first intensity value. When a change process for changing to one color (for example, red) is executed, and the intensity of the electroencephalogram signal is equal to or lower than a predetermined second intensity value (where the first intensity value> the second intensity value), A change process for changing the color of the visual content to the second color (for example, blue) can be executed.
また、コンテンツ処理部18は、特徴量が第1の強度値と第2の強度値との間の強度値を示す場合、第1の色と第2の色との間で補間された色を用いて視覚コンテンツに変更処理を施すことができる。つまり、コンテンツ処理部18は、特徴量が第1の強度値と第2の強度値との間の値である場合、第1の色と第2の色とを用いて線形補間した色を生成し、生成した色を用いて視覚コンテンツに変更処理を施す。なお、コンテンツ処理部18は、視覚コンテンツの色を第1の色から第2の色に変更する場合、第2の色から第1の色に変更する場合、第1の色若しくは第2の色から他の色に変更する場合、及び他の色から第1の色若しくは第2の色に変更する場合、変更前の色から変更後の色への遷移を補間色を用いて徐々に変更することや、補間色を用いずに変更前の色を変更後の色に非連続で変えることもできる。 In addition, when the feature amount indicates an intensity value between the first intensity value and the second intensity value, the content processing unit 18 selects a color interpolated between the first color and the second color. It can be used to change the visual content. In other words, the content processing unit 18 generates a color that is linearly interpolated using the first color and the second color when the feature amount is a value between the first intensity value and the second intensity value. Then, the visual content is changed using the generated color. The content processing unit 18 changes the first color or the second color when changing the color of the visual content from the first color to the second color, or when changing the color from the second color to the first color. When changing from one color to another, and when changing from another color to the first color or the second color, the transition from the color before the change to the color after the change is gradually changed using the interpolation color. In addition, the color before the change can be discontinuously changed to the color after the change without using the interpolation color.
また、コンテンツ処理部18は、特徴量がユーザ3の精神状態と相関がある場合、ユーザ3の精神状態を変化、若しくは現状維持させるコンテンツになるようにコンテンツデータに変更処理を施すこともできる。一例として、特徴量が脳波信号の強度である場合を説明する。まず、コンテンツ処理部18は、特徴量算出部14におけるユーザ3の身体状態や精神状態の推定結果に基づいて、ユーザ3の状態を特定する。例えば、コンテンツ処理部18は、ユーザ3が平常状態であるか、リラックス状態であるか、緊張状態であるか、覚醒状態であるか、睡眠状態であるか等を特定する。そして、コンテンツ処理部18は、各状態をより深くさせるか、各状態を現状に維持するか、各状態を抑制するか、若しくはランダムに遷移させるべき状態を決定し、コンテンツデータに変更処理を施すことができる。 In addition, when the feature amount correlates with the mental state of the user 3, the content processing unit 18 can perform a change process on the content data so that the content changes the mental state of the user 3 or maintains the current state. As an example, a case where the feature amount is the intensity of an electroencephalogram signal will be described. First, the content processing unit 18 specifies the state of the user 3 based on the estimation result of the physical state or mental state of the user 3 in the feature amount calculation unit 14. For example, the content processing unit 18 specifies whether the user 3 is in a normal state, in a relaxed state, in a tense state, in an awake state, in a sleep state, or the like. Then, the content processing unit 18 determines each state to be deeper, keeps each state as it is, suppresses each state, or randomly changes the state, and performs a change process on the content data. be able to.
例えば、コンテンツ処理部18は、ユーザ3の精神状態を特定した時点における特徴量が、変更処理を施したコンテンツデータに基づくコンテンツに接した後、大きくなるように、若しくは現状を維持するように、又は小さくなるように、コンテンツデータに変更処理を施してもよい。この場合において、特徴量の増減が人間の精神状態に対して与える影響が予め把握されていることが好ましい。そして、コンテンツの要素(例えば、色)が人間の精神状態に与える影響も予め把握されていることが好ましい。 For example, the content processing unit 18 is configured so that the feature amount at the time when the mental state of the user 3 is specified becomes large after touching the content based on the content data subjected to the change processing, or the current state is maintained. Alternatively, the change processing may be performed on the content data so as to be smaller. In this case, it is preferable that the influence of the increase / decrease of the feature amount on the human mental state is grasped in advance. It is preferable that the influence of the content element (for example, color) on the human mental state is grasped in advance.
すなわち、特徴量、例えば脳波信号としてアルファ波の強度と人間のリラックス状態とには相関関係が認められている。また、色と、当該色に接した人間の精神状態とにも一定の相関関係が認められている。したがって、コンテンツ処理部18は、ユーザ3の精神状態をよりリラックスさせる場合には、コンテンツの色をリラックス状態を向上させる色に変化させ、精神状態を現状に維持する場合には、コンテンツの色を実質的に精神状態に大きな影響を与えない色に変化させるか、現在の色を保持し、緊張状態にさせる場合には、コンテンツの色を緊張状態を向上させる色に変化させることを目的として、コンテンツデータに変更処理を施すことができる。コンテンツ処理部18は、変更処理を施したコンテンツデータをコンテンツ出力部20に供給する。 That is, a correlation is recognized between the intensity of an alpha wave as a feature quantity, for example, an electroencephalogram signal, and a human relaxed state. In addition, a certain correlation is recognized between the color and the mental state of the human being in contact with the color. Therefore, the content processing unit 18 changes the color of the content to a color that improves the relaxed state when the mental state of the user 3 is more relaxed, and changes the color of the content when the mental state is maintained as it is. When changing to a color that does not substantially affect the mental state, or to keep the current color and make it tense, the purpose is to change the color of the content to a color that improves the tense state, A change process can be applied to the content data. The content processing unit 18 supplies the content data subjected to the change process to the content output unit 20.
(コンテンツ出力部20)
コンテンツ出力部20は、コンテンツ処理部18において変更処理が施されたコンテンツデータに基づくコンテンツをユーザに出力する。コンテンツ出力部20は、例えば、画像(静止画、及び/又は動画)を出力する画像出力部、音声を出力する音声出力部、ユーザ3に触覚を体験させる触覚デバイス、匂いや芳香を放出する芳香発生装置、及び未蕾に電気刺激を与える装置等からなる群から選択される少なくとも1つの構成部材を有して構成される。コンテンツ出力部20は、コンテンツの少なくとも一部を拡張現実空間、若しくは仮想現実空間内に出力することもできる。例えば、コンテンツ提供システム1をヘッドマウントディスプレイ5の形態で構成する場合、ヘッドマウントディスプレイ5を用いて拡張現実空間、若しくは仮想現実空間内にコンテンツをユーザ3に知覚可能に出力することができる。コンテンツ出力部20が、拡張現実空間、若しくは仮想現実空間においてコンテンツをユーザ3に出力することで、ユーザ3の没入感を向上させる効果が期待される。(Content output unit 20)
The content output unit 20 outputs a content based on the content data subjected to the change process in the content processing unit 18 to the user. The content output unit 20 includes, for example, an image output unit that outputs an image (still image and / or moving image), an audio output unit that outputs sound, a tactile device that allows the user 3 to experience a tactile sensation, and a fragrance that emits scents and aroma It is configured to have at least one component selected from the group consisting of a generator and a device for applying electrical stimulation to the unsettled state. The content output unit 20 can also output at least part of the content in the augmented reality space or the virtual reality space. For example, when the content providing system 1 is configured in the form of the head mounted display 5, the content can be perceived by the user 3 in the augmented reality space or the virtual reality space using the head mounted display 5. The content output unit 20 outputs the content to the user 3 in the augmented reality space or the virtual reality space, so that an effect of improving the immersive feeling of the user 3 is expected.
本実施形態に係るコンテンツ提供システム1は、物理療法や心理療法等のセラピー(例えば、カラーセラピー)、リハビリテーション、ゲーム、スポーツトレーニング、報道、教育、旅行、アミューズメントパーク、ソーシャルネットワーキング、及び/又はユーザの思想又は感情の創造的表現等に応用することができる。また、コンテンツ提供システム1は、拡張現実空間若しくは仮想現実空間を提供するヘッドマウントディスプレイ5等だけではなく、より広い空間において用いられるアミューズメント装置や、携帯電話やスマートフォン等の情報端末、パーソナルコンピュータ等の情報処理端末等に応用することもできる。 The content providing system 1 according to the present embodiment includes a therapy (for example, color therapy) such as physical therapy and psychotherapy, rehabilitation, game, sports training, news report, education, travel, amusement park, social networking, and / or user's It can be applied to creative expression of thought or emotion. The content providing system 1 is not limited to the head mounted display 5 that provides an augmented reality space or a virtual reality space, but also an amusement device used in a wider space, an information terminal such as a mobile phone or a smartphone, a personal computer, and the like. It can also be applied to information processing terminals.
(コンテンツ提供システム1の処理の流れの概要)
図3は、本発明の実施の形態に係るコンテンツ提供システムにおける処理の流れの一例を示す。(Outline of the processing flow of the content providing system 1)
FIG. 3 shows an example of the flow of processing in the content providing system according to the embodiment of the present invention.
まず、生体センサ10は、ユーザ3の生体情報を検出する(ステップ10。以下、ステップを「S」と表す。)。生体センサ10は、検出した生体情報に対応する生体信号を生成する(S12)。生体センサ10は、生成した生体信号を生体信号取得部12に供給する。生体信号取得部12は、生体センサ10から生体信号を取得する(S14)。生体信号取得部12は、取得した生体信号を特徴量算出部14に供給する。 First, the biometric sensor 10 detects the biometric information of the user 3 (step 10; hereinafter, step is represented as “S”). The biological sensor 10 generates a biological signal corresponding to the detected biological information (S12). The biological sensor 10 supplies the generated biological signal to the biological signal acquisition unit 12. The biological signal acquisition unit 12 acquires a biological signal from the biological sensor 10 (S14). The biological signal acquisition unit 12 supplies the acquired biological signal to the feature amount calculation unit 14.
特徴量算出部14は、生体信号取得部12から受け取った生体信号を解析して、生体信号の特徴量を算出する(S16)。特徴量算出部14は、算出した特徴量をコンテンツ処理部18に供給する。コンテンツ処理部18は、特徴量算出部14から受け取った特徴量に基づいて、コンテンツデータの少なくとも一部に変更処理を施す(S18)。コンテンツ処理部18は、変更処理を施したコンテンツデータをコンテンツ出力部20に供給する。コンテンツ出力部20は、変更処理が施されたコンテンツデータに基づくコンテンツを出力する(S20)。 The feature amount calculation unit 14 analyzes the biological signal received from the biological signal acquisition unit 12 and calculates the feature amount of the biological signal (S16). The feature amount calculation unit 14 supplies the calculated feature amount to the content processing unit 18. The content processing unit 18 performs a change process on at least a part of the content data based on the feature amount received from the feature amount calculation unit 14 (S18). The content processing unit 18 supplies the content data subjected to the change process to the content output unit 20. The content output unit 20 outputs content based on the content data on which the change process has been performed (S20).
そして、生体センサ10は、ユーザ3の生体情報を検出し続けているので、変更処理が施されたコンテンツデータに基づくコンテンツに接したユーザ3の生体情報も継続して検出する(S10)。続いて、上記と同様にして、特徴量算出部14は、変更処理が施されたコンテンツデータに基づくコンテンツに接しているユーザ3の生体信号を解析して、この生体信号の特徴量を第2の特徴量として算出する(S16)。そして、上記と同様にして、コンテンツ処理部18は、第2の特徴量に基づいて、変更処理が施されたコンテンツデータの少なくとも一部に更に所定の変更処理を施す(S18)。コンテンツ出力部20は、更に変更処理が施されたコンテンツデータに基づくコンテンツを出力する(S20)。 Since the biometric sensor 10 continues to detect the biometric information of the user 3, the biometric information of the user 3 in contact with the content based on the content data subjected to the change process is also continuously detected (S10). Subsequently, in the same manner as described above, the feature amount calculation unit 14 analyzes the biometric signal of the user 3 in contact with the content based on the content data subjected to the change process, and determines the feature amount of the biometric signal as the second amount. (S16). In the same manner as described above, the content processing unit 18 further performs a predetermined change process on at least a part of the content data subjected to the change process based on the second feature amount (S18). The content output unit 20 outputs content based on the content data that has been further changed (S20).
このように、本実施形態に係るコンテンツ提供システム1は、ユーザ3の変化する生体情報に対応する生体信号の特徴量に基づいて、コンテンツデータに再帰的に変更処理を施すプロセスを繰り返し実行する。 As described above, the content providing system 1 according to the present embodiment repeatedly executes the process of recursively changing the content data based on the feature amount of the biological signal corresponding to the biological information that the user 3 changes.
図4は、本発明の実施の形態に係るコンテンツ提供システムのハードウェア構成の一例を示す。 FIG. 4 shows an example of a hardware configuration of the content providing system according to the embodiment of the present invention.
本実施の形態に係るコンテンツ提供システム1は、CPU1500と、グラフィックコントローラ1520と、RandomAccessMemory(RAM)、Read−OnlyMemory(ROM)及び/又はフラッシュROM等のメモリ1530と、データを記憶する記憶装置1540と、記録媒体からデータを読み込み及び/又は記録媒体にデータを書き込む読込み/書込み装置1545と、データを入力する入力装置1560と、外部の通信機器とデータを送受信する通信インターフェース1550と、CPU1500とグラフィックコントローラ1520とメモリ1530と記憶装置1540と読込み/書込み装置1545と入力装置1560と通信インターフェース1550とを互いに通信可能に接続するチップセット1510とを備える。なお、CPU1500等の構成要素は、1つ以上のCPU等であって、複数のCPU等を含んで構成することもできる。 The content providing system 1 according to the present embodiment includes a CPU 1500, a graphic controller 1520, a random access memory (RAM), a memory 1530 such as a read-only memory (ROM) and / or a flash ROM, and a storage device 1540 for storing data. A reading / writing device 1545 for reading data from and / or writing data to a recording medium, an input device 1560 for inputting data, a communication interface 1550 for transmitting / receiving data to / from an external communication device, a CPU 1500 and a graphic controller 1520, a memory 1530, a storage device 1540, a read / write device 1545, an input device 1560, and a communication interface 1550 are communicably connected to each other. And a 510. Note that the constituent elements such as the CPU 1500 are one or more CPUs, and may include a plurality of CPUs.
チップセット1510は、メモリ1530と、メモリ1530にアクセスして所定の処理を実行するCPU1500と、外部の表示装置の表示を制御するグラフィックコントローラ1520とを相互に接続することにより、各構成要素間のデータの受渡しを実行する。CPU1500は、メモリ1530に格納されたプログラムに基づいて動作して、各構成要素を制御する。グラフィックコントローラ1520は、メモリ1530内に設けられたバッファ上に一時的に蓄えられた画像データに基づいて、画像を所定の表示装置に表示させる。 The chip set 1510 includes a memory 1530, a CPU 1500 that accesses the memory 1530 and executes predetermined processing, and a graphic controller 1520 that controls display on an external display device. Perform data passing. The CPU 1500 operates based on a program stored in the memory 1530 and controls each component. The graphic controller 1520 displays an image on a predetermined display device based on the image data temporarily stored on the buffer provided in the memory 1530.
また、チップセット1510は、記憶装置1540と、読込み/書込み装置1545と、通信インターフェース1550とを接続する。記憶装置1540は、コンテンツ提供システム1のCPU1500が使用するプログラムとデータとを格納する。記憶装置1540は、例えば、フラッシュメモリである。読込み/書込み装置1545は、プログラム及び/又はデータを記憶している記憶媒体からプログラム及び/又はデータを読み取って、読み取ったプログラム及び/又はデータを記憶装置1540に格納する。読込み/書込み装置1545は、例えば、通信インターフェース1550を介し、インターネット上のサーバ等の情報処理装置から所定のプログラムを取得して、取得したプログラムを記憶装置1540に格納する。 The chip set 1510 connects a storage device 1540, a read / write device 1545, and a communication interface 1550. The storage device 1540 stores programs and data used by the CPU 1500 of the content providing system 1. The storage device 1540 is, for example, a flash memory. The read / write device 1545 reads the program and / or data from the storage medium storing the program and / or data, and stores the read program and / or data in the storage device 1540. For example, the read / write device 1545 acquires a predetermined program from an information processing device such as a server on the Internet via the communication interface 1550 and stores the acquired program in the storage device 1540.
通信インターフェース1550は、通信ネットワークを介して外部の装置とデータの送受信を実行する。また、通信インターフェース1550は、通信ネットワークが不通の場合、通信ネットワークを介さずに外部の装置とデータの送受信を実行することもできる。そして、タブレット、マイク等の入力装置1560は、所定のインターフェースを介してチップセット1510と接続する。 The communication interface 1550 executes data transmission / reception with an external device via a communication network. Further, when the communication network is disconnected, the communication interface 1550 can execute data transmission / reception with an external device without going through the communication network. An input device 1560 such as a tablet or a microphone is connected to the chipset 1510 via a predetermined interface.
記憶装置1540に格納されるコンテンツ提供システム1用のプログラムは、インターネット等の通信ネットワーク、又は磁気記録媒体、光学記録媒体等の記録媒体を介して記憶装置1540に提供される。そして、記憶装置1540に格納されたコンテンツ提供システム1用のプログラムは、CPU1500により実行される。なお、記録媒体を用いることで、コンピューターにコンテンツ提供システム1用のプログラムをインストールできる。プログラムを格納している記録媒体は、CD−ROMやDVD等の非一過性の記録媒体であってよい。すなわち、本実施形態に係るコンテンツ提供システム1用のプログラムは、非一過性の記録媒体に格納できる。 The program for the content providing system 1 stored in the storage device 1540 is provided to the storage device 1540 via a communication network such as the Internet or a recording medium such as a magnetic recording medium or an optical recording medium. Then, the program for the content providing system 1 stored in the storage device 1540 is executed by the CPU 1500. Note that the program for the content providing system 1 can be installed in the computer by using the recording medium. The recording medium storing the program may be a non-transitory recording medium such as a CD-ROM or DVD. That is, the program for the content providing system 1 according to the present embodiment can be stored in a non-transitory recording medium.
コンテンツ提供システム1により実行されるコンテンツ提供システム1用のプログラムは、CPU1500に働きかけて、コンテンツ提供システム1を、図1から図3にかけて説明した生体センサ10、生体信号取得部12、特徴量算出部14、コンテンツ格納部16、コンテンツ処理部18、及びコンテンツ出力部20として機能させる。 The program for the content providing system 1 executed by the content providing system 1 works on the CPU 1500 to describe the content providing system 1 with the biosensor 10, the biosignal acquisition unit 12, and the feature amount calculation unit described with reference to FIGS. 1 to 3. 14, function as a content storage unit 16, a content processing unit 18, and a content output unit 20.
(実施の形態の効果)
本実施の形態に係るコンテンツ提供システム1は、ユーザ3の生体信号を解析して得られる特徴量に基づいて、ユーザ3に提供されるコンテンツの内容を変更することができる。コンテンツ提供システム1は、実質的にユーザ3が無意識であっても、ユーザ3の状態を変更若しくは維持させるようなコンテンツを自動的に提供し続けることができる。そして、コンテンツ提供システム1は、変更されたコンテンツに接したユーザ3の生体信号を解析して得られる特徴量に基づいて、更にコンテンツの内容を変更してユーザ3に提供することができる。これにより、コンテンツ提供システム1は、継続的にユーザ3の生体信号を解析して得られる特徴量に基づいて、再帰的にコンテンツの内容を変更することができる。したがって、コンテンツ提供システム1によれば、ユーザ3の精神状態等の状態を、ユーザが無意識のうちに所定の状態に導くことが容易になる。(Effect of embodiment)
The content providing system 1 according to the present embodiment can change the content of the content provided to the user 3 based on the feature amount obtained by analyzing the biological signal of the user 3. The content providing system 1 can continue to automatically provide content that changes or maintains the state of the user 3 even when the user 3 is substantially unconscious. Then, the content providing system 1 can further change the content of the content and provide it to the user 3 based on the feature amount obtained by analyzing the biological signal of the user 3 in contact with the changed content. Thereby, the content provision system 1 can recursively change the content of the content based on the feature amount obtained by continuously analyzing the biological signal of the user 3. Therefore, according to the content providing system 1, it becomes easy for the user 3 to guide the state such as the mental state of the user 3 to a predetermined state unconsciously.
換言すれば、コンテンツ提供システム1は、ユーザ3がコンテンツ提供システム1の存在を意識せずに自然の状態に任せたまま、つまり、ユーザ3に自身の身体状態や精神状態が変化することを意識させずに、ユーザ3の身体状態や精神状態を変えることができる。すなわち、コンテンツ提供システム1は、ユーザ3にとって受動的に、ユーザ3の身体状態や精神状態を変えることができる。 In other words, the content providing system 1 keeps the user 3 in a natural state without being aware of the presence of the content providing system 1, that is, the user 3 is aware that his / her physical state and mental state change. Without doing so, the physical state and mental state of the user 3 can be changed. That is, the content providing system 1 can passively change the physical state and mental state of the user 3 for the user 3.
また、本実施形態に係るコンテンツ提供システム1によれば、ユーザ3がコンテンツ出力部20から出力されるコンテンツを知覚することにより、自身の身体状態や精神状態を客観視できる。例えば、コンテンツ出力部20から出力されるコンテンツが緊張状態に対応する内容である場合(一例として、コンテンツの要素が色である場合、コンテンツの少なくとも一部に緊張状態に対応する色としての赤色が施されている場合)、ユーザ3は出力されるコンテンツに接することで自身の状態を把握することができる。そして、自身の状態を把握したユーザ3の状態(身体状態や精神状態)には変化が生じる。コンテンツ提供システム1は、この変化に応じ、ユーザ3に出力するコンテンツに変更処理を加えることができるので(一例として、コンテンツの色を変化させる)、ユーザ3に自身の状態を望む状態(例えば、リラックス状態等の自身にとって好ましい状態、又はより緊張した状態)に変化させやすくすることができる。 Further, according to the content providing system 1 according to the present embodiment, the user 3 can perceive the content output from the content output unit 20 so that his / her physical condition and mental condition can be objectively viewed. For example, when the content output from the content output unit 20 is content corresponding to a tension state (for example, when the content element is a color, at least a part of the content has red as a color corresponding to the tension state) The user 3 can grasp his / her state by touching the output content. And a change arises in the state (physical state or mental state) of the user 3 who has grasped his / her state. In response to this change, the content providing system 1 can change the content to be output to the user 3 (for example, the color of the content is changed), so that the user 3 desires his / her state (for example, It is possible to easily change the state to a state preferable for itself such as a relaxed state, or a more tensioned state.
以上、本発明の実施の形態を説明したが、上記に記載した実施の形態は特許請求の範囲に係る発明を限定するものではない。また、実施の形態の中で説明した特徴の組合せのすべてが発明の課題を解決するための手段に必須であるとは限らない点に留意すべきである。更に、上記した実施形態の技術的要素は、単独で適用されてもよいし、プログラム部品とハードウェア部品とのような複数の部分に分割されて適用されるようにすることもできる。 While the embodiments of the present invention have been described above, the embodiments described above do not limit the invention according to the claims. In addition, it should be noted that not all combinations of features described in the embodiments are necessarily essential to the means for solving the problems of the invention. Furthermore, the technical elements of the above-described embodiments may be applied independently, or may be applied by being divided into a plurality of parts such as program parts and hardware parts.
1 コンテンツ提供システム
3 ユーザ
5 ヘッドマウントディスプレイ
10 生体センサ
12 生体信号取得部
14 特徴量算出部
16 コンテンツ格納部
18 コンテンツ処理部
20 コンテンツ出力部
50 画像出力部
52 音声出力部
54 脳波センサ
100 グラフ
200、205、210 出力画像
500、500a、500b オブジェクト
1500 CPU
1510 チップセット
1520 グラフィックコントローラ
1530 メモリ
1540 記憶装置
1545 読込み/書込み装置
1550 通信インターフェース
1560 入力装置DESCRIPTION OF SYMBOLS 1 Content provision system 3 User 5 Head mounted display 10 Biosensor 12 Biosignal acquisition part 14 Feature-value calculation part 16 Content storage part 18 Content processing part 20 Content output part 50 Image output part 52 Audio | voice output part 54 EEG sensor 100 Graph 200, 205, 210 Output image 500, 500a, 500b Object 1500 CPU
1510 chip set 1520 graphic controller 1530 memory 1540 storage device 1545 read / write device 1550 communication interface 1560 input device
Claims (7)
前記生体信号を解析し、前記生体信号の特徴量を算出する特徴量算出部と、
前記特徴量に基づいて、コンテンツデータの少なくとも一部に変更処理を施すコンテンツ処理部と、
前記変更処理が施された前記コンテンツデータに基づくコンテンツを前記ユーザに出力するコンテンツ出力部と
を備えるコンテンツ提供システム。A biological sensor that detects biological information indicating the life activity or life state of the user and generates a biological signal corresponding to the biological information;
A feature amount calculation unit that analyzes the biological signal and calculates a feature amount of the biological signal;
A content processing unit that performs a change process on at least a part of the content data based on the feature amount;
A content providing system comprising: a content output unit that outputs content based on the content data subjected to the change process to the user.
前記特徴量算出部が、前記変更処理が施された前記コンテンツデータに基づく前記コンテンツに接している前記ユーザの前記生体信号を解析して当該生体信号の特徴量を第2の特徴量として算出し、
前記コンテンツ処理部が、前記第2の特徴量に基づいて、前記変更処理が施された前記コンテンツデータの少なくとも一部に更に変更処理を施す請求項1又は2に記載のコンテンツ提供システム。The biometric sensor detects the biometric information of the user in contact with the content based on the content data subjected to the change process, and generates the biometric signal corresponding to the biometric information;
The feature amount calculation unit analyzes the biosignal of the user in contact with the content based on the content data subjected to the change process, and calculates a feature amount of the biosignal as a second feature amount. ,
The content providing system according to claim 1, wherein the content processing unit further performs a change process on at least a part of the content data on which the change process has been performed based on the second feature amount.
前記特徴量算出部が、前記生体信号の前記特徴量をリアルタイムで算出し、
前記コンテンツ処理部が、リアルタイムで算出される前記特徴量に基づいて、前記コンテンツデータの少なくとも一部に前記変更処理をリアルタイムで施す請求項1〜3のいずれか1項に記載のコンテンツ提供システム。The biological sensor detects the biological information that changes in real time and generates the biological signal in real time;
The feature amount calculation unit calculates the feature amount of the biological signal in real time,
The content providing system according to any one of claims 1 to 3, wherein the content processing unit performs the change processing on at least a part of the content data in real time based on the feature amount calculated in real time.
前記コンテンツ処理部が、前記少なくとも1つの要素の性質、及び/又は量が変更されるように前記コンテンツデータに前記変更処理を施す請求項1〜4のいずれか1項に記載のコンテンツ提供システム。The content comprises at least one element perceivable by the user;
5. The content providing system according to claim 1, wherein the content processing unit performs the change process on the content data so that a property and / or amount of the at least one element is changed.
前記特徴量に基づいて、コンテンツの少なくとも一部に変更処理を施すコンテンツ処理段階と、
前記変更処理が施された前記コンテンツを前記ユーザに出力するコンテンツ出力段階と
を備えるコンテンツ提供方法。A feature amount calculating step of detecting biological information indicating a life activity or life state of a user, analyzing the biological signal from a biological sensor that generates a biological signal corresponding to the biological information, and calculating a feature amount of the biological signal. When,
A content processing step of performing a change process on at least a part of the content based on the feature amount;
And a content output step of outputting the content subjected to the change process to the user.
コンピューターに、
ユーザの生命活動又は生命状態を示す生体情報を検出し、前記生体情報に対応する生体信号を生成する生体センサからの前記生体信号を解析し、前記生体信号の特徴量を算出する特徴量算出機能と、
前記特徴量に基づいて、コンテンツの少なくとも一部に変更処理を施すコンテンツ処理機能と、
前記変更処理が施された前記コンテンツを前記ユーザに出力するコンテンツ出力機能と
を実現させるコンテンツ提供システム用のプログラム。A program for a content providing system,
On the computer,
A feature amount calculation function for detecting biological information indicating a biological activity or life state of a user, analyzing the biological signal from a biological sensor that generates a biological signal corresponding to the biological information, and calculating a feature amount of the biological signal When,
A content processing function for performing a change process on at least a part of the content based on the feature amount;
A program for a content providing system that realizes a content output function for outputting the content subjected to the change process to the user.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016159759 | 2016-08-16 | ||
JP2016159759 | 2016-08-16 | ||
PCT/JP2017/026812 WO2018034113A1 (en) | 2016-08-16 | 2017-07-25 | Content providing system, content providing method and program for content providing system |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2018034113A1 true JPWO2018034113A1 (en) | 2018-08-16 |
Family
ID=61196605
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017552110A Pending JPWO2018034113A1 (en) | 2016-08-16 | 2017-07-25 | Content providing system, content providing method, and program for content providing system |
Country Status (2)
Country | Link |
---|---|
JP (1) | JPWO2018034113A1 (en) |
WO (1) | WO2018034113A1 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021157099A1 (en) * | 2020-02-07 | 2021-08-12 | 株式会社ライフクエスト | Content playback device, content playback method, and program |
KR102313663B1 (en) * | 2020-12-24 | 2021-10-19 | 안형철 | VR meditation system |
KR20220151408A (en) * | 2021-05-06 | 2022-11-15 | 안형철 | VR meditation system |
WO2023228342A1 (en) * | 2022-05-26 | 2023-11-30 | 株式会社ジオクリエイツ | Information processing system, information processing device, information processing method, and program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004222818A (en) * | 2003-01-21 | 2004-08-12 | Sony Corp | Apparatus and method for guiding physiological condition |
JP2008186075A (en) * | 2007-01-26 | 2008-08-14 | Advanced Telecommunication Research Institute International | Interactive image display device |
WO2016042908A1 (en) * | 2014-09-19 | 2016-03-24 | ソニー株式会社 | State control device, state control method, and state control system |
-
2017
- 2017-07-25 JP JP2017552110A patent/JPWO2018034113A1/en active Pending
- 2017-07-25 WO PCT/JP2017/026812 patent/WO2018034113A1/en active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004222818A (en) * | 2003-01-21 | 2004-08-12 | Sony Corp | Apparatus and method for guiding physiological condition |
JP2008186075A (en) * | 2007-01-26 | 2008-08-14 | Advanced Telecommunication Research Institute International | Interactive image display device |
WO2016042908A1 (en) * | 2014-09-19 | 2016-03-24 | ソニー株式会社 | State control device, state control method, and state control system |
Also Published As
Publication number | Publication date |
---|---|
WO2018034113A1 (en) | 2018-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11224717B2 (en) | Method and apparatus for virtual-reality-based mindfulness therapy | |
US10366778B2 (en) | Method and device for processing content based on bio-signals | |
US11751796B2 (en) | Systems and methods for neuro-feedback training using video games | |
EP2296535B1 (en) | Method and system of obtaining a desired state in a subject | |
JP2019519053A (en) | Method and system for acquiring, analyzing and generating visual function data and modifying media based on the data | |
WO2018034113A1 (en) | Content providing system, content providing method and program for content providing system | |
Kritikos et al. | Personalized virtual reality human-computer interaction for psychiatric and neurological illnesses: a dynamically adaptive virtual reality environment that changes according to real-time feedback from electrophysiological signal responses | |
JP7207468B2 (en) | Output control device, output control method and program | |
WO2017221525A1 (en) | Information processing device, information processing method, and computer program | |
US20240164672A1 (en) | Stress detection | |
JP2022059140A (en) | Information processing device and program | |
WO2018222589A1 (en) | System and method for treating disorders with a virtual reality system | |
US12076495B2 (en) | Visual disorder treatment | |
KR20150059195A (en) | Apparatus providing training scenario generated on the basis of participant reaction and method thereof | |
WO2023286343A1 (en) | Information processing device, information processing method, and program | |
CN108563322B (en) | Control method and device of VR/AR equipment | |
Cunningham et al. | Augmenting virtual spaces: Affective feedback in computer games | |
Sourina et al. | EEG-based serious games | |
CN115397331A (en) | Control device and control method | |
JP7069390B1 (en) | Mobile terminal | |
JP6963669B1 (en) | Solution providing system and mobile terminal | |
JP7061714B1 (en) | Solution provision system and mobile terminal | |
JP7069389B1 (en) | Solution provision system and mobile terminal | |
Feng | Stress reduction therapy in immersive Environments: Does rotation mode have an effect on mental stress? | |
JP2023152840A (en) | Information processing apparatus and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180328 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180614 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180808 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180831 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180926 |