JP2018097664A - Information processing system, information processing method and information processing program - Google Patents

Information processing system, information processing method and information processing program Download PDF

Info

Publication number
JP2018097664A
JP2018097664A JP2016242322A JP2016242322A JP2018097664A JP 2018097664 A JP2018097664 A JP 2018097664A JP 2016242322 A JP2016242322 A JP 2016242322A JP 2016242322 A JP2016242322 A JP 2016242322A JP 2018097664 A JP2018097664 A JP 2018097664A
Authority
JP
Japan
Prior art keywords
user
data
information processing
image data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016242322A
Other languages
Japanese (ja)
Other versions
JP6150935B1 (en
Inventor
満理子 浮世
Mariko Ukiyo
満理子 浮世
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Idear Human Support Service Co Ltd
Original Assignee
Idear Human Support Service Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Idear Human Support Service Co Ltd filed Critical Idear Human Support Service Co Ltd
Priority to JP2016242322A priority Critical patent/JP6150935B1/en
Application granted granted Critical
Publication of JP6150935B1 publication Critical patent/JP6150935B1/en
Publication of JP2018097664A publication Critical patent/JP2018097664A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To effectively convey an image and a sound suitable for a desired scene to a user by using a mechanism of virtual reality.SOLUTION: An information processing system according to an embodiment includes: an extraction unit that extracts image data for allowing a user to experience virtual reality and sound data independent of the image data from a database; and an output unit that outputs the image data extracted by the extraction unit to a display for displaying the image data to the user without substantially showing an actual landscape to the user and outputs the sound data extracted by the extraction unit to a loudspeaker.SELECTED DRAWING: Figure 3

Description

本発明の一側面は、ユーザにバーチャル・リアリティを体験させつつ所定の音声を聴かせるための情報処理システム、情報処理方法、および情報処理プログラムに関する。この情報処理システム、情報処理方法、および情報処理プログラムは、例えばメンタルトレーニングのために用いられる。   One aspect of the present invention relates to an information processing system, an information processing method, and an information processing program for allowing a user to listen to a predetermined sound while experiencing virtual reality. This information processing system, information processing method, and information processing program are used for mental training, for example.

ユーザにバーチャル・リアリティ(VR)を体験させながら音声によるアドバイスを該ユーザに伝える技術が従来から知られている。例えば下記特許文献1には、ゴルフ練習者自身の正面あるいは側面の姿を見ながら、実際にスイングをしてボールを打つことのできるゴルフ練習補助装置が記載されている。この装置は、実際に見る風景とビデオ映像とを同時に見ることができ、かつスイングにおける体の動きの流れを一定のリズムで行えるように音声を出力することができるヘッドマウントディスプレイを備える。   2. Description of the Related Art Conventionally, a technique for transmitting voice advice to a user while allowing the user to experience virtual reality (VR) is known. For example, Patent Literature 1 below describes a golf practice assisting device that can actually swing and hit a ball while looking at the front or side of the golf practitioner himself. This device includes a head-mounted display that can simultaneously view an actually viewed landscape and a video image, and that can output sound so that the flow of body movement in a swing can be performed with a constant rhythm.

特開平10−127850号公報JP-A-10-127850

特許文献1に記載の技術はゴルフの練習に特化したものであり汎用性に欠ける。そこで、バーチャル・リアリティの仕組みを利用して所望の場面に適した画像および音声をユーザに効果的に伝えることが望まれている。   The technique described in Patent Document 1 is specialized in golf practice and lacks versatility. Therefore, it is desired to effectively convey to the user images and sounds suitable for a desired scene using a virtual reality mechanism.

本発明の一側面に係る情報処理システムは、ユーザにバーチャル・リアリティを体験させるための画像データと、該画像データとは独立した音声データとをデータベースから抽出する抽出部と、抽出部により抽出された画像データを、ユーザに実風景を実質的に見せることなく該画像データを該ユーザに対して表示するディスプレイに出力すると共に、抽出部により抽出された音声データをスピーカに出力する出力部とを備える。   An information processing system according to an aspect of the present invention is extracted by an extraction unit that extracts image data for allowing a user to experience virtual reality and audio data independent of the image data, and an extraction unit. Outputting the image data to a display that displays the image data to the user without substantially showing the actual scenery to the user, and an output unit that outputs the audio data extracted by the extraction unit to a speaker. Prepare.

本発明の一側面に係る情報処理方法は、プロセッサを備える情報処理システムにより実行される情報処理方法であって、ユーザにバーチャル・リアリティを体験させるための画像データと、該画像データとは独立した音声データとをデータベースから抽出する抽出ステップと、抽出ステップにおいて抽出された画像データを、ユーザに実風景を実質的に見せることなく該画像データを該ユーザに対して表示するディスプレイに出力すると共に、抽出ステップにおいて抽出された音声データをスピーカに出力する出力ステップとを含む。   An information processing method according to an aspect of the present invention is an information processing method executed by an information processing system including a processor, and is independent of image data for allowing a user to experience virtual reality and the image data. Extracting the audio data from the database; and outputting the image data extracted in the extraction step to a display that displays the image data to the user without substantially showing the actual scenery to the user; An output step of outputting the audio data extracted in the extraction step to a speaker.

本発明の一側面に係る情報処理プログラムは、ユーザにバーチャル・リアリティを体験させるための画像データと、該画像データとは独立した音声データとをデータベースから抽出する抽出ステップと、抽出ステップにおいて抽出された画像データを、ユーザに実風景を実質的に見せることなく該画像データを該ユーザに対して表示するディスプレイに出力すると共に、抽出ステップにおいて抽出された音声データをスピーカに出力する出力ステップとをコンピュータ・システムに実行させる。   An information processing program according to an aspect of the present invention is extracted in an extraction step of extracting image data for allowing a user to experience virtual reality and audio data independent of the image data from the database, and the extraction step. Outputting the image data to a display that displays the image data to the user without substantially showing the actual scenery to the user, and outputting the audio data extracted in the extraction step to a speaker; Let the computer system run.

このような側面においては、バーチャル・リアリティを体験させるための画像データがディスプレイを介してユーザに提供され、ユーザは実風景を実質的に見ることなくその画像を見ることになる。さらに、画像とは独立した音声がそのユーザに対して提供される。所望の場面のために選択された画像および音声をこのようにユーザに向けて出力することで、該音声および音声をユーザに効果的に伝えることが可能になる。   In such an aspect, image data for experiencing virtual reality is provided to the user via the display, and the user views the image without substantially viewing the actual landscape. Furthermore, audio independent of the image is provided to the user. By outputting the image and sound selected for the desired scene to the user in this way, it is possible to effectively convey the sound and sound to the user.

本発明の一側面によれば、バーチャル・リアリティの仕組みを利用して所望の場面に適した画像および音声をユーザに効果的に伝えることができる。   According to an aspect of the present invention, an image and sound suitable for a desired scene can be effectively transmitted to a user using a virtual reality mechanism.

実施形態に係る情報処理システムの具体例を示す図である。It is a figure which shows the specific example of the information processing system which concerns on embodiment. 実施形態に係る端末のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the terminal which concerns on embodiment. 実施形態に係る情報処理システムの機能構成を示す図である。It is a figure which shows the function structure of the information processing system which concerns on embodiment. インタフェース画面の例を示す図である。It is a figure which shows the example of an interface screen. 実施形態に係る情報処理システムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the information processing system which concerns on embodiment. 実施形態に係る情報処理プログラムの構成を示す図である。It is a figure which shows the structure of the information processing program which concerns on embodiment.

以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。なお、図面の説明において同一または同等の要素には同一の符号を付し、重複する説明を省略する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same or equivalent elements are denoted by the same reference numerals, and redundant description is omitted.

図1〜図4を参照しながら、実施形態に係る情報処理システム1の機能および構成を説明する。情報処理システム1は、ユーザに所定の心理効果を及ぼすことを目的として所定の画像および音声を該ユーザに対して出力するコンピュータ・システムである。ユーザとは、情報処理システムから提供される画像および音声を知覚する人である。心理効果とは、人の心または行動に作用する効果または影響である。例えば、情報処理システム1はメンタルトレーニングを支援するコンピュータ・システムであってもよい。本明細書における「メンタルトレーニング」とは、ユーザの心または行動を該ユーザが望む状態にするかまたはそれに近づけることを目的とするトレーニングである。ユーザが情報処理システム1を用いることで得られる効果の例として、リラクゼーション効果、モチベーションの向上、集中力の向上、緊張の緩和、パフォーマンスの向上、ストレスの軽減などが挙げられる。当然ながら、情報処理システム1の利用目的はこれらに限定されるものではなく、情報処理システム1は任意の目的(例えばメンタルトレーニング以外の目的)のために用いられてよい。   The function and configuration of the information processing system 1 according to the embodiment will be described with reference to FIGS. The information processing system 1 is a computer system that outputs a predetermined image and sound to a user for the purpose of exerting a predetermined psychological effect on the user. A user is a person who perceives images and sounds provided from the information processing system. A psychological effect is an effect or influence that acts on a person's mind or behavior. For example, the information processing system 1 may be a computer system that supports mental training. “Mental training” in this specification is training aimed at bringing a user's mind or behavior into a state desired by the user or approaching it. Examples of effects obtained by the user using the information processing system 1 include relaxation effects, improved motivation, improved concentration, relaxation of tension, improved performance, reduced stress, and the like. Of course, the purpose of use of the information processing system 1 is not limited to these, and the information processing system 1 may be used for any purpose (for example, a purpose other than mental training).

画像とは、ディスプレイに映されることにより人が視認することができる像であり、静止画でも動画でもよい。画像はカメラにより撮影された静止画または動画であってもよいし、コンピュータ・グラフィックスにより作成された静止画または動画(アニメーション)であってもよい。あるいは、画像は撮影画像とコンピュータ・グラフィックスとの混合であってもよい。情報処理システム1が用いる画像は、ユーザにバーチャル・リアリティを体験させるために用いられる。ユーザは実質的に現実のように感じられる環境を情報処理システム1(より具体的にはディスプレイ)を介して見ることでバーチャル・リアリティを体験できる。ユーザにバーチャル・リアリティを体験させるための画像の例として、自然物および人工物の少なくとも一方を含む風景の画像が挙げられるが、画像で表される対象物は何ら限定されない。例えば画像は自然の風景、競技会場、またはコンサートホールを映すものであってもよい。効果的なバーチャル・リアリティを考慮して、画像は、ユーザの周囲を覆うような360°画像(360°静止画または360°映像)であってもよい。もちろん、画像は360°画像でなくてもよい。   An image is an image that can be viewed by a person by being displayed on a display, and may be a still image or a moving image. The image may be a still image or a moving image taken by a camera, or may be a still image or a moving image (animation) created by computer graphics. Alternatively, the image may be a mixture of captured images and computer graphics. The image used by the information processing system 1 is used for allowing the user to experience virtual reality. The user can experience virtual reality by viewing an environment that feels substantially like reality through the information processing system 1 (more specifically, a display). An example of an image for allowing a user to experience virtual reality is an image of a landscape including at least one of a natural object and an artificial object, but the object represented by the image is not limited at all. For example, the image may be a natural scene, a competition venue, or a concert hall. In view of effective virtual reality, the image may be a 360 ° image (360 ° still image or 360 ° video) that surrounds the user. Of course, the image need not be a 360 ° image.

音声とは、スピーカから出力されることにより人が聞き取ることができる音または声である。音声はユーザが意味を理解することができる話し言葉を少なくとも含んでもよく、例えば、メンタルトレーニング用のアドバイス(メンタルトレーニングのトレーナによるアドバイス)を含んでもよい。あるいは、音声は他の音または声(例えば音楽、自然音、人工音、ハミングなど)を含んでもよい。あるいは、音声は話し言葉とそれ以外の音または声との双方を含んでもよい。ユーザへの心理効果を考慮して、音声は周波数528hzまたは4096hzを含む音を含んでもよいし、1/f環境音を含んでもよい。   The sound is a sound or voice that can be heard by a person by being output from a speaker. The voice may include at least a spoken language with which the user can understand the meaning, and may include, for example, advice for mental training (advice by a mental training trainer). Alternatively, the voice may include other sounds or voices (eg, music, natural sounds, artificial sounds, humming, etc.). Alternatively, the voice may include both spoken language and other sounds or voices. In consideration of the psychological effect on the user, the sound may include a sound including a frequency of 528 hz or 4096 hz, or may include a 1 / f environmental sound.

情報処理システム1は端末10、ディスプレイ20、スピーカ30、および生体計測器40を備える。端末10はディスプレイ20、スピーカ30、および生体計測器40のそれぞれと無線ネットワークまたは有線ネットワークを介してデータ通信を行うことが可能である。例えば、端末10はBluetooth(登録商標)によりディスプレイ20、スピーカ30、および生体計測器40と接続してもよい。   The information processing system 1 includes a terminal 10, a display 20, a speaker 30, and a biological measuring instrument 40. The terminal 10 can perform data communication with each of the display 20, the speaker 30, and the biometric instrument 40 via a wireless network or a wired network. For example, the terminal 10 may be connected to the display 20, the speaker 30, and the biological measuring instrument 40 by Bluetooth (registered trademark).

端末10は、情報処理システム1の中心的な役割を担うコンピュータである。例えば、端末10は画像データおよび音声データをディスプレイ20およびスピーカ30にそれぞれ送信したり、ディスプレイ20および生体計測器40から視点データおよび生体データをそれぞれ受信したりする。ディスプレイ20は端末10から受信した画像データを処理してユーザに対して画像を表示する機器である。また、ディスプレイ20は視点データを端末10に送信する。視点データとは、ユーザが見ている画像の部分、すなわち、ユーザの注視点を示すデータである。スピーカ30は端末10から受信した音声データを処理してユーザに対して音声を出力する機器である。生体計測器40はユーザの生体データを検知してその生体データを端末10に送信する機器である。生体データとは、ユーザの身体的または生理的な状態を示すデータである。情報処理システム1が処理する生体データは何ら限定されないが、例えば生理データは心拍、脈拍、血圧、体温、脳波、発汗、眼球運動、呼吸などを示すデータであってもよい。生体計測器40は少なくとも一種類の生体データを検知する。   The terminal 10 is a computer that plays a central role in the information processing system 1. For example, the terminal 10 transmits image data and audio data to the display 20 and the speaker 30, respectively, and receives viewpoint data and biological data from the display 20 and the biological measuring instrument 40, respectively. The display 20 is a device that processes image data received from the terminal 10 and displays an image to the user. Further, the display 20 transmits viewpoint data to the terminal 10. The viewpoint data is data indicating the portion of the image that the user is viewing, that is, the user's gaze point. The speaker 30 is a device that processes audio data received from the terminal 10 and outputs audio to the user. The biometric instrument 40 is a device that detects user biometric data and transmits the biometric data to the terminal 10. Biometric data is data indicating the physical or physiological state of a user. The biological data processed by the information processing system 1 is not limited at all. For example, the physiological data may be data indicating heartbeat, pulse, blood pressure, body temperature, electroencephalogram, sweating, eye movement, respiration, and the like. The biometric instrument 40 detects at least one type of biometric data.

図1は情報処理システム1の具体例を示す。この例では、端末10はタブレット(タブレット型コンピュータ)であり、ディスプレイ20はヘッドマウントディスプレイであり、スピーカ30はヘッドホンであり、生体計測器40は腕時計型のウェアラブル端末(スマートウォッチ)である。もっとも、情報処理システム1を構成する各機器の具体的な種類は何ら限定されない。例えば、端末10はスマートフォンまたはパーソナル・コンピュータであってもよい。ディスプレイ20はプロジェクタ、テレビ受像機、またはスクリーンであってもよい。スピーカ30はイヤホン、据置型スピーカ、またはサラウンドシステムであってもよい。生体計測器40は脳波測定器、または眼球運動を計測可能な眼鏡型のウェアラブル端末であってもよい。   FIG. 1 shows a specific example of the information processing system 1. In this example, the terminal 10 is a tablet (tablet computer), the display 20 is a head-mounted display, the speaker 30 is a headphone, and the biometric device 40 is a wristwatch-type wearable terminal (smart watch). But the specific kind of each apparatus which comprises the information processing system 1 is not limited at all. For example, the terminal 10 may be a smartphone or a personal computer. The display 20 may be a projector, a television receiver, or a screen. The speaker 30 may be an earphone, a stationary speaker, or a surround system. The biometric instrument 40 may be an electroencephalograph or a glasses-type wearable terminal capable of measuring eye movement.

図2は、情報処理システム1の要となる端末10の一般的なハードウェア構成を示す。端末10はプロセッサ101、主記憶部102、補助記憶部103、通信制御部104、入力装置105、および出力装置106を備える。プロセッサ101は、オペレーティングシステムおよびアプリケーション・プログラムを実行する電子部品である。主記憶部102は、実行されるプログラムおよびデータを一時的に記憶する電子部品であり、例えばROMおよびRAMで構成される。補助記憶部103は、これから処理されるデータまたは処理されたデータを恒久的に記憶する電子部品であり、例えばハードディスクやフラッシュメモリなどの記憶装置で構成される。通信制御部104は、有線または無線を介して他の装置との間でデータを送受信する電子部品であり、例えばネットワークカードまたは無線通信モジュールで構成される。入力装置105はユーザからの入力を受け付ける装置であり、例えばタッチパネル、キーボード、またはマウスである。出力装置106は、プロセッサ101により指定または処理されたデータを人が認識可能な態様で出力する装置であり、例えばタッチパネルまたはモニタである。当然ながら、端末10を構成するハードウェア部品はコンピュータの種類により異なり得る。例えば、端末10がタブレットであればタッチパネルが入力装置105および出力装置106の役割を果たすが、端末10が据置型のパーソナル・コンピュータであれば、入力装置105はキーボードおよびマウスを含み、出力装置106はモニタである。   FIG. 2 shows a general hardware configuration of the terminal 10 that is the key of the information processing system 1. The terminal 10 includes a processor 101, a main storage unit 102, an auxiliary storage unit 103, a communication control unit 104, an input device 105, and an output device 106. The processor 101 is an electronic component that executes an operating system and application programs. The main storage unit 102 is an electronic component that temporarily stores programs to be executed and data, and includes, for example, a ROM and a RAM. The auxiliary storage unit 103 is an electronic component that permanently stores data to be processed or processed data, and includes a storage device such as a hard disk or a flash memory. The communication control unit 104 is an electronic component that transmits / receives data to / from another device via a wired or wireless connection, and includes, for example, a network card or a wireless communication module. The input device 105 is a device that accepts input from a user, and is, for example, a touch panel, a keyboard, or a mouse. The output device 106 is a device that outputs data designated or processed by the processor 101 in a manner that a person can recognize, and is, for example, a touch panel or a monitor. Of course, the hardware components constituting the terminal 10 may vary depending on the type of computer. For example, if the terminal 10 is a tablet, the touch panel functions as the input device 105 and the output device 106. If the terminal 10 is a stationary personal computer, the input device 105 includes a keyboard and a mouse, and the output device 106 Is a monitor.

図3は情報処理システム1の機能構成(特に端末10の機能構成)を示す。端末10は機能的構成要素として画像データベース11、音声データベース12、インタフェース表示部13、抽出部14、送信部15、受信部16、データ処理部17、およびカルテデータベース18を備える。これらの機能要素は、プロセッサ101または主記憶部102の上に所定のソフトウェア(後述する情報処理プログラムP1)を読み込ませてそのソフトウェアを実行させることで実現される。プロセッサ101はそのソフトウェアに従って通信制御部104、入力装置105、または出力装置106を動作させ、主記憶部102または補助記憶部103におけるデータの読み出し及び書き込みを行う。処理に必要なデータまたはデータベースは主記憶部102または補助記憶部103内に格納される。   FIG. 3 shows a functional configuration of the information processing system 1 (particularly, a functional configuration of the terminal 10). The terminal 10 includes an image database 11, an audio database 12, an interface display unit 13, an extraction unit 14, a transmission unit 15, a reception unit 16, a data processing unit 17, and a medical record database 18 as functional components. These functional elements are realized by reading predetermined software (an information processing program P1 described later) on the processor 101 or the main storage unit 102 and executing the software. The processor 101 operates the communication control unit 104, the input device 105, or the output device 106 in accordance with the software, and reads and writes data in the main storage unit 102 or the auxiliary storage unit 103. Data or a database necessary for processing is stored in the main storage unit 102 or the auxiliary storage unit 103.

画像データベース11は、一または複数の画像データを記憶する機能要素である。予め複数の画像データを画像データベース11に用意した場合には、画像についての複数の選択肢をユーザに提供できる。画像データとは、コンピュータでの処理が可能な、画像を示すデータである。したがって、画像は、メモリなどの記憶装置に記録され、プロセッサの処理によりディスプレイ20に出力されることで、視認可能となる。   The image database 11 is a functional element that stores one or a plurality of image data. When a plurality of image data are prepared in the image database 11 in advance, a plurality of options for images can be provided to the user. Image data is data indicating an image that can be processed by a computer. Accordingly, the image is recorded in a storage device such as a memory, and is output to the display 20 by the processing of the processor, so that the image can be viewed.

音声データベース12は、一または複数の音声データを記憶する機能要素である。予め複数の音声データを音声データベース12に用意した場合には、音声についての複数の選択肢をユーザに提供できる。音声データとは、コンピュータでの処理が可能な、音声を示すデータである。したがって、音声は、メモリなどの記憶装置に記録され、プロセッサの処理によりスピーカ30に出力されることで、聞き取り可能となる。音声データは画像データとは独立したデータである。したがって、一つの音声データと一つの画像データとが存在するとして、そのうちの一方のデータを処理(例えば再生、改変、または削除)したとしても、その処理は他方のデータに全く影響を及ぼさない。   The voice database 12 is a functional element that stores one or a plurality of voice data. When a plurality of sound data is prepared in the sound database 12 in advance, a plurality of options for sound can be provided to the user. The sound data is data indicating sound that can be processed by a computer. Therefore, the sound is recorded in a storage device such as a memory and is output to the speaker 30 by the processing of the processor, so that it can be heard. The audio data is data independent of the image data. Therefore, even if one piece of data is processed (for example, reproduced, modified, or deleted) assuming that there is one piece of audio data and one piece of image data, the process does not affect the other piece of data at all.

なお、本実施形態では画像データベース11と音声データベース12とを分けて説明するが、論理的に一つのデータベースが画像データおよび音声データの双方を記憶してもよい。   In the present embodiment, the image database 11 and the audio database 12 will be described separately. However, a single database may store both image data and audio data.

インタフェース表示部13は、情報処理システム1の操作に必要な情報およびユーザ・インタフェースを含むインタフェース画面を端末10上に表示させる機能要素である。インタフェースはユーザまたはユーザ以外の人(例えばトレーナ)により操作され、以下ではこれらの人を「操作者」という。インタフェース画面の構成は何ら限定されないが、本実施形態では、インタフェース表示部13は図4に示すようなインタフェース画面110を表示する。   The interface display unit 13 is a functional element that displays an interface screen including information necessary for operation of the information processing system 1 and a user interface on the terminal 10. The interface is operated by a user or a person other than the user (for example, a trainer), and these persons are hereinafter referred to as “operators”. Although the configuration of the interface screen is not limited at all, in the present embodiment, the interface display unit 13 displays an interface screen 110 as shown in FIG.

インタフェース表示部13は、ユーザの識別子(例えばユーザIDまたは名前)などの必要な情報が入力されて所定の確定ボタンがタップまたはクリックされたことに応じてインタフェース画面110を表示する。なお、端末10はインタフェース画面110が表示されるタイミングでディスプレイ20、スピーカ30、および生体計測器40との間で通信を確立してもよい。   The interface display unit 13 displays the interface screen 110 in response to input of necessary information such as a user identifier (for example, user ID or name) and tapping or clicking a predetermined confirmation button. Note that the terminal 10 may establish communication with the display 20, the speaker 30, and the biological measuring instrument 40 at the timing when the interface screen 110 is displayed.

本実施形態では、インタフェース画面110は、サムネイル領域111、再生画像領域112、グラフ113、メモ欄114、MEMOボタン115、およびZIPボタン116を含む。サムネイル領域111は選択可能な1以上の画像データおよび音声データを示す1以上のサムネイルを表示する領域である。再生画像領域112は、選択されてディスプレイ20に表示された画像と、その画像に対するユーザの注視点とを示す領域である。グラフ113は生体データの推移をリアルタイムで示す領域である。メモ欄114は、操作者により入力されたメモを表示する領域である。MEMOボタン115はメモを記入するためのキーボードを画面上に表示させるためのユーザ・インタフェースである。ZIPボタン116は生体データを含むカルテデータを保存するためのユーザ・インタフェースである。   In the present embodiment, the interface screen 110 includes a thumbnail area 111, a reproduction image area 112, a graph 113, a memo field 114, a MEMO button 115, and a ZIP button 116. The thumbnail area 111 is an area for displaying one or more thumbnails indicating one or more selectable image data and audio data. The reproduction image area 112 is an area indicating an image selected and displayed on the display 20 and a user's gazing point with respect to the image. A graph 113 is an area showing the transition of the biometric data in real time. The memo column 114 is an area for displaying a memo input by the operator. The MEMO button 115 is a user interface for displaying a keyboard for entering a memo on the screen. The ZIP button 116 is a user interface for saving medical chart data including biometric data.

インタフェース画面110の操作方法の例を説明する。操作者はサムネイルを指定することで一つの画像データおよび一つの音声データを選択する。選択された画像データはディスプレイ20に表示され、選択された音声データはスピーカ30から出力される。画像データが再生されるとその状況(ユーザが見ているものと同じ画像またはフレーム)が再生画像領域112に表示される。また、生体計測器40から送られてきた生体データがグラフ113としてリアルタイムに表示される。操作者は任意のタイミングでメモを入力することができる。インタフェース表示部13は所定のタイミング(例えば、特定の時間(20分など)が経過した時点、または画像の再生が終了した時点)でZIPボタン116を有効にする。操作者はZIPボタン116をタップまたはクリックすることで生体データを含むカルテデータを保存することができる。カルテデータはメモをさらに含んでもよい。   An example of an operation method of the interface screen 110 will be described. The operator selects one image data and one audio data by designating a thumbnail. The selected image data is displayed on the display 20, and the selected audio data is output from the speaker 30. When the image data is reproduced, the situation (the same image or frame as the user is viewing) is displayed in the reproduced image area 112. In addition, the biological data sent from the biological measuring instrument 40 is displayed as a graph 113 in real time. The operator can input a memo at an arbitrary timing. The interface display unit 13 enables the ZIP button 116 at a predetermined timing (for example, when a specific time (20 minutes or the like) has elapsed or when image reproduction has ended). The operator can save medical chart data including biometric data by tapping or clicking the ZIP button 116. The medical record data may further include a memo.

なお、インタフェース画面の構成は任意に決めてよい。インタフェース画面110はあくまでも一例であり、サムネイル領域111、再生画像領域112、グラフ113、メモ欄114、MEMOボタン115、およびZIPボタン116はいずれも必須の構成要素ではない。インタフェース画面はこれらの構成要素以外のユーザ・インタフェースを含んでもよい。   The configuration of the interface screen may be arbitrarily determined. The interface screen 110 is merely an example, and the thumbnail area 111, the reproduction image area 112, the graph 113, the memo column 114, the MEMO button 115, and the ZIP button 116 are not essential components. The interface screen may include a user interface other than these components.

抽出部14はインタフェース画面110を介して選択された画像データおよび音声データを画像データベース11および音声データベース12からそれぞれ抽出する機能要素である。抽出部14は抽出したこれらのデータを送信部15に出力する。   The extraction unit 14 is a functional element that extracts image data and audio data selected via the interface screen 110 from the image database 11 and the audio database 12, respectively. The extraction unit 14 outputs the extracted data to the transmission unit 15.

送信部15は、抽出された画像データをディスプレイ20に送信(出力)すると共に、抽出された音声データをスピーカ30に送信(出力)する機能要素である。すなわち、送信部15は出力部として機能する。   The transmission unit 15 is a functional element that transmits (outputs) the extracted image data to the display 20 and transmits (outputs) the extracted audio data to the speaker 30. That is, the transmission unit 15 functions as an output unit.

ディスプレイ20は画像データを受信し、ユーザに実風景を実質的に見せることなくその画像データを該ユーザに対して表示する。「実風景を実質的に見せることなく」というのは、ユーザが本来は自分の眼で見ることができる周囲の風景(現実の風景)よりもディスプレイにより表示される画像に意識が向くように画像データをユーザに見せることを意味する。ディスプレイ20がヘッドマウントディスプレイであれば、ユーザの視界はヘッドマウントディスプレイで完全に覆われるので、ユーザは実風景を見ることなく画像を見ることができる。このように画像を表示することで、ユーザにバーチャル・リアリティの世界のみを見せることができる。別の例として、プロジェクタとスクリーンまたはスクリーン機能とを有する密閉空間内にユーザを入れて、壁の全体、または壁および天井の全体、または床、壁、および天井の全体に画像を投影させてもよい。この場合も、「ユーザに実風景を実質的に見せることなく画像データを該ユーザに対して表示する」ことに該当する。   The display 20 receives the image data and displays the image data to the user without substantially showing the actual scenery to the user. “Without showing the actual scenery” means that the user is more aware of the image displayed on the display than the surrounding scenery (real scenery) that the user can see with his / her own eyes. This means showing the data to the user. If the display 20 is a head-mounted display, the user's field of view is completely covered by the head-mounted display, so that the user can view an image without looking at the actual scenery. By displaying images in this way, it is possible to show the user only the world of virtual reality. As another example, a user may be placed in an enclosed space having a projector and a screen or screen function to project an image on the entire wall, or the entire wall and ceiling, or the entire floor, wall, and ceiling. Good. This case also corresponds to “displaying image data to the user without substantially showing the actual scenery to the user”.

スピーカ30は音声データを受信してユーザに対して出力する。スピーカ30がヘッドホンであれば、ユーザは周囲の雑音を気にすることなく音声を聴くことができる。もっとも、情報処理システム1を利用するユーザが、スピーカ30からの音声以外の音または声が聞こえる状況にあってもよい。   The speaker 30 receives audio data and outputs it to the user. If the speaker 30 is a headphone, the user can listen to the voice without worrying about ambient noise. However, the user who uses the information processing system 1 may be in a situation where sound or voice other than the sound from the speaker 30 can be heard.

受信部16は、ディスプレイ20から視点データを受信すると共に、生体計測器40から生体データを受信する機能要素である。すなわち、受信部16は取得部として機能する。受信部16はその視点データおよび生体データをデータ処理部17に出力する。視点データおよび生体データの取得および伝送は所定の間隔をおいて繰り返し実行され、受信部16はその度にこれらのデータを受信してデータ処理部17に出力する。これは、端末10が視点データおよび生体データをリアルタイムに取得することを意味する。   The receiving unit 16 is a functional element that receives viewpoint data from the display 20 and receives biological data from the biological measuring instrument 40. That is, the receiving unit 16 functions as an acquiring unit. The receiving unit 16 outputs the viewpoint data and biometric data to the data processing unit 17. Acquisition and transmission of viewpoint data and biometric data are repeatedly executed at predetermined intervals, and the receiving unit 16 receives these data and outputs them to the data processing unit 17 each time. This means that the terminal 10 acquires viewpoint data and biological data in real time.

データ処理部17は視点データおよび生体データを処理する機能要素である。本実施形態では、データ処理部17はこれらのデータに基づいてインタフェース画面110を更新する処理と、生体データを含むカルテデータをカルテデータベース18に格納する処理とを実行する。したがって、データ処理部17は格納部としても機能する。   The data processing unit 17 is a functional element that processes viewpoint data and biometric data. In the present embodiment, the data processing unit 17 executes a process of updating the interface screen 110 based on these data and a process of storing medical chart data including biometric data in the medical chart database 18. Therefore, the data processing unit 17 also functions as a storage unit.

データ処理部17は視点データに基づいて再生画像領域112中に注視点を表示する。ディスプレイ20に表示されている画像が360°画像である場合には、データ処理部17はその注視点を含む部分が再生画像領域112中に映るように画像のアングルを変更する。加えて、データ処理部17は生体データに基づいてグラフ113を描画する。データ処理部17は視点データおよび生体データが受信部16から入力される度に注視点の表示およびグラフを更新する。したがって、インタフェース画面110にはユーザの視点および生体データがリアルタイムに表示される。   The data processing unit 17 displays the gazing point in the reproduced image area 112 based on the viewpoint data. When the image displayed on the display 20 is a 360 ° image, the data processing unit 17 changes the angle of the image so that the portion including the gazing point is reflected in the reproduced image area 112. In addition, the data processing unit 17 draws the graph 113 based on the biometric data. The data processing unit 17 updates the display of the gazing point and the graph every time the viewpoint data and the biological data are input from the receiving unit 16. Therefore, the user's viewpoint and biometric data are displayed on the interface screen 110 in real time.

ZIPボタン116が押された場合には、データ処理部17は入力された生体データの集合(生体計測器40による測定の開始から終了までに得られた一連の生体データ)とユーザ識別子とを含むカルテデータを生成し、そのカルテデータをカルテデータベース18に格納する。インタフェース画面110を介してメモが入力された場合には、データ処理部17はそのメモをさらに含むカルテデータを生成および格納してもよい。データ処理部17は再生された画像および音声を特定する情報(例えば画像データおよび音声データのファイル名)を更に含むカルテデータを生成および格納してもよい。   When the ZIP button 116 is pressed, the data processing unit 17 includes a set of input biological data (a series of biological data obtained from the start to the end of measurement by the biological measuring instrument 40) and a user identifier. Medical chart data is generated, and the medical chart data is stored in the medical chart database 18. When a memo is input via the interface screen 110, the data processing unit 17 may generate and store medical chart data further including the memo. The data processing unit 17 may generate and store medical chart data further including information for specifying the reproduced image and sound (for example, file names of image data and sound data).

カルテデータベース18は、カルテデータを記憶する機能要素である。カルテデータの利用方法は何ら限定されない。例えば、端末10はカルテデータを画面上に再表示してもよいし、カルテデータの共有のためにファイルサーバなどの他のコンピュータに送信してもよいし、電子メールで特定のメールアドレス宛に送信してもよい。   The medical chart database 18 is a functional element that stores medical chart data. There is no limitation on how to use the chart data. For example, the terminal 10 may redisplay the medical chart data on the screen, may send the medical chart data to another computer such as a file server for sharing the medical chart data, or send it to a specific mail address by e-mail. You may send it.

なお、論理的に一つのデータベースがカルテデータ、画像データ、および音声データを記憶してもよい。   Note that logically one database may store medical chart data, image data, and audio data.

次に、図5を参照しながら、情報処理システム1の動作(特に端末10の動作)を説明すると共に本実施形態に係る情報処理方法について説明する。   Next, the operation of the information processing system 1 (particularly the operation of the terminal 10) will be described with reference to FIG. 5, and the information processing method according to the present embodiment will be described.

まず、インタフェース表示部13がインタフェース画面110を表示する(ステップS11)。ユーザがそのインタフェース画面110を操作して一つの画像データおよび一つの音声データを選択すると、抽出部14がその画像データおよび音声データを画像データベース11および音声データベース12からそれぞれ抽出する(ステップS12、抽出ステップ)。そして、送信部15がその画像データをディスプレイ20に送信すると共に、その音声データをスピーカ30に送信する(ステップS13、出力ステップ)。この結果、ディスプレイ20が画像を表示し、スピーカ30が音声を出力し、ユーザはこれらの画像および音声を知覚する。   First, the interface display unit 13 displays the interface screen 110 (step S11). When the user operates the interface screen 110 to select one image data and one sound data, the extraction unit 14 extracts the image data and the sound data from the image database 11 and the sound database 12, respectively (step S12, extraction). Step). Then, the transmission unit 15 transmits the image data to the display 20 and transmits the audio data to the speaker 30 (step S13, output step). As a result, the display 20 displays images, the speaker 30 outputs sound, and the user perceives these images and sounds.

画像データおよび音声データの送信を契機として、ディスプレイ20が視点データを送信し始め、生体計測器40が生体データを送信し始め、端末10の受信部16がその視点データおよび生体データの受信を開始する(ステップS14)。そして、データ処理部17がその視点データおよび生体データをインタフェース画面110上に表示する(ステップS15)。このステップS15は、受信部16がディスプレイ20および生体計測器40からそれぞれ視点データおよび生体データを受信し続けている間繰り返し実行される。その後、ユーザ操作(例えばZIPボタン116に対するタップまたはクリック)に応じて、データ処理部17が生体データを含むカルテデータをカルテデータベース18に格納する(ステップS16)。   With the transmission of image data and audio data as an opportunity, the display 20 starts transmitting viewpoint data, the biometric instrument 40 starts transmitting biometric data, and the receiving unit 16 of the terminal 10 starts receiving the viewpoint data and biometric data. (Step S14). Then, the data processing unit 17 displays the viewpoint data and biometric data on the interface screen 110 (step S15). This step S15 is repeatedly executed while the receiving unit 16 continues to receive the viewpoint data and the biological data from the display 20 and the biological measuring instrument 40, respectively. Thereafter, in response to a user operation (for example, tap or click on the ZIP button 116), the data processing unit 17 stores the medical record data including the biometric data in the medical record database 18 (step S16).

次に、図6を参照しながら、情報処理システム1(端末10)を実現するための情報処理プログラムP1を説明する。   Next, an information processing program P1 for realizing the information processing system 1 (terminal 10) will be described with reference to FIG.

情報処理プログラムP1は、メインモジュールP10、画像記憶モジュールP11、音声記憶モジュールP12、インタフェース表示モジュールP13、抽出モジュールP14、送信モジュールP15、受信モジュールP16、データ処理モジュールP17、およびカルテ記憶モジュールP18を備える。メインモジュールP10は、端末10での処理を統括的に制御する部分である。画像記憶モジュールP11、音声記憶モジュールP12、インタフェース表示モジュールP13、抽出モジュールP14、送信モジュールP15、受信モジュールP16、データ処理モジュールP17、およびカルテ記憶モジュールP18を実行することにより実現される機能はそれぞれ、上記の画像データベース11、音声データベース12、インタフェース表示部13、抽出部14、送信部15、受信部16、データ処理部17、およびカルテデータベース18の機能と同様である。   The information processing program P1 includes a main module P10, an image storage module P11, an audio storage module P12, an interface display module P13, an extraction module P14, a transmission module P15, a reception module P16, a data processing module P17, and a medical record storage module P18. The main module P10 is a part that comprehensively controls processing in the terminal 10. The functions realized by executing the image storage module P11, the sound storage module P12, the interface display module P13, the extraction module P14, the transmission module P15, the reception module P16, the data processing module P17, and the medical record storage module P18 are respectively described above. The functions of the image database 11, the audio database 12, the interface display unit 13, the extraction unit 14, the transmission unit 15, the reception unit 16, the data processing unit 17, and the medical record database 18 are the same.

情報処理プログラムP1は、CD−ROMやDVD−ROM、半導体メモリなどの有形の記録媒体に固定的に記録された上で提供されてもよい。あるいは、情報処理プログラムP1は、搬送波に重畳されたデータ信号として通信ネットワークを介して提供されてもよい。   The information processing program P1 may be provided after being fixedly recorded on a tangible recording medium such as a CD-ROM, DVD-ROM, or semiconductor memory. Alternatively, the information processing program P1 may be provided via a communication network as a data signal superimposed on a carrier wave.

以上説明したように、本発明の一側面に係る情報処理システムは、ユーザにバーチャル・リアリティを体験させるための画像データと、該画像データとは独立した音声データとをデータベースから抽出する抽出部と、抽出部により抽出された画像データを、ユーザに実風景を実質的に見せることなく該画像データを該ユーザに対して表示するディスプレイに出力すると共に、抽出部により抽出された音声データをスピーカに出力する出力部とを備える。   As described above, an information processing system according to one aspect of the present invention includes an extraction unit that extracts, from a database, image data for allowing a user to experience virtual reality and audio data independent of the image data. The image data extracted by the extraction unit is output to a display that displays the image data to the user without substantially showing the actual scenery to the user, and the audio data extracted by the extraction unit is output to the speaker. An output unit for outputting.

本発明の一側面に係る情報処理方法は、プロセッサを備える情報処理システムにより実行される情報処理方法であって、ユーザにバーチャル・リアリティを体験させるための画像データと、該画像データとは独立した音声データとをデータベースから抽出する抽出ステップと、抽出ステップにおいて抽出された画像データを、ユーザに実風景を実質的に見せることなく該画像データを該ユーザに対して表示するディスプレイに出力すると共に、抽出ステップにおいて抽出された音声データをスピーカに出力する出力ステップとを含む。   An information processing method according to an aspect of the present invention is an information processing method executed by an information processing system including a processor, and is independent of image data for allowing a user to experience virtual reality and the image data. Extracting the audio data from the database; and outputting the image data extracted in the extraction step to a display that displays the image data to the user without substantially showing the actual scenery to the user; An output step of outputting the audio data extracted in the extraction step to a speaker.

本発明の一側面に係る情報処理プログラムは、ユーザにバーチャル・リアリティを体験させるための画像データと、該画像データとは独立した音声データとをデータベースから抽出する抽出ステップと、抽出ステップにおいて抽出された画像データを、ユーザに実風景を実質的に見せることなく該画像データを該ユーザに対して表示するディスプレイに出力すると共に、抽出ステップにおいて抽出された音声データをスピーカに出力する出力ステップとをコンピュータ・システムに実行させる。   An information processing program according to an aspect of the present invention is extracted in an extraction step of extracting image data for allowing a user to experience virtual reality and audio data independent of the image data from the database, and the extraction step. Outputting the image data to a display that displays the image data to the user without substantially showing the actual scenery to the user, and outputting the audio data extracted in the extraction step to a speaker; Let the computer system run.

このような側面においては、バーチャル・リアリティを体験させるための画像データがディスプレイを介してユーザに提供され、ユーザは実風景を実質的に見ることなくその画像を見ることになる。さらに、画像とは独立した音声がそのユーザに対して提供される。所望の場面のために選択された画像および音声をこのようにユーザに向けて出力することで、該音声および音声をユーザに効果的に伝えることが可能になる。   In such an aspect, image data for experiencing virtual reality is provided to the user via the display, and the user views the image without substantially viewing the actual landscape. Furthermore, audio independent of the image is provided to the user. By outputting the image and sound selected for the desired scene to the user in this way, it is possible to effectively convey the sound and sound to the user.

他の側面に係る情報処理システムでは、ユーザの生体データを生体計測器から取得する取得部と、取得部により取得された生体データを所定のデータベースに格納する格納部とをさらに備えてもよい。この仕組みにより、画像または音声がユーザに及ぼした影響または効果を客観的に把握することができる。   The information processing system according to another aspect may further include an acquisition unit that acquires the biological data of the user from the biological measuring instrument, and a storage unit that stores the biological data acquired by the acquisition unit in a predetermined database. This mechanism makes it possible to objectively grasp the influence or effect that the image or sound has on the user.

他の側面に係る情報処理システムでは、音声データがメンタルトレーニング用のアドバイスを示してもよい。この音声データを用いることで、ユーザの心または行動を該ユーザが望む状態にするかまたは近づけることが可能になる。   In an information processing system according to another aspect, voice data may indicate advice for mental training. By using this voice data, it becomes possible to bring the user's mind or behavior into or close to the state desired by the user.

他の側面に係る情報処理システムでは、ディスプレイがヘッドマウントディスプレイであってもよい。ヘッドマウントディスプレイを用いることで、より確実にユーザに実風景を見せないようにすることができるので、より完全なバーチャル・リアリティをユーザに提供することができる。   In the information processing system according to another aspect, the display may be a head mounted display. By using a head-mounted display, it is possible to prevent a user from seeing a real scene more reliably, so that a more complete virtual reality can be provided to the user.

以上、本発明をその実施形態に基づいて詳細に説明した。しかし、本発明は上記実施形態に限定されるものではない。本発明は、その要旨を逸脱しない範囲で様々な変形が可能である。   The present invention has been described in detail based on the embodiments. However, the present invention is not limited to the above embodiment. The present invention can be variously modified without departing from the gist thereof.

情報処理システムの構成は上記実施形態に限定されない。例えば、複数のコンピュータによる分散システム(クライアントサーバシステム)が端末10の機能を実行してもよい。例えば、画像データベース11、音声データベース12、およびカルテデータベース18のうちの少なくとも一部が端末10とは異なるコンピュータに実装され、端末10が通信ネットワークを介してこれらのデータベースにアクセスしてもよい。あるいは、1台のコンピュータまたは機器が端末10、ディスプレイ20、スピーカ30、および生体計測器40の機能を実行してもよい。あるいは、一つの機器がディスプレイ20およびスピーカ30の機能、またはディスプレイ20、スピーカ30、および生体計測器40の機能を実行してもよい。   The configuration of the information processing system is not limited to the above embodiment. For example, a distributed system (client server system) including a plurality of computers may execute the function of the terminal 10. For example, at least a part of the image database 11, the audio database 12, and the medical record database 18 may be mounted on a computer different from the terminal 10, and the terminal 10 may access these databases via a communication network. Alternatively, one computer or device may execute the functions of the terminal 10, the display 20, the speaker 30, and the biometric instrument 40. Alternatively, one device may execute the functions of the display 20 and the speaker 30, or the functions of the display 20, the speaker 30, and the biometric instrument 40.

情報処理システムは生体計測器またはこれに相当する機能を備えなくてもよい。また、情報処理システムは視点データを取得しなくてもよい。したがって、情報処理システムは上記実施形態における受信部16、データ処理部17、およびカルテデータベース18を備えなくてもよい。   The information processing system may not include a biological measuring instrument or a function corresponding to this. Further, the information processing system may not acquire viewpoint data. Therefore, the information processing system may not include the receiving unit 16, the data processing unit 17, and the medical record database 18 in the above embodiment.

画像データが音声も含み、情報処理システムが音声データと画像データの音声との双方をスピーカから出力してもよい。この場合にはユーザはこれら2種類の音声を聞くことができる。   The image data may include sound, and the information processing system may output both the sound data and the sound of the image data from a speaker. In this case, the user can hear these two kinds of sounds.

少なくとも一つのプロセッサにより実行される情報処理システムの操作方法の処理手順は上記実施形態での例に限定されない。例えば、情報処理システム(端末)は上述したステップ(処理)の一部を省略してもよいし、別の順序で各ステップを実行してもよい。また、上述したステップのうちの任意の2以上のステップが組み合わされてもよいし、ステップの一部が修正又は削除されてもよい。あるいは、情報処理システム(端末)は上記の各ステップに加えて他のステップを実行してもよい。   The processing procedure of the operation method of the information processing system executed by at least one processor is not limited to the example in the above embodiment. For example, the information processing system (terminal) may omit some of the steps (processing) described above, or may execute the steps in a different order. Also, any two or more of the steps described above may be combined, or a part of the steps may be corrected or deleted. Alternatively, the information processing system (terminal) may execute other steps in addition to the above steps.

1…情報処理システム、10…端末、20…ディスプレイ、30…スピーカ、40…生体計測器、11…画像データベース、12…音声データベース、13…インタフェース表示部、14…抽出部、15…送信部(出力部)、16…受信部、17…データ処理部、18…カルテデータベース、110…インタフェース画面、P1…情報処理プログラム、P10…メインモジュール、P11…画像記憶モジュール、P12…音声記憶モジュール、P13…インタフェース表示モジュール、P14…抽出モジュール、P15…送信モジュール、P16…受信モジュール、P17…データ処理モジュール、P18…カルテ記憶モジュール。   DESCRIPTION OF SYMBOLS 1 ... Information processing system, 10 ... Terminal, 20 ... Display, 30 ... Speaker, 40 ... Biometric instrument, 11 ... Image database, 12 ... Audio database, 13 ... Interface display part, 14 ... Extraction part, 15 ... Transmission part ( (Output unit), 16 ... receiving unit, 17 ... data processing unit, 18 ... medical record database, 110 ... interface screen, P1 ... information processing program, P10 ... main module, P11 ... image storage module, P12 ... audio storage module, P13 ... Interface display module, P14 ... extraction module, P15 ... transmission module, P16 ... reception module, P17 ... data processing module, P18 ... chart storage module.

Claims (6)

ユーザにバーチャル・リアリティを体験させるための画像データと、該画像データとは独立した音声データとをデータベースから抽出する抽出部と、
前記抽出部により抽出された画像データを、前記ユーザに実風景を実質的に見せることなく該画像データを該ユーザに対して表示するディスプレイに出力すると共に、前記抽出部により抽出された音声データをスピーカに出力する出力部と
を備える情報処理システム。
An extraction unit for extracting from the database image data for allowing the user to experience virtual reality and audio data independent of the image data;
The image data extracted by the extraction unit is output to a display that displays the image data to the user without substantially showing the actual scenery to the user, and the audio data extracted by the extraction unit is output. An information processing system comprising: an output unit that outputs to a speaker.
ユーザの生体データを生体計測器から取得する取得部と、
前記取得部により取得された生体データを所定のデータベースに格納する格納部と
をさらに備える請求項1に記載の情報処理システム。
An acquisition unit for acquiring user biometric data from a biometric instrument;
The information processing system according to claim 1, further comprising: a storage unit that stores the biological data acquired by the acquisition unit in a predetermined database.
前記音声データがメンタルトレーニング用のアドバイスを示す、
請求項1または2に記載の情報処理システム。
The voice data indicates mental training advice,
The information processing system according to claim 1 or 2.
前記ディスプレイがヘッドマウントディスプレイである、
請求項1〜3のいずれか一項に記載の情報処理システム。
The display is a head mounted display;
The information processing system according to any one of claims 1 to 3.
プロセッサを備える情報処理システムにより実行される情報処理方法であって、
ユーザにバーチャル・リアリティを体験させるための画像データと、該画像データとは独立した音声データとをデータベースから抽出する抽出ステップと、
前記抽出ステップにおいて抽出された画像データを、前記ユーザに実風景を実質的に見せることなく該画像データを該ユーザに対して表示するディスプレイに出力すると共に、前記抽出ステップにおいて抽出された音声データをスピーカに出力する出力ステップと
を含む情報処理方法。
An information processing method executed by an information processing system including a processor,
An extraction step for extracting from the database image data for allowing the user to experience virtual reality and audio data independent of the image data;
The image data extracted in the extraction step is output to a display that displays the image data to the user without substantially showing the actual scenery to the user, and the audio data extracted in the extraction step is An information processing method including an output step of outputting to a speaker.
ユーザにバーチャル・リアリティを体験させるための画像データと、該画像データとは独立した音声データとをデータベースから抽出する抽出ステップと、
前記抽出ステップにおいて抽出された画像データを、前記ユーザに実風景を実質的に見せることなく該画像データを該ユーザに対して表示するディスプレイに出力すると共に、前記抽出ステップにおいて抽出された音声データをスピーカに出力する出力ステップと
をコンピュータ・システムに実行させるための情報処理プログラム。
An extraction step for extracting from the database image data for allowing the user to experience virtual reality and audio data independent of the image data;
The image data extracted in the extraction step is output to a display that displays the image data to the user without substantially showing the actual scenery to the user, and the audio data extracted in the extraction step is An information processing program for causing a computer system to execute an output step of outputting to a speaker.
JP2016242322A 2016-12-14 2016-12-14 Information processing system, information processing method, and information processing program Active JP6150935B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016242322A JP6150935B1 (en) 2016-12-14 2016-12-14 Information processing system, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016242322A JP6150935B1 (en) 2016-12-14 2016-12-14 Information processing system, information processing method, and information processing program

Publications (2)

Publication Number Publication Date
JP6150935B1 JP6150935B1 (en) 2017-06-21
JP2018097664A true JP2018097664A (en) 2018-06-21

Family

ID=59081930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016242322A Active JP6150935B1 (en) 2016-12-14 2016-12-14 Information processing system, information processing method, and information processing program

Country Status (1)

Country Link
JP (1) JP6150935B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022027250A (en) * 2020-07-31 2022-02-10 トヨタ自動車株式会社 Lesson system, lesson method, and program
JP2022189185A (en) * 2021-06-10 2022-12-22 株式会社ソケッツ Suggestion device and method
WO2023228342A1 (en) * 2022-05-26 2023-11-30 株式会社ジオクリエイツ Information processing system, information processing device, information processing method, and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019076692A (en) * 2017-10-26 2019-05-23 京セラ株式会社 Measurement device and measurement system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06209A (en) * 1992-06-19 1994-01-11 Matsushita Electric Works Ltd Relax/refresh system
JPH09313611A (en) * 1996-05-28 1997-12-09 Matsushita Electric Works Ltd Chair system
JP2005318973A (en) * 2004-05-07 2005-11-17 Sony Corp Biological sensor apparatus, content reproducing method and content reproducing apparatus
JP2009082299A (en) * 2007-09-28 2009-04-23 Toyobo Co Ltd Mental training system
JP2010516329A (en) * 2007-01-22 2010-05-20 ニューロスキー・インコーポレーテッド Method and apparatus for quantitatively evaluating mental status based on an electroencephalogram signal processing system
JP2012203590A (en) * 2011-03-24 2012-10-22 Nsd Co Ltd Total health support system
JP2013258555A (en) * 2012-06-12 2013-12-26 Sony Computer Entertainment Inc Head-mounted display, biological information management apparatus, and biological information display method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06209A (en) * 1992-06-19 1994-01-11 Matsushita Electric Works Ltd Relax/refresh system
JPH09313611A (en) * 1996-05-28 1997-12-09 Matsushita Electric Works Ltd Chair system
JP2005318973A (en) * 2004-05-07 2005-11-17 Sony Corp Biological sensor apparatus, content reproducing method and content reproducing apparatus
JP2010516329A (en) * 2007-01-22 2010-05-20 ニューロスキー・インコーポレーテッド Method and apparatus for quantitatively evaluating mental status based on an electroencephalogram signal processing system
JP2009082299A (en) * 2007-09-28 2009-04-23 Toyobo Co Ltd Mental training system
JP2012203590A (en) * 2011-03-24 2012-10-22 Nsd Co Ltd Total health support system
JP2013258555A (en) * 2012-06-12 2013-12-26 Sony Computer Entertainment Inc Head-mounted display, biological information management apparatus, and biological information display method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022027250A (en) * 2020-07-31 2022-02-10 トヨタ自動車株式会社 Lesson system, lesson method, and program
JP2022189185A (en) * 2021-06-10 2022-12-22 株式会社ソケッツ Suggestion device and method
JP7427177B2 (en) 2021-06-10 2024-02-05 株式会社ソケッツ Proposed device and method
WO2023228342A1 (en) * 2022-05-26 2023-11-30 株式会社ジオクリエイツ Information processing system, information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP6150935B1 (en) 2017-06-21

Similar Documents

Publication Publication Date Title
US10429934B2 (en) Method and apparatus to provide haptic feedback based on media content and one or more external parameters
JP6150935B1 (en) Information processing system, information processing method, and information processing program
US10824232B2 (en) Sound outputting apparatus, electronic apparatus, and control method thereof
US8847884B2 (en) Electronic device and method for offering services according to user facial expressions
US8992232B2 (en) Interactive and educational vision interfaces
CN109416562B (en) Apparatus, method and computer readable medium for virtual reality
US20200276407A1 (en) Virtual reality guided meditation in a wellness platform
CN107106047A (en) Biofeedback virtual reality system and method
JPWO2017061149A1 (en) Information processing apparatus, information processing method, and program
KR20170012979A (en) Electronic device and method for sharing image content
JP6830829B2 (en) Programs, display devices, display methods, broadcasting systems and broadcasting methods
JP6188612B2 (en) Information integration device, information integration system, and program
US20190138463A1 (en) Information processing apparatus, information processing method, and program
US20220360827A1 (en) Content distribution system, content distribution method, and content distribution program
US10643636B2 (en) Information processing apparatus, information processing method, and program
CN110337041B (en) Video playing method and device, computer equipment and storage medium
JP2018165871A (en) Lesson system, lesson server, lesson support method, and lesson support program
JP2009089744A (en) Moving image display system, moving image display method, and computer program
US11301615B2 (en) Information processing device using recognition difficulty score and information processing method
US11593426B2 (en) Information processing apparatus and information processing method
KR102087290B1 (en) Method for operating emotional contents service thereof, service providing apparatus and electronic Device supporting the same
CN108600797B (en) Information processing method and electronic equipment
JP2022037485A (en) Support apparatus, display method, and computer program
JP6251800B1 (en) Class system and class support method
US20240233940A1 (en) Interactive medical communication device

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170321

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170523

R150 Certificate of patent or registration of utility model

Ref document number: 6150935

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250