JP5594060B2 - Amusement machine - Google Patents

Amusement machine Download PDF

Info

Publication number
JP5594060B2
JP5594060B2 JP2010241066A JP2010241066A JP5594060B2 JP 5594060 B2 JP5594060 B2 JP 5594060B2 JP 2010241066 A JP2010241066 A JP 2010241066A JP 2010241066 A JP2010241066 A JP 2010241066A JP 5594060 B2 JP5594060 B2 JP 5594060B2
Authority
JP
Japan
Prior art keywords
user
target image
voice
amusement device
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010241066A
Other languages
Japanese (ja)
Other versions
JP2012090802A (en
Inventor
英樹 白井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso IT Laboratory Inc
Original Assignee
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso IT Laboratory Inc filed Critical Denso IT Laboratory Inc
Priority to JP2010241066A priority Critical patent/JP5594060B2/en
Publication of JP2012090802A publication Critical patent/JP2012090802A/en
Application granted granted Critical
Publication of JP5594060B2 publication Critical patent/JP5594060B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Description

本発明は、3次元映像を利用したアミューズメント装置に係り、例えば語学などの学習用途に好適なものである。   The present invention relates to an amusement device using a three-dimensional image, and is suitable for learning applications such as languages.

例えば語学などの学習のため、パーソナルコンピュータ(PC)や携帯用のゲーム機などで動作する各種の学習支援ソフトが実用化されている。その中には、英語音声を再生し、読み上げられた英語音声をユーザが書き取るディクテーションを行なうものや、その英語音声をユーザに繰り返すように発声させるシャドウイングを行うものなどがある。このようなディクテーションやシャドウイングは、語学を学習する際に、記憶の定着を高めたり、発音を向上させたりする効果が期待できる。   For example, various learning support software that operates on a personal computer (PC), a portable game machine, or the like has been put into practical use for learning languages and the like. Among them, there are those that reproduce English speech and perform dictation in which the user writes the read-out English speech, and those that perform shadowing that causes the user to repeat the English speech. Such dictation and shadowing can be expected to increase memory retention and improve pronunciation when learning languages.

上述した学習支援ソフトは、ユーザが書き取りや発音を行うことで学習効果を高めることができるものではあるが、基本的にキーボードやタッチパネルなどを操作して実行するものであるため、楽しみながら学習を行うといった要素に欠ける場合が多い。   Although the learning support software described above can enhance the learning effect by writing and pronunciation by the user, it is basically executed by operating the keyboard, touch panel, etc. There are many cases where the element of doing is lacking.

本発明は、このような点に鑑みてなされたもので、3次元映像を利用することにより、ユーザが体を動かしながらゲーム感覚で、語学などの学習を含む各種のコンテンツの実行を可能としたアミューズメント装置を提供することを目的とする。   The present invention has been made in view of the above points, and by using a 3D image, the user can execute various contents including learning such as language in a game sense while moving the body. An object is to provide an amusement device.

上述した目的を達成するために、請求項1に記載のアミューズメント装置は、
3次元映像を表示する表示装置と、
ユーザによって選択されるべき標的画像を含む複数の標的画像が、ユーザに接近した位置に浮き上がって表示される3次元映像を、表示装置に表示させる表示制御手段と、
表示装置から所定の間隔を隔てた場所にいるユーザの手の動きを検出する検出手段と、
検出手段による検出結果から、ユーザが、選択されるべき標的画像をヒットする手の動作を行ったか否かを判定する判定手段と、
判定手段による判定結果に基づいて、評価結果をユーザに提示する提示手段と、を備えるものであって、
アミューズメント装置は、語学学習に用いられるものであり、
文章又は単語を読み上げる読み上げ手段と、
ユーザの発した音声を検出する音声検出手段と、
ユーザにより文章又は単語が繰り返されたときに、その音声を音声検出手段によって検出し、その検出した音声を認識する音声認識部と、をさらに備え、
提示手段は、音声認識部による認識結果も加味した評価結果を提示することを特徴とする。
In order to achieve the above-described object, an amusement device according to claim 1,
A display device for displaying a three-dimensional image;
Display control means for causing a display device to display a three-dimensional image in which a plurality of target images including a target image to be selected by the user are lifted and displayed at a position close to the user;
Detecting means for detecting movement of a user's hand located at a predetermined distance from the display device;
A determination means for determining whether or not the user has performed a hand movement to hit a target image to be selected, based on a detection result by the detection means;
Based on the determination result by the determination unit, a shall and a presenting means for presenting the user with evaluation results,
The amusement device is used for language learning,
Reading aloud a sentence or a word;
Voice detection means for detecting the voice uttered by the user;
A voice recognition unit that detects the voice by voice detection means when a sentence or a word is repeated by the user, and recognizes the detected voice;
The presenting means presents an evaluation result including a recognition result by the voice recognition unit .

上述した構成を備えることにより、選択されるべき標的画像を含む複数の標的画像が、あたかもユーザの手が届くかのように近接した位置に表示される。このような3次元映像表示を見たユーザは、自身が選択しようとする標的画像を触ったり、叩いたりするように手を動かすことで、いずれかの標的画像をヒットする。すると、判定手段により、ユーザが、選択されるべき標的画像を正しくヒットしたか否かが判定され、提示手段により、その判定結果に基づいて評価結果がユーザに提示される。従って、ユーザは、自身の体を動かしながら、ゲーム感覚で、3次元映像表示を利用した各種のコンテンツを楽しむことができる。特に、コンテンツとして、語学などの学習内容を含む場合には、運動しながら学習を行うことで学習への集中度が高まり、より高い学習効果を期待できる。
そのため、アミューズメント装置は、文章又は単語を読み上げる読み上げ手段と、ユーザの発した音声を検出する音声検出手段と、ユーザにより文章又は単語が繰り返されたときに、その音声を音声検出手段によって検出し、その検出した音声を認識する音声認識部と、をさらに備え、提示手段は、音声認識部による認識結果も加味した評価結果を提示する。これにより、本発明によるアミューズメント装置を用いてユーザが語学学習を行う際に、発音の向上効果も期待できるようになる。
By providing the above-described configuration, a plurality of target images including a target image to be selected are displayed at close positions as if the user's hand has reached. The user who sees such a 3D video display hits one of the target images by moving his / her hand so as to touch or hit the target image he / she wants to select. Then, it is determined whether or not the user has correctly hit the target image to be selected by the determining means, and the evaluation result is presented to the user based on the determination result by the presenting means. Therefore, the user can enjoy various contents using the 3D video display as if playing a game while moving his / her body. In particular, when the contents include learning contents such as language, learning is performed while exercising, so that the degree of concentration on learning increases and a higher learning effect can be expected.
Therefore, the amusement device has a reading unit that reads a sentence or a word, a voice detection unit that detects a voice uttered by the user, and a voice or a voice detection unit that detects the voice when the sentence or word is repeated by the user, A speech recognition unit for recognizing the detected speech, and the presenting unit presents an evaluation result including a recognition result by the speech recognition unit. Thereby, when the user performs language learning using the amusement device according to the present invention, an effect of improving pronunciation can be expected.

請求項2に記載したように、判定手段は、ユーザの手の到達範囲に仮想面を設定し、ユーザの手が、いずれかの標的画像に対応したエリア内で仮想面に達したとき、対応する標的画像をヒットする手の動作を行ったと判定することが好ましい。これにより、ユーザが、いずれかの標的画像をヒットしようとして手を動かしたとき、その標的画像をヒットしようとする手の動きを確実に判定することができる。   As described in claim 2, the determination means sets a virtual plane within the reach of the user's hand, and when the user's hand reaches the virtual plane within an area corresponding to any target image, It is preferable to determine that the hand movement to hit the target image to be performed has been performed. As a result, when the user moves his hand to try to hit one of the target images, the movement of the hand trying to hit the target image can be reliably determined.

請求項3に記載したように、表示制御手段は、判定手段により、ユーザが、選択されるべき標的画像をヒットする手の動作を行ったと判定されると、該当する標的画像の表示態様を変化させることが好ましい。例えば、表示態様の変化として、標的画像を破裂させたり、ユーザから遠ざかる方向に移動させたり、色を変えつつ消滅させたりする。これにより、ユーザは、正しい標的画像をヒットしたことを視覚的に認識することができる。また、視覚的にユーザを楽しませることができる。   According to a third aspect of the present invention, the display control means changes the display mode of the corresponding target image when the determination means determines that the user has performed a hand action to hit the target image to be selected. It is preferable to make it. For example, as a change in display mode, the target image is ruptured, moved away from the user, or disappeared while changing the color. Thereby, the user can visually recognize that the correct target image is hit. Further, the user can be entertained visually.

請求項4に記載したように、表示制御手段は、ユーザによる標的画像の選択が複数回行われるように、3次元映像の表示を制御するものであり、提示手段は、その複数回の選択結果に関する総合的な評価結果をユーザに提示するものであっても良い。これにより、運動を行いながらの学習を適度な時間だけ継続させることが可能となり、エクササイズ効果及び学習効果の双方の向上を期待できる。なお、継続時間(標的画像の選択回数)は、ユーザが選択できるようにしても良い。   According to a fourth aspect of the present invention, the display control means controls the display of the 3D video so that the target image is selected by the user a plurality of times, and the presentation means is the result of the selection of the plurality of times. It is also possible to present a comprehensive evaluation result for the user. As a result, learning while exercising can be continued for an appropriate time, and improvement of both the exercise effect and the learning effect can be expected. Note that the duration (number of target image selections) may be selected by the user.

実施形態によるアミューズメント装置の全体構成を示したブロック図である。It is the block diagram which showed the whole structure of the amusement apparatus by embodiment. アミューズメント装置を構成する際の、各構成部品の配置の一例を示した図である。It is the figure which showed an example of arrangement | positioning of each component at the time of comprising an amusement apparatus. (a)〜(d)は、アミューズメント装置において表示される各種の画像の例を示す図である。(A)-(d) is a figure which shows the example of the various images displayed in an amusement apparatus.

以下、本発明の実施形態によるアミューズメント装置について、図面を参照しつつ説明する。なお、本実施形態においては、アミューズメント装置が語学学習用のコンテンツを実行する例について説明する。   Hereinafter, an amusement device according to an embodiment of the present invention will be described with reference to the drawings. In the present embodiment, an example in which the amusement device executes language learning content will be described.

図1は、本実施形態によるアミューズメント装置の全体構成を示したブロック図である。また、図2は、アミューズメント装置を構成する際の、各構成部品の配置の一例を示したものである。なお、図2に示す例では、スクリーン2とユーザの間に、天井及び側板が設けられ、スクリーン2が天井及び側板によって覆われているが、これらの天井及び側板は必ずしも設けなくても良い。また、図2においては、理解の容易のため、天板及び側板が透明化された状態で示されている。   FIG. 1 is a block diagram showing the overall configuration of the amusement device according to the present embodiment. FIG. 2 shows an example of the arrangement of each component when configuring an amusement device. In the example shown in FIG. 2, a ceiling and a side plate are provided between the screen 2 and the user, and the screen 2 is covered with the ceiling and the side plate. However, these ceiling and side plates are not necessarily provided. Moreover, in FIG. 2, the top plate and the side plate are shown in a transparent state for easy understanding.

図1及び図2に示すように、本実施形態のアミューズメント装置は、3次元映像を表示するための3Dプロジェクタ1及びスクリーン2、文章や単語の読み上げ音声を出力するためのスピーカ3、ユーザの発した音声を検出するためのマイク4、ユーザの手の動きを検出するための3Dカメラ5、及びコンピュータ10から構成される。なお、図2では、一部の構成についての図示を省略している。   As shown in FIGS. 1 and 2, the amusement device according to the present embodiment includes a 3D projector 1 and a screen 2 for displaying a three-dimensional image, a speaker 3 for outputting a reading voice of sentences and words, a user's speech And a computer 10 for detecting the movement of the user's hand, and a computer 10. In FIG. 2, illustration of a part of the configuration is omitted.

本実施形態では、3Dプロジェクタ1として、左右異なる角度から見た映像を交互にスクリーン2に投影可能なものを用いている。ユーザは、左右の視界が交互に遮蔽される液晶シャッターを備えた眼鏡を掛けて、その投影された映像を見る。このとき、眼鏡の液晶シャッターが2つの映像と完全に同期して開閉することで右目と左目にそれぞれ右目用の映像と左目用の映像だけが見えるようになる結果、立体感が得られるようになっている。   In the present embodiment, the 3D projector 1 is a projector that can alternately project images viewed from different angles on the screen 2. The user wears glasses equipped with a liquid crystal shutter in which the left and right visual fields are alternately shielded, and views the projected image. At this time, by opening and closing the liquid crystal shutter of the glasses completely in synchronization with the two images, the right eye and the left eye can see only the right eye image and the left eye image, respectively, so that a stereoscopic effect can be obtained. It has become.

ただし、3次元映像を表示する装置として、プロジェクタではなく、液晶ディスプレイやプラズマディスプレイなどの通常のディスプレイを用いても良い。また、3次元映像を表示する装置として、他の方式、例えば偏向眼鏡方式による3次元ディスプレイや、ホログラフィックディスプレイなどを用いた裸眼式の3次元ディスプレイを採用しても良い。   However, instead of a projector, a normal display such as a liquid crystal display or a plasma display may be used as a device for displaying a three-dimensional image. Further, as a device for displaying a three-dimensional image, another method, for example, a three-dimensional display using a deflection glasses method, or a naked-eye type three-dimensional display using a holographic display may be adopted.

スピーカ3は、語学学習用のコンテンツにより、文章や単語が読み上げられる際に、その読み上げ音声を出力する。そして、マイク4は、ユーザがその読み上げ音声のシャドウイングを行うときなどに、ユーザの発する音声を検出する。   The speaker 3 outputs a reading sound when a sentence or a word is read out by the language learning content. Then, the microphone 4 detects the voice uttered by the user when the user performs shadowing of the reading voice.

3Dカメラ5は、例えば対象物までの距離を計測可能なTOF(time of flight)型距離画像センサを用いることができる。なお、TOF型距離画像センサは、例えば赤外線を変調して投光し、反射対象物からの反射光との位相差を画素毎に計測することにより、画素ごとに反射対象物との距離を計測可能としたものである。また、3Dカメラ5として、いわゆるステレオカメラを用い、視差を利用して対象物までの距離を求めても良い。   The 3D camera 5 can use, for example, a TOF (time of flight) type distance image sensor capable of measuring a distance to an object. Note that the TOF type distance image sensor measures the distance to the reflective object for each pixel by, for example, modulating and projecting infrared light and measuring the phase difference with the reflected light from the reflective object for each pixel. It is possible. Further, a so-called stereo camera may be used as the 3D camera 5 and the distance to the object may be obtained using parallax.

コンピュータ10は、内部に周知のCPU、ROM、RAM、I/Oおよびこれらの構成を接続するためのバスラインを備えている。ROMには、コンピュータ10が実行するためのプログラムが書き込まれており、このプログラムに従ってCPU等が所定の演算処理を実行する。   The computer 10 includes a well-known CPU, ROM, RAM, I / O and a bus line for connecting these components. In the ROM, a program to be executed by the computer 10 is written, and a CPU or the like executes predetermined arithmetic processing according to this program.

ただし、図1においては、説明の便宜上、コンピュータ10が実行する処理(機能)をブロックにより構成的に表している。以下、図1に基づいて、コンピュータ10により実行される機能を説明する。   However, in FIG. 1, for convenience of explanation, the processing (function) executed by the computer 10 is structurally represented by blocks. Hereinafter, functions executed by the computer 10 will be described with reference to FIG.

コンピュータ10は、コンテンツ実行制御部11を有している。このコンテンツ実行制御部11は、例えばディスクなどに格納されたコンテンツソフトを読み込んで、そのコンテンツの実行を制御するものである。例えば、コンテンツ実行制御部11は、コンテンツソフトに基づき、映画のセリフなどの文章を学習対象の外国語(例えば英語)で読み上げる音声をアンプ部12を介してスピーカ3から出力させる。その際、セリフの和訳を表示するための映像データを描画部13に出力して、3Dプロジェクタ1により投影しても良い。なお、描画部13は、3Dプロジェクタに対して、表示すべき映像信号を与えるものである。   The computer 10 has a content execution control unit 11. The content execution control unit 11 reads content software stored on, for example, a disc and controls the execution of the content. For example, based on the content software, the content execution control unit 11 causes the speaker 3 to output a voice that reads out a sentence such as a movie speech in a foreign language to be learned (for example, English) from the speaker 3. At that time, video data for displaying the Japanese translation of the words may be output to the drawing unit 13 and projected by the 3D projector 1. The drawing unit 13 gives a video signal to be displayed to the 3D projector.

次に、コンテンツ実行制御部11は、映画の1シーンが背景として表示され、かつ、読み上げたセリフを細切れに分割した語句が、標的画像として、ユーザに接近した位置に浮き上がって表示される3次元映像を表示するための映像データを描画部13に出力する。このとき、背景となる映像も3次元的に表示されても良い。これにより、図3(a)に示されるように、3Dプロジェクタ1及びスクリーン2によって、あたかもユーザの手が届くかのように近接した位置に複数の標的画像が表示される。なお、図3(a)では、背景となる映像の表示を省略している。   Next, the content execution control unit 11 displays a scene of a movie as a background, and a three-dimensional display in which a phrase obtained by dividing a read-out line into pieces is floated and displayed as a target image at a position close to the user. Video data for displaying a video is output to the drawing unit 13. At this time, the background image may be displayed three-dimensionally. Thereby, as shown in FIG. 3A, a plurality of target images are displayed by the 3D projector 1 and the screen 2 at close positions as if the user's hand reached. In FIG. 3A, the display of the background video is omitted.

その際、標的画像の表示位置は、あらかじめ定められた複数の位置のいずれかにランダムに配置されても良いし、あるいは完全にランダムに配置されても良い、ただし、それぞれの標的画像は、相互に一部でも重ならないように配置される。   At that time, the display position of the target image may be randomly arranged at any one of a plurality of predetermined positions, or may be arranged completely at random. It is arranged so that it does not overlap even partly.

そして、ユーザが、近接した位置に表示されている複数の標的画像の中から、例文の順番通りに標的画像をヒットすれば正答とし、順番とは異なる標的画像をヒットすると誤答とする。そのため、ユーザが、選択しようとする標的画像を触ったり、叩いたりするように手を動かすことで、いずれかの標的画像をヒットすると、そのようないずれかの標的画像をヒットするユーザの手の動きを、ジェスチャ認識部14によって認識する。   Then, if the user hits the target image in the order of the example sentence from a plurality of target images displayed at close positions, the answer is correct, and if the user hits a target image different from the order, the answer is incorrect. Therefore, when a user hits one of the target images by moving his / her hand so as to touch or hit the target image to be selected, the user's hand hits one of the target images. The gesture is recognized by the gesture recognition unit 14.

具体的には、コンテンツ実行制御部11は、各標的画像の配置を決定したとき、その各標的画像の表示位置を、正誤判定部15に出力し、正誤判定部15は、各標的画像の表示位置に関する情報をジェスチャ認識部14に与える。ジェスチャ認識部14は、3Dカメラ5によって撮影された映像に基づいて、ユーザの手を認識する。さらに、ジェスチャ認識部14は、プレイゾーン内のユーザの位置とスクリーン2との間であって、ユーザの手の到達範囲に仮想面を設定し、ユーザの手が、いずれかの標的画像に対応したエリア内で仮想面に達したときに、対応する標的画像をヒットする手の動作を行ったと判定する。なお、仮想面は、予め定められた位置に設定しても良いし、ユーザの立ち位置を基準として、その都度設定しても良い。   Specifically, when the content execution control unit 11 determines the arrangement of each target image, the content execution control unit 11 outputs the display position of each target image to the correctness determination unit 15, and the correctness determination unit 15 displays the display of each target image. Information about the position is given to the gesture recognition unit 14. The gesture recognition unit 14 recognizes the user's hand based on the video imaged by the 3D camera 5. Furthermore, the gesture recognition unit 14 sets a virtual plane between the position of the user in the play zone and the screen 2 and reaches the reach of the user's hand, and the user's hand corresponds to one of the target images. When the virtual plane is reached within the area, it is determined that the hand movement to hit the corresponding target image has been performed. Note that the virtual plane may be set at a predetermined position, or may be set each time based on the user's standing position.

これにより、ユーザが、いずれかの標的画像をヒットしようとして手を動かしたとき、いずれの標的画像をヒットしようとしたかを確実に判定することができる。この判定結果、すなわち、ユーザがヒットした標的画像の情報が、正誤判定部15に出力される。   This makes it possible to reliably determine which target image is to be hit when the user moves his hand to hit any target image. This determination result, that is, information on the target image hit by the user is output to the correctness determination unit 15.

正誤判定部15は、コンテンツ実行制御部11から与えられた各標的画像の表示位置と、ジェスチャ認識部14によって判定されたユーザによってヒットされた標的画像とに基づいて、ユーザが正しい標的画像をヒットしたか否かを判定する。この判定結果は、コンテンツ実行制御部11に出力される。   Based on the display position of each target image given from the content execution control unit 11 and the target image hit by the user determined by the gesture recognition unit 14, the correctness determination unit 15 hits the correct target image. Determine whether or not. This determination result is output to the content execution control unit 11.

また、ユーザがいずれかの標的画像をヒットするとき、その標的画像の語句をユーザに発音させ、ユーザが発した音声をマイク4によって検出する。マイク4によって検出されたユーザの音声は、音声認識部16によって認識される。音声認識部16による認識結果は、評価判定部17に出力される。評価判定部17は、コンテンツ実行制御部11から、ユーザがヒットした標的画像に対応する語句の情報を得て、その語句の情報と音声認識部16による認識結果とを対比することにより、ユーザの発音の良否を評価する。   Further, when the user hits any target image, the user is caused to pronounce the phrase of the target image, and the voice emitted by the user is detected by the microphone 4. The voice of the user detected by the microphone 4 is recognized by the voice recognition unit 16. The recognition result by the voice recognition unit 16 is output to the evaluation determination unit 17. The evaluation determination unit 17 obtains information on the phrase corresponding to the target image hit by the user from the content execution control unit 11, and compares the information on the phrase with the recognition result by the voice recognition unit 16, thereby allowing the user's Evaluate the quality of pronunciation.

コンテンツ実行制御部11は、正誤判定部15からユーザが正しい標的画像をヒットしたとの判定結果を得た場合には、その標的画像の表示態様を変化させる。例えば、表示態様の変化の例として、標的画像を破裂させたり、ユーザから遠ざかる方向に移動させたり、色を変えつつ消滅させたりする。これにより、ユーザは、正しい標的画像をヒットしたことを視覚的に認識することができる。また、視覚的にユーザを楽しませることができる。図3(b)は、最初の標的画像がユーザによって正しくヒットされ、その標的画像が破裂等により消去された状態を示している。   When the content execution control unit 11 obtains a determination result that the user has hit a correct target image from the correctness determination unit 15, the content execution control unit 11 changes the display mode of the target image. For example, as an example of a change in display mode, the target image is ruptured, moved away from the user, or disappeared while changing the color. Thereby, the user can visually recognize that the correct target image is hit. Further, the user can be entertained visually. FIG. 3B shows a state in which the first target image is correctly hit by the user and the target image is erased by rupture or the like.

コンテンツ実行制御部11は、その後も同様にして、ユーザが例文どおりに正しく標的画像をヒットしたか否かの判定、ユーザの発音の良否の判定、及び、正しい標的画像をヒットした場合には、その標的画像の表示態様の変更といった処理を繰り返えさせる。そして、全ての標的画像がヒットされた場合、コンテンツ実行制御部11は、出題した例文に関する評価を示す画面を表示させるための映像データを描画部13に出力する。図3(c)は、その評価を示す映像の一例を示す画面である。   In the same manner, the content execution control unit 11 thereafter determines whether or not the user has hit the target image correctly according to the example sentence, determines whether the user's pronunciation is good, and hits the correct target image. The process of changing the display mode of the target image is repeated. When all the target images are hit, the content execution control unit 11 outputs video data for displaying a screen showing an evaluation related to the given example sentence to the drawing unit 13. FIG. 3C is a screen showing an example of a video showing the evaluation.

予め設定されていた出題数、あるいはプレイ時間が経過すると、コンテンツ実行制御部11は、総合的な評価を算出し、その総合評価を示す画面を表示させるための映像データを描画部13に出力する。算出される評価としては、標的画像をヒットした正解率、回答時間のほか、ユーザが発音した語句と標的画像の語句との一致率や発音自体の良否などのユーザの発音に関する評価も算出される。さらに、主にプレイ時間に基づき、ユーザが消費したカロリーも算出される。図3(d)は、上述した評価項目を、例えば重み付けして合計した総合スコアと、運動によりユーザが消費したカロリーを表示する画面の一例を示すものである。   When the preset number of questions or play time elapses, the content execution control unit 11 calculates a comprehensive evaluation, and outputs video data for displaying a screen showing the comprehensive evaluation to the drawing unit 13. . As the calculated evaluation, in addition to the correct answer rate at which the target image is hit and the answer time, the evaluation on the user's pronunciation, such as the match rate between the phrase pronounced by the user and the phrase of the target image and the quality of the pronunciation itself, is also calculated . Furthermore, the calories consumed by the user are also calculated mainly based on the play time. FIG. 3D shows an example of a screen that displays a total score obtained by, for example, weighting and summing the above-described evaluation items and calories consumed by the user due to exercise.

このように、コンテンツ実行制御部11は、ユーザによる標的画像の選択が複数回行われるように、3次元映像の表示を制御し、最終的に、その複数回の選択結果に関する総合的な評価結果がユーザに提示される。このため、運動を行いながらの学習を適度な時間だけ継続させることが可能となり、エクササイズ効果及び学習効果の双方の向上を期待できる。なお、継続時間(出題数やプレイ時間)は、ユーザが選択できるようにしても良い。   As described above, the content execution control unit 11 controls the display of the 3D video so that the target image is selected by the user a plurality of times, and finally, the comprehensive evaluation result regarding the plurality of selection results. Is presented to the user. For this reason, it is possible to continue learning while exercising for an appropriate period of time, and it can be expected to improve both the exercise effect and the learning effect. Note that the duration time (number of questions and play time) may be selectable by the user.

以上、説明したように、本実施形態によるアミューズメント装置によれば、ユーザは、自身の体を動かしながら、ゲーム感覚で、3次元映像表示を利用した語学学習用のコンテンツを楽しむことができる。この場合、運動しながら学習を行うことで学習への集中度が高まり、より高い学習効果を期待できる。   As described above, according to the amusement device according to the present embodiment, the user can enjoy the content for language learning using the 3D video display as if playing a game while moving his / her body. In this case, by performing learning while exercising, the degree of concentration on learning increases, and a higher learning effect can be expected.

上述した実施形態は、本発明によるアミューズメント装置の好ましい実施形態ではあるが、本発明によるアミューズメント装置は、上記実施形態になんら制限されることなく、本発明の趣旨を逸脱しない範囲において、種々変形して実施することが可能である。   The above-described embodiment is a preferred embodiment of the amusement device according to the present invention. However, the amusement device according to the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the spirit of the present invention. Can be implemented.

例えば、上述した実施形態では、アミューズメント装置において、例文を読み上げ、その例文の語句の順序に従って標的画像をヒットする例について説明したが、アミューズメント装置は、その他の学習モードを備えることが可能である。例えば、アミューズメント装置において、単語モードを実行するようにしても良い。この単語モードでは、外国語又は日本語の単語を表示し、その単語の和訳候補又は日本語の単語に該当する外国語候補を、複数の標的画像として表示する。そして、ユーザに正解と思う和訳候補又は外国語候補の標的画像をヒットさせる。この際、外国語候補をヒットする場合には、その外国語候補の発音を同時に行わせるようにしても良い。   For example, in the above-described embodiment, an example has been described in which an amusement device reads out an example sentence and hits a target image in accordance with the order of the phrases of the example sentence. However, the amusement device can include other learning modes. For example, the word mode may be executed in an amusement device. In this word mode, a foreign language or Japanese word is displayed, and a candidate for Japanese translation of the word or a foreign language candidate corresponding to a Japanese word is displayed as a plurality of target images. Then, the target image of a Japanese translation candidate or a foreign language candidate that the user thinks is correct is made to hit. At this time, when a foreign language candidate is hit, the pronunciation of the foreign language candidate may be performed simultaneously.

また、上述した実施形態では、アミューズメント装置が語学学習用のコンテンツを実行する例について説明したが、アミューズメント装置において実行可能なコンテンツは語学学習用のものに限られない。例えば、算数の計算問題を出題し、その回答候補を複数の標的画像として表示したり、国語の漢字問題を出題し、その読み方や漢字の候補を複数の標的画像として表示したりすることも可能である。すなわち、本発明によるアミューズメント装置は、語学学習に止まらず、学習用途に広く適用可能なものである。   In the above-described embodiment, the example in which the amusement device executes the language learning content has been described. However, the content that can be executed in the amusement device is not limited to the language learning content. For example, it is possible to display math calculation questions and display their answer candidates as multiple target images, or to display Japanese kanji problems as questions and display their kanji candidates as multiple target images. It is. In other words, the amusement device according to the present invention is not limited to language learning but can be widely applied to learning purposes.

さらに、本発明によるアミューズメント装置は、学習用途に限られることなく、例えばクイズを出題し、その回答の選択子を標的画像として表示するなど、娯楽用途にも適用可能なものである。   Furthermore, the amusement device according to the present invention is not limited to the learning application, but can be applied to entertainment applications such as taking a quiz and displaying the answer selector as a target image.

1…3Dプロジェクタ
2…スクリーン
3…スピーカ
4…マイク
5…3Dカメラ
10…コンピュータ
11…コンテンツ実行制御部
12…アンプ部
13…描画部
14…ジェスチャ認識部
15…正誤判定部
16…音声認識部
17…評価判定部
DESCRIPTION OF SYMBOLS 1 ... 3D projector 2 ... Screen 3 ... Speaker 4 ... Microphone 5 ... 3D camera 10 ... Computer 11 ... Content execution control part 12 ... Amplifier part 13 ... Drawing part 14 ... Gesture recognition part 15 ... Correctness determination part 16 ... Voice recognition part 17 ... Evaluation judgment part

Claims (4)

3次元映像を表示する表示装置と、
ユーザによって選択されるべき標的画像を含む複数の標的画像が、前記ユーザに接近した位置に浮き上がって表示される3次元映像を、前記表示装置に表示させる表示制御手段と、
前記表示装置から所定の間隔を隔てた場所にいる前記ユーザの手の動きを検出する検出手段と、
前記検出手段による検出結果から、前記ユーザが、前記選択されるべき標的画像をヒットする手の動作を行ったか否かを判定する判定手段と、
前記判定手段による判定結果に基づいて、評価結果を前記ユーザに提示する提示手段と、を備えたアミューズメント装置であって、
前記アミューズメント装置は、語学学習に用いられるものであり、
文章又は単語を読み上げる読み上げ手段と、
前記ユーザの発した音声を検出する音声検出手段と、
前記ユーザにより前記文章又は単語が繰り返されたときに、その音声を前記音声検出手段によって検出し、その検出した音声を認識する音声認識部と、をさらに備え、
前記提示手段は、前記音声認識部による認識結果も加味した評価結果を提示することを特徴とする3次元映像を用いたアミューズメント装置。
A display device for displaying a three-dimensional image;
Display control means for displaying, on the display device, a three-dimensional image in which a plurality of target images including a target image to be selected by a user are lifted and displayed at a position close to the user;
A detecting means for detecting a motion of the hand of the user at a location spaced a predetermined distance from the display device,
A determination unit that determines whether or not the user has performed a hand movement to hit the target image to be selected, based on a detection result by the detection unit;
An amusement device comprising: presentation means for presenting an evaluation result to the user based on a determination result by the determination means ;
The amusement device is used for language learning,
Reading aloud a sentence or a word;
Voice detection means for detecting the voice uttered by the user;
A voice recognition unit that, when the sentence or word is repeated by the user, detects the voice by the voice detection means and recognizes the detected voice;
An amusement device using a three-dimensional image, wherein the presenting means presents an evaluation result including a recognition result by the voice recognition unit .
前記判定手段は、前記ユーザの手の到達範囲に仮想面を設定し、前記ユーザの手が、いずれかの前記標的画像に対応したエリア内で前記仮想面に達したとき、対応する前記標的画像をヒットする手の動作を行ったと判定することを特徴とする請求項1に記載のアミューズメント装置。   The determination means sets a virtual plane within the reach of the user's hand, and when the user's hand reaches the virtual plane within an area corresponding to any of the target images, the corresponding target image The amusement device according to claim 1, wherein the amusement device is determined to have performed an action of a hand that hits. 前記表示制御手段は、前記判定手段により、前記ユーザが、前記選択されるべき標的画像をヒットする手の動作を行ったと判定されると、該当する標的画像の表示態様を変化させることを特徴とする請求項1又は請求項2に記載のアミューズメント装置。   The display control means changes the display mode of the corresponding target image when the determination means determines that the user has performed a hand action to hit the target image to be selected. The amusement device according to claim 1 or 2. 前記表示制御手段は、前記ユーザによる標的画像の選択が複数回行われるように、前記3次元映像の表示を制御するものであり、
前記提示手段は、前記複数回の選択結果に関する総合的な評価結果を前記ユーザに提示するものであることを特徴とする請求項1乃至請求項3のいずれかに記載のアミューズメント装置。
Wherein the display control unit, so that the selection of the target image by the user is performed a plurality of times, controls the display of the three-dimensional image,
Said presenting means, said plurality of amusement device according to any one of claims 1 to 3, characterized in that the overall evaluation results of the selection result is intended to be presented to the user.
JP2010241066A 2010-10-27 2010-10-27 Amusement machine Expired - Fee Related JP5594060B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010241066A JP5594060B2 (en) 2010-10-27 2010-10-27 Amusement machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010241066A JP5594060B2 (en) 2010-10-27 2010-10-27 Amusement machine

Publications (2)

Publication Number Publication Date
JP2012090802A JP2012090802A (en) 2012-05-17
JP5594060B2 true JP5594060B2 (en) 2014-09-24

Family

ID=46384882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010241066A Expired - Fee Related JP5594060B2 (en) 2010-10-27 2010-10-27 Amusement machine

Country Status (1)

Country Link
JP (1) JP5594060B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014238792A (en) * 2013-06-10 2014-12-18 長崎県公立大学法人 Learning support device and learning support method
JP6475473B2 (en) * 2014-11-07 2019-02-27 株式会社Nttドコモ Learning support device, learning support method, and program
JP6032660B1 (en) * 2015-07-23 2016-11-30 デレック・ヤキュウチャク Language practice device, language teaching material, and language practice program

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3766981B2 (en) * 1994-04-05 2006-04-19 カシオ計算機株式会社 Image control apparatus and image control method
JP2001017738A (en) * 1999-07-09 2001-01-23 Namco Ltd Game device
KR20020017674A (en) * 2000-08-31 2002-03-07 김성하 Whole-body controlling apparatus for fight game
JP4974319B2 (en) * 2001-09-10 2012-07-11 株式会社バンダイナムコゲームス Image generation system, program, and information storage medium
JP3648535B1 (en) * 2004-03-31 2005-05-18 コナミ株式会社 GAME DEVICE, COMPUTER CONTROL METHOD, AND PROGRAM
JP3746060B2 (en) * 2004-07-20 2006-02-15 コナミ株式会社 GAME DEVICE, COMPUTER CONTROL METHOD, AND PROGRAM
JP2008134991A (en) * 2006-05-26 2008-06-12 Shinsedai Kk Input method
JP2008225985A (en) * 2007-03-14 2008-09-25 Namco Bandai Games Inc Image recognition system

Also Published As

Publication number Publication date
JP2012090802A (en) 2012-05-17

Similar Documents

Publication Publication Date Title
Dalim et al. Using augmented reality with speech input for non-native children's language learning
US5174759A (en) TV animation interactively controlled by the viewer through input above a book page
KR101743230B1 (en) Apparatus and method for providing realistic language learning contents based on virtual reality and voice recognition
EP2600331A1 (en) Head-mounted display based education and instruction
WO2012009225A1 (en) Method and system for presenting interactive, three-dimensional learning tools
KR20140146750A (en) Method and system for gaze-based providing education content
Vrellis et al. Primary school students' attitude towards gesture based interaction: A Comparison between Microsoft Kinect and mouse
JP5594060B2 (en) Amusement machine
Chang et al. A Kinect-and game-based interactive learning system
US11756449B2 (en) System and method for improving reading skills of users with reading disability symptoms
Chuang et al. Improving learning performance with happiness by interactive scenarios
Sun et al. Mr. Piano: a portable piano tutoring system
JP2012073299A (en) Language training device
KR20160005841A (en) Motion recognition with Augmented Reality based Realtime Interactive Human Body Learning System
Hsu et al. Spelland: Situated Language Learning with a Mixed-Reality Spelling Game through Everyday Objects
Volioti et al. Music gestural skills development engaging teachers, learners and expert performers
Bidarra et al. Game design and the gamification of content: Assessing a project for learning sign language
TWI497463B (en) Interactive learning methods and systems with automated charts
RU2760179C1 (en) Augmented reality system
RU2657984C1 (en) Method of younger children education
US12125407B2 (en) Systems and methods to specify interactive page locations by pointing a light beam using a handheld device
US20240257658A1 (en) Systems and methods to specify interactive page locations by pointing a light beam using a handheld device
CN116212362A (en) History and ethnic culture interactive experience game system, control method and medium
Nuchprayoon Enhancing Accessibility in 3D Adventure Video Games Through Object Targeting and Dynamic Descriptions: A Universal Design Approach for Vision Accessibility
JP4227639B2 (en) Magic auxiliary toy

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140520

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140708

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140721

R150 Certificate of patent or registration of utility model

Ref document number: 5594060

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees