JP2014238792A - Learning support device and learning support method - Google Patents
Learning support device and learning support method Download PDFInfo
- Publication number
- JP2014238792A JP2014238792A JP2013122182A JP2013122182A JP2014238792A JP 2014238792 A JP2014238792 A JP 2014238792A JP 2013122182 A JP2013122182 A JP 2013122182A JP 2013122182 A JP2013122182 A JP 2013122182A JP 2014238792 A JP2014238792 A JP 2014238792A
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- learning
- user
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、学習支援装置および学習支援方法に関する。 The present invention relates to a learning support apparatus and a learning support method.
従来、語学の習得等を効果的に行うため、パーソナルコンピュータを利用した種々の装置や方法が提案されている。
例えば、特許文献1には、学習者の学習履歴を各別に管理し、各学習者の理解度に応じて問題データを各学習者に各別に提示する学習支援装置が開示されている。
Conventionally, various apparatuses and methods using a personal computer have been proposed in order to effectively acquire language and the like.
For example,
特許文献1に記載の発明では、学習支援装置が、各学習者の理解度を各学習者の正答率等に基づいて解析し、その理解度に応じて出題する問題を選択する。このような装置を用いた学習は、単に理解の進んでいない領域の問題を繰り返し解くというものでしかなく、従来の学習方法と大きく異なるものではない。このため、パーソナルコンピュータを用いた学習方法としては、未だ改善の余地を残すものであった。
このような問題は、特許文献1に記載の発明に限るものではなく、パーソナルコンピュータを利用して学習を効率よく行うための装置であれば、概ね共通したものとなっている。
In the invention described in
Such a problem is not limited to the invention described in
本発明は、上記従来技術の問題を解決するためになされたものであって、パーソナルコンピュータを用いて効率よく学習を行うことのできる学習支援装置および学習支援方法を提供することを目的とする。 The present invention has been made to solve the above-described problems of the prior art, and an object of the present invention is to provide a learning support apparatus and a learning support method that can perform learning efficiently using a personal computer.
本発明の第一態様は、上記課題を解決するためになされたものであり、画像を表示する表示画面と、前記表示画面に対面する使用者を含む撮像空間を表示画像として撮像する撮像手段とを備える学習支援装置であって、前記表示画像を前記表示画面に表示するとともに、前記表示画像を区画して形成された複数の領域のうち少なくともひとつの領域に学習画像を表示する表示手段と、前記学習画像が表示される領域に使用者の所定部位が位置するか否かを前記表示画像に基づいて判断する判断手段とを備え、前記学習画像が表示される領域に前記所定部位が位置していると前記判断手段を通じて判断されたときには、前記表示手段は、前記学習画像に基づく情報を提供することを特徴とする。 A first aspect of the present invention is made to solve the above-described problem, and includes a display screen that displays an image, and an imaging unit that captures an imaging space including a user facing the display screen as a display image. A display unit that displays the display image on the display screen and displays the learning image in at least one of a plurality of regions formed by partitioning the display image; Determination means for determining based on the display image whether or not a predetermined part of the user is located in the area where the learning image is displayed, and the predetermined part is located in the area where the learning image is displayed. When it is determined through the determination means that the display means, the display means provides information based on the learning image.
同構成では、使用者が身体を動かし、学習画像が表示される領域に所定部位を位置させると、学習画像に基づく情報が使用者に提供される。例えば、学習画像に対応する音声を発生させたり、学習画像に応じた視覚変化を生じさせることができる。このため、同構成によれば、使用者が学習画像の表示される領域に所定位置が位置するよう学習画像の表示領域に応じて身体を動かし、適切に身体を動かせて所定部位が当該領域に位置した場合は、使用者は、学習画像に応じた視覚変化や聴覚変化を得ることができる。このように身体を動かして視覚的または聴覚的な変化を得ることができるため、使用者は、身体を動かしながら学習画像に関連した情報を視覚または聴覚から得て学習することができる。このように身体を動かしながらの学習では、記憶が定着しやすくなるため、使用者は、楽しみながら効率よく学習を行うことができる。 In the same configuration, when the user moves his / her body and positions a predetermined part in a region where the learning image is displayed, information based on the learning image is provided to the user. For example, sound corresponding to the learning image can be generated, or a visual change corresponding to the learning image can be generated. For this reason, according to this configuration, the user moves the body according to the display area of the learning image so that the predetermined position is located in the area where the learning image is displayed, and the user can move the body appropriately so that the predetermined part is moved to the area. When positioned, the user can obtain visual changes and auditory changes according to the learning image. Since the user can move the body to obtain a visual or audible change, the user can learn information related to the learning image from the visual or auditory sense while moving the body. In such learning while moving the body, the memory is easily fixed, so that the user can efficiently learn while having fun.
本発明の第二態様は、上記課題を解決するためになされたものであり、第一態様にかかる学習支援装置であって、前記判断手段は、前記学習画像の表示前に前記撮像手段から出力される表示画像を基準画像として記憶し、前記学習画像の表示後に前記撮像手段から出力される表示画像を評価画像として記憶し、前記基準画像における前記領域の諧調値と前記評価画像における前記領域の諧調値との二次元相関係数に基づいて前記領域に前記所定部位が位置するか否かを判断することを特徴とする。 A second aspect of the present invention is made to solve the above-described problem, and is a learning support apparatus according to the first aspect, wherein the determination means outputs from the imaging means before displaying the learning image. The display image to be stored is stored as a reference image, the display image output from the imaging unit after the learning image is displayed is stored as an evaluation image, the gradation value of the region in the reference image and the region in the evaluation image It is characterized in that it is determined whether or not the predetermined part is located in the region based on a two-dimensional correlation coefficient with a gradation value.
本発明の第三態様は、上記課題を解決するためになされたものであり、第二態様にかかる学習支援装置であって、前記領域を中心部分と当該中心部分を除く外側部分とに分割し、前記基準画像における前記領域の外側部分の諧調値と、前記表示画像における前記領域の外側部分の諧調値との二次元相関係数に基づいて、前記領域に前記所定部位が位置するか否か判断することを特徴とする。 A third aspect of the present invention is made to solve the above problem, and is a learning support device according to the second aspect, wherein the region is divided into a central part and an outer part excluding the central part. Whether or not the predetermined part is located in the region based on a two-dimensional correlation coefficient between the gradation value of the outer portion of the region in the reference image and the gradation value of the outer portion of the region of the display image It is characterized by judging.
同構成によれば、所定の領域に所定部位が位置するか否かについて、外側部分の諧調値に基づいて判断するため、領域全体の諧調値に基づいて判断する場合よりも、感度が高くなる。したがって、領域全体の諧調値に基づいて判断する場合と比較すると、より正確に所定の領域に所定部位が位置するか否かを判断することができる。 According to this configuration, since whether or not a predetermined part is located in a predetermined region is determined based on the gradation value of the outer portion, the sensitivity is higher than in the case of determining based on the gradation value of the entire region. . Therefore, it is possible to more accurately determine whether or not the predetermined part is located in the predetermined region as compared with the case of determining based on the gradation value of the entire region.
本発明の第四態様は、上記課題を解決するためになされたものであり、第一態様〜第三態様のいずれかにかかる学習支援装置であって、前記表示手段は、使用者が前記表示画面に表示される学習画像に合わせて身体を動かしたときの当該使用者の運動強度が所定の範囲に収まるように、前記学習画像を前記表示画面に表示させることを特徴とする。 A fourth aspect of the present invention is made to solve the above-described problem, and is a learning support apparatus according to any one of the first aspect to the third aspect, wherein the display unit is configured to display the display by a user. The learning image is displayed on the display screen so that the exercise intensity of the user when the body is moved in accordance with the learning image displayed on the screen falls within a predetermined range.
軽い身体運動により身体運動中の心拍数が上昇すると学習能率が向上する傾向にあるが、過度な身体運動により心拍数が上昇しすぎると学習能率が低下することも明らかになりつつある。同構成によれば、運動強度が所定の範囲に収まるように学習画像を表示させるため、学習能率が高い範囲となるように学習画像を表示させることができる。したがって、使用者は効率よく学習を行うことができる。 When the heart rate during physical exercise increases due to light physical exercise, the learning efficiency tends to improve. However, when the heart rate increases excessively due to excessive physical exercise, it is becoming clear that the learning efficiency decreases. According to this configuration, since the learning image is displayed so that the exercise intensity falls within a predetermined range, the learning image can be displayed so that the learning efficiency is in a high range. Therefore, the user can learn efficiently.
本発明の第五態様は、上記課題を解決するためになされたものであり、第一態様〜第四態様のいずれかにかかる学習支援装置であって、前記撮像手段は複数備えられるものであり、前記判断手段は、前記各撮像手段を通じて撮像される各表示画像に基づいて、前記所定部位と前記表示画面との間の距離を算出し、前記所定部位と前記表示画面との間が所定距離にあるときに、前記学習画像が表示される領域に使用者の所定部位が位置するか否かを判断することを特徴とする。 A fifth aspect of the present invention is made to solve the above-mentioned problem, and is a learning support apparatus according to any one of the first to fourth aspects, wherein a plurality of the imaging means are provided. The determination unit calculates a distance between the predetermined part and the display screen based on each display image captured through each imaging unit, and a predetermined distance between the predetermined part and the display screen. In this case, it is determined whether or not a predetermined part of the user is located in an area where the learning image is displayed.
同構成によれば、使用者以外のものを使用者の所定部位と誤認して、判断処理を実行してしまうことを抑制することができるようになる。 According to this configuration, it is possible to suppress misperception of a part other than the user as a predetermined part of the user and execution of the determination process.
本発明の第六態様は、上記課題を解決するためになされたものであり、画像を表示画面に表示する表示手段と、前記表示画面に対面する使用者を含む撮像空間を表示画像として撮像する複数の撮像手段とを備える学習支援装置であって、前記表示手段は、前記複数の撮像手段のうちのひとつの撮像手段を通じて撮像された表示画像を前記表示画面に表示し、前記表示画面に表示される前記表示画像を複数の領域に区画して、前記複数の領域のうち少なくともひとつの領域を選択し、前記表示画面に対して垂直方向に延びる座標において所定範囲を設定し、前記選択した領域において学習画像を前記設定した所定範囲に応じた大きさで表示し、前記複数の撮像手段を通じて撮像される各表示画像に基づいて、使用者の所定部位と前記表示画面との間の距離を算出し、前記所定部位と前記表示画面との間が前記所定範囲にあるときに、前記学習画像が表示される領域に使用者の所定部位が位置するか否かを判断する判断処理を実行することを特徴とする。 A sixth aspect of the present invention is made to solve the above-described problem, and captures an imaging space including a display unit that displays an image on a display screen and a user facing the display screen as a display image. A learning support apparatus including a plurality of imaging units, wherein the display unit displays a display image captured through one imaging unit of the plurality of imaging units on the display screen, and displays the display image on the display screen. Dividing the display image into a plurality of areas, selecting at least one of the plurality of areas, setting a predetermined range in coordinates extending in a direction perpendicular to the display screen, and selecting the selected area The learning image is displayed in a size corresponding to the set predetermined range, and based on each display image captured through the plurality of imaging means, a predetermined part of the user and the display screen And determining whether or not the predetermined part of the user is located in an area where the learning image is displayed when the distance between the predetermined part and the display screen is within the predetermined range. A process is executed.
同構成によれば、使用者の所定部位と表示画面との間の距離を算出することができる。このため、使用者が、上下左右方向だけでなく、前後方向にも動くように学習画像を表示させることができる。 According to this configuration, it is possible to calculate the distance between the predetermined part of the user and the display screen. For this reason, the learning image can be displayed so that the user moves not only in the vertical and horizontal directions but also in the longitudinal direction.
本発明の第七態様は、上記課題を解決するためになされたものであり、第一態様〜第六態様のいずれかにかかる学習支援装置であって、前記撮像手段は、赤外光を撮像することを特徴とする。 A seventh aspect of the present invention is made to solve the above-described problem, and is a learning support apparatus according to any one of the first to sixth aspects, wherein the imaging means captures infrared light. It is characterized by doing.
同構成によれば、使用者以外のものを使用者の所定部位と誤認して、判断処理を実行してしまうことを抑制することができるようになる。 According to this configuration, it is possible to suppress misperception of a part other than the user as a predetermined part of the user and execution of the determination process.
本発明の第八態様は、上記課題を解決するためになされたものであり、画像を表示する表示工程と、前記表示画面に対面する使用者を含む撮像空間を表示画像として撮像する撮像工程とを備える学習支援方法であって、前記表示画像を前記表示画面に表示するとともに、前記表示画像を区画して形成された複数の領域のうち少なくともひとつの領域に学習画像を表示する表示工程と、前記学習画像が表示される領域に使用者の所定部位が位置するか否かを前記表示画像に基づいて判断する判断工程とを備え、前記表示工程は、前記学習画像を、所定時間の経過毎に異なる領域に表示するものであり、前記学習画像が表示される領域に前記所定部位が位置していると前記判断工程を通じて判断されたときには、前記表示工程は、前記学習画像に基づく情報を提供することを特徴とする。 An eighth aspect of the present invention is made to solve the above-described problem, and includes a display process for displaying an image, and an imaging process for capturing an imaging space including a user facing the display screen as a display image. A display step of displaying the display image on the display screen and displaying the learning image in at least one of a plurality of regions formed by dividing the display image; A determination step of determining whether or not a predetermined portion of the user is located in a region where the learning image is displayed based on the display image, and the display step displays the learning image at every elapse of a predetermined time. When the determination step determines that the predetermined part is located in a region where the learning image is displayed, the display step displays the learning image on the learning image. And providing a brute information.
本発明によれば、パーソナルコンピュータを用いて効率よく学習を行うことのできる学習支援装置を得ることができる。 ADVANTAGE OF THE INVENTION According to this invention, the learning assistance apparatus which can learn efficiently using a personal computer can be obtained.
(第一実施形態)
以下、本発明を具体化した第一実施形態を図1〜図3に基づいて説明する。
(First embodiment)
Hereinafter, a first embodiment embodying the present invention will be described with reference to FIGS.
まず、図1を参照しながら、本発明の第一実施形態にかかる学習支援装置1について説明する。図1には、本発明の第一実施形態にかかる学習支援装置1の概略構成を示す。本実施形態では、学習支援装置1を英語学習に用いる場合について説明する。
First, a
同図1に示されるように、学習支援装置1は、カメラ2(本発明の「撮像手段」に相当)と、このカメラ2に接続されるパーソナルコンピュータとしてのPC3(本発明の「表示手段」および「判断手段」に相当)と、このPC3に接続される縦幅H、横幅Wのディスプレイ4(本発明の「表示画面」に相当)とを備える。
As shown in FIG. 1, the learning
カメラ2とPC3との接続方法、およびPC3とディスプレイ4との接続方法は、特に限定されるものではなく、例えば、有線方式や無線方式のネットワークを介して接続されていてもよい。
The connection method between the camera 2 and the
カメラ2は、ディスプレイ4の中央上部に配設され、ディスプレイ4に対面する使用者5を含む撮像空間を撮像する。このカメラ2の撮像空間は、ディスプレイ4に対面して起立した使用者5の全身が収まる範囲であればよい。また、カメラ2は、所定時間Teの経過毎にカメラ2によって撮像空間を撮像する。
The camera 2 is disposed at the upper center of the
PC3は、中央処理装置(CPU)によって回路各部の動作が制御されるもので、その制御プログラムはPC3に搭載されるメモリのROM(図示せず)に予め記憶されている。PC3は、この制御プログラムを通じて学習支援装置1の各種制御を実行する。
The
カメラ2にて所定時間Teの経過毎に撮像された撮像空間の画像は、表示画像として都度PC3に出力され、PC3のメモリに記憶される。PC3は、カメラ2から出力された表示画像を都度ディスプレイ4の全体にわたって表示させる。すなわち、ディスプレイ4には、カメラ2から出力される最新の画像が表示される。またPC3は、予めPC3のメモリに記憶された音声を各種制御に応じて発生させる音声発生部3aを備える。
An image of the imaging space captured at every elapse of the predetermined time Te by the camera 2 is output to the
このようなPC3は、カメラ2にて撮像された画像に重畳して学習画像6をディスプレイ4に表示させる。学習画像6を表示させる位置は、ディスプレイ4に表示する画像(表示画像)の所定位置の点(例えば、左下隅の点)を原点とし、横方向をX軸、X軸に垂直な方向をY軸として表される座標系上に設定される。
Such a
以下、PC3に出力される画像の処理手順について図2を参照しながら詳細に説明する。
同図2に示されるように、本処理が開始されると、まず、PC3は学習時間Tpの計時を開始する(ステップS100)。次に基準画像を取得するとともに、評価画像を取得し、ディスプレイ4に表示する(ステップS101)。基準画像とは、カメラ2から表示画像としてPC3に出力された画像のうち、本処理の開始時に最も近い時点でカメラ2にて撮像され、PC3に出力された画像を示す。評価画像とは、カメラ2から表示画像としてPC3に出力された画像のうち、最新の表示画像、すなわちディスプレイ4に表示される画像を示す。
Hereinafter, the processing procedure of the image output to the
As shown in FIG. 2, when this process is started, first, the
上述したように、表示画像には所定の座標系が設定される。基準画像と評価画像は、いずれも表示画像であるため、これら基準画像と評価画像には、同じ座標系が設定される。 As described above, a predetermined coordinate system is set for the display image. Since both the reference image and the evaluation image are display images, the same coordinate system is set for the reference image and the evaluation image.
次に、学習画像6を表示する座標(X,Y)を設定する(ステップS102)。具体的には、PC3は、評価画像を区画して形成される複数の領域(図1参照)のうち、ひとつの領域を選択し、この選択した領域(以下、領域B)の中心座標を座標(X,Y)として設定する。
Next, coordinates (X, Y) for displaying the learning image 6 are set (step S102). Specifically, the
上述したように、基準画像と評価画像には、等しい座標系が設定される。PC3は、基準画像のうち、領域Bに対応する領域(基準画像において、設定した座標(X,Y)を中心とする領域)を領域Aとする。
As described above, the same coordinate system is set for the reference image and the evaluation image. The
なお、本実施形態では、表示画像を区画する際、各領域について、X軸方向の長さが「m1」、Y軸方向の長さが「n1」の長方形状を呈する領域となるように区画する(図3参照)。X軸方向の長さ「m1」は、ディスプレイ4の横幅W(図1参照)の1/26〜10/26の範囲(W×1/26〜W×10/26)が好ましく、ディスプレイ4の横幅Wの4/26〜6/26(W×4/26〜W×6/26)の範囲がより好ましい。Y軸方向の長さ「n1」は、ディスプレイ4の縦幅Hの1/20〜8/20の範囲(H×1/20〜H×8/20)が好ましく、ディスプレイ4の縦幅Hの3/20〜4.5/20の範囲(H×3/20〜H×4.5/20)がより好ましい。
また、領域A,Bを、中心領域Ac,Bcと、中心領域Ac,Bcを除く外側領域Ae,Beとにそれぞれ分割する。中心領域Ac,Bcは、X軸方向の長さが「m2」、Y軸方向の長さが「n2」の長方形状に設定している。X軸方向の長さ「m2」は、m1の1/2〜1/20の範囲(m1×1/2〜m1×1/20)が好ましく、m1の1/4〜1/10の範囲(m1×1/4〜m1×1/10)がより好ましい。Y軸方向の長さ「n2」は、n1の1/2〜1/20の範囲(n1×1/2〜n1×1/20)が好ましく、n1の1/4〜1/10の範囲(n1×1/4〜n1×1/10)がより好ましい。
In the present embodiment, when the display image is partitioned, each region is partitioned so as to be a rectangular region having a length in the X-axis direction of “m1” and a length in the Y-axis direction of “n1”. (See FIG. 3). The length “m1” in the X-axis direction is preferably in the range of 1/26 to 10/26 (W × 1/26 to W × 10/26) of the lateral width W of the display 4 (see FIG. 1). A range of 4/26 to 6/26 (W × 4/26 to W × 6/26) of the lateral width W is more preferable. The length “n1” in the Y-axis direction is preferably in the range of 1/20 to 8/20 of the vertical width H of the display 4 (H × 1/20 to H × 8/20). The range of 3/20 to 4.5 / 20 (H × 3/20 to H × 4.5 / 20) is more preferable.
Further, the regions A and B are divided into center regions Ac and Bc and outer regions Ae and Be excluding the center regions Ac and Bc, respectively. The center regions Ac and Bc are set in a rectangular shape having a length in the X-axis direction of “m2” and a length in the Y-axis direction of “n2”. The length “m2” in the X-axis direction is preferably in the range of 1/2 to 1/20 of m1 (m1 × 1/2 to m1 × 1/20), and is in the range of 1/4 to 1/10 of m1 ( m1 × 1/4 to m1 × 1/10) is more preferable. The length “n2” in the Y-axis direction is preferably in the range of 1/2 to 1/20 of n1 (n1 × 1/2 to n1 × 1/20), and is in the range of 1/4 to 1/10 of n1 ( n1 × 1/4 to n1 × 1/10) is more preferable.
PC3は、ディスプレイ4に評価画像を表示する際、同図1に示されるように、領域Bに、学習しようとする英単語に相当する画像(ここでは犬の画像)を座標(X,Y)を中心として評価画像に重畳して表示する。この犬の画像は、本実施形態における学習画像6に相当する。
When the
このようにPC3は、領域Bに学習画像6を表示し、当該学習画像6の表示を開始してからの経過時間である表示時間Tdの計時を開始する(ステップS103)。
次に、PC3は、評価画像を取得し、ディスプレイ4に表示する(ステップS104)。このように、ステップS104の実行毎に最新の画像を評価画像とするが、評価画像に対しては、都度同じ座標系を設定するとともにステップS102にて設定した領域B、外側領域Beと同等の領域をそれぞれ領域B、外側領域Beとして設定する。
In this way, the
Next, the
次に、PC3は、評価画像における領域Bの外側領域Beと、基準画像における領域Aの外側領域Beの2次元相関係数rを算出する(ステップS105)。
本実施形態では、以下の数1を用いて2次元相関係数rを算出する。
In the present embodiment, the two-dimensional correlation coefficient r is calculated using the following
図3(a)に、基準画像における領域Aの拡大図を示す。また、図3(b)に、評価画像における領域Bの拡大図を示す。なお、同図3(b)には、領域Bに使用者5の手(本発明の「所定部位」に相当)が位置する場合を示す。 FIG. 3A shows an enlarged view of the region A in the reference image. FIG. 3B shows an enlarged view of the region B in the evaluation image. FIG. 3B shows a case where the hand of the user 5 (corresponding to the “predetermined part” of the present invention) is located in the region B.
基準画像における領域Aの外側領域Aeの階調値と、評価画像における領域Bの外側領域Beの階調値とが異なる場合は、基準画像が撮像されたときから評価画像が撮像されるまでの間に、その領域において何らかの変化が生じたこと、例えば、図3(b)に示されるように、学習画像6が表示される領域に使用者5の身体の一部(ここでは手)が入ってきたという変化が生じたことが考えられる。 When the gradation value of the outer area Ae of the area A in the reference image is different from the gradation value of the outer area Be of the area B in the evaluation image, the period from when the reference image is captured until the evaluation image is captured In the meantime, some change occurred in the area, for example, as shown in FIG. 3B, a part of the body of the user 5 (in this case, a hand) enters the area where the learning image 6 is displayed. It is possible that a change has occurred.
そこで、本実施形態では、基準画像における領域Aの外側領域Aeの階調値と、評価画像における領域Bの外側領域Beの階調値との2次元相関係数rを算出し(ステップS105)、この2次元相関係数rが基準値C以下であるか否かを判断する(ステップS106)。 Therefore, in the present embodiment, a two-dimensional correlation coefficient r between the gradation value of the outer area Ae of the area A in the reference image and the gradation value of the outer area Be of the area B in the evaluation image is calculated (step S105). Then, it is determined whether or not the two-dimensional correlation coefficient r is equal to or less than the reference value C (step S106).
これにより、この領域に使用者5の身体の一部が位置しているか否かを判断する。なお、上述した数1からわかるように、外側領域Aeの階調値と外側領域Beの階調値とが近いときほど、2次元相関係数rは高い値となる。
基準値Cは、実験等を通じて予め定められている。具体的には、基準値Cは、0.5〜1.0の範囲が好ましい。より好ましくは、0.8〜0.99の範囲が好ましい。基準値Cが1.0を超えたり、0.5の範囲未満であると、学習画像6が表示される領域に使用者5の手が位置するか否かについて適切に判断することが困難となる。
Thereby, it is determined whether a part of the body of the
The reference value C is determined in advance through experiments or the like. Specifically, the reference value C is preferably in the range of 0.5 to 1.0. More preferably, the range of 0.8 to 0.99 is preferable. If the reference value C exceeds 1.0 or is less than 0.5, it is difficult to appropriately determine whether or not the hand of the
2次元相関係数rが基準値C以下であると判断する場合(ステップS106:YES)、すなわち、評価画像における領域Bに使用者5の手が位置していると判断する場合、学習画像6に基づく情報を提供し、表示時間Tdをクリアする(ステップS108)。本実施形態では、犬(本実施形態における学習画像6)に相当する英単語および犬の鳴き声を音声発生部3aから発生させるとともに、表示した犬が歩き去るようなアニメーションを表示させる。または、犬の画像を犬に相当する英単語「Dog」に変化させる。このように学習画像6に基づく情報を提供する際、学習画像6は消去する。
When it is determined that the two-dimensional correlation coefficient r is equal to or less than the reference value C (step S106: YES), that is, when it is determined that the hand of the
一方、2次元相関係数rが基準値Cを超えていると判断する場合(ステップS106:NO)、すなわち、評価画像における領域Bに使用者5の手が位置していないと判断する場合、次に学習画像6の表示時間Tdが最長表示時間Tdmaxを超えたか否かを判断する(ステップS107)。
On the other hand, when it is determined that the two-dimensional correlation coefficient r exceeds the reference value C (step S106: NO), that is, when it is determined that the hand of the
なお、最長表示時間Tdmaxは、表示時間TdがステップS108の処理でクリアされない場合に、学習画像6がディスプレイ4に継続して表示される最も長い時間であり、評価画像の取得周期である所定時間Teよりも長い時間に予め設定されている。
The longest display time Tdmax is the longest time for which the learning image 6 is continuously displayed on the
表示時間Tdが最長表示時間Tdmax以下であると判断する場合(ステップS107:NO)、ステップS104以降の処理を実行する。
一方、表示時間Tdが最長表示時間Tdmaxを超えたと判断する場合(ステップS107:YES)、次に現在ディスプレイ4に表示されている学習画像6を消去し、表示時間Tdをクリアするする(ステップS109)。
When it is determined that the display time Td is equal to or shorter than the longest display time Tdmax (step S107: NO), the processing after step S104 is executed.
On the other hand, when it is determined that the display time Td has exceeded the longest display time Tdmax (step S107: YES), the learning image 6 currently displayed on the
次に、PC3は、学習時間Tpが所定時間Tpcを超えたか否かを判断する(ステップS110)。なお、所定時間Tpcは、学習支援装置1を継続して使用するのに適当な時間として予め定められる所定の時間であり、学習画像6の最長表示時間Tdmaxよりも長い時間に予め設定されている。なお、所定時間Tpcは、0.5〜10秒の範囲が好ましい。より好ましくは、2〜5秒の範囲が好ましい。
Next, the
学習時間Tpが所定時間Tpcを超えたと判断する場合(ステップS110:YES)、この処理を終了する。一方、学習時間Tpが所定時間Tpc以下であると判断する場合(ステップS110:NO)、ステップS101以降の処理を実行する。 When it is determined that the learning time Tp has exceeded the predetermined time Tpc (step S110: YES), this process is terminated. On the other hand, when it is determined that the learning time Tp is equal to or shorter than the predetermined time Tpc (step S110: NO), the processing after step S101 is executed.
ところで、非特許文献1に記載されるように、近年、軽い身体運動により身体運動中の心拍数が上昇するにつれて学習能率が向上する一方、過度な身体運動により心拍数が上昇しすぎると学習能率が低下することが明らかになりつつある。そこで、本実施形態では、運動強度が所定の範囲におさまるように、最長表示時間Tdmaxおよび座標(X,Y)を設定する。
具体的には、例えば、酸素摂取量で表わすと、使用者5の酸素摂取量が2〜4METsとなるように最長表示時間Tdmaxおよび座標(X,Y)を設定することが好ましく、酸素摂取量が3METsとなるように、最長表示時間Tdmaxおよび座標(X,Y)を設定することがより好ましい。
より具体的には、最長表示時間Tdmaxが20秒〜300秒の範囲に設定されることが好ましく、30秒〜120秒の範囲に設定されることがより好ましい。
By the way, as described in
Specifically, for example, when expressed in terms of oxygen intake, it is preferable to set the longest display time Tdmax and coordinates (X, Y) so that the oxygen intake of the
More specifically, the longest display time Tdmax is preferably set in the range of 20 seconds to 300 seconds, and more preferably in the range of 30 seconds to 120 seconds.
上記実施形態によれば、以下に記載する作用効果を奏することができる。
(1)上記実施形態によれば、使用者5が身体を動かし、学習画像6(本実施形態では犬の画像)が表示される領域に所定部位を位置させると、学習画像6に基づく情報が使用者に提供される。すなわち、使用者5は、犬に相当する英単語および犬の鳴き声に関する音声、表示した犬の画像が歩き去るようなアニメーション等を得ることができる。このため、使用者5が学習画像6が表示される領域に所定部位が位置するよう学習画像6の表示領域に応じて身体を動かし、所定部位が領域に位置した場合は、使用者5は学習画像6に基づいた視覚変化や聴覚変化を得ることができる。このため、使用者5は、身体を動かしながら聴覚や視覚変化を通じて英語学習を行うことができることとなり、楽しみながら、効率よく学習を進めることができる。
According to the said embodiment, there can exist an effect described below.
(1) According to the above embodiment, when the
(2)また、選択した領域に所定部位が位置するか否かについて、領域Aの外側領域Aeの諧調値と領域Bの外側領域Beの諧調値とに基づいて判断するため、領域Aの諧調値と領域Bの諧調値とに基づいて判断する場合よりも、精度が高い。換言すると、領域Aの諧調値と領域Bの諧調値とに基づいて判断する場合と比較して、より正確に領域Aに所定部位が位置するか否かを判断することができる。 (2) Since whether or not a predetermined part is located in the selected area is determined based on the gradation value of the outer area Ae of the area A and the gradation value of the outer area Be of the area B, the gradation of the area A is determined. The accuracy is higher than in the case where the determination is made based on the value and the gradation value of the region B. In other words, it can be determined whether or not the predetermined part is located in the region A more accurately than in the case where the determination is based on the gradation value of the region A and the gradation value of the region B.
(3)また、運動強度が所定の範囲におさまるように、最長表示時間Tdmaxおよび座標(X,Y)を設定しているため、使用者5は、身体運動を行い、効率よく学習することができる。
(3) Since the longest display time Tdmax and the coordinates (X, Y) are set so that the exercise intensity falls within a predetermined range, the
(第二実施形態)
以下、本発明を具体化した第二実施形態を上記第一実施形態と異なる点を中心に図4および図5に基づいて説明する。なお、これら図4および図5において、第一実施形態にて説明した各要素と同一の要素についてはそれぞれ同一の符号を示しており、それら要素についての重複する説明は割愛する。
(Second embodiment)
Hereinafter, a second embodiment embodying the present invention will be described based on FIG. 4 and FIG. 5 with a focus on differences from the first embodiment. 4 and 5, the same elements as those described in the first embodiment are denoted by the same reference numerals, and redundant description of these elements is omitted.
図4に示されるように、この第二実施形態の学習支援装置1は、ディスプレイ4(本発明の「表示画面」に相当)の中央上部に配設される中央カメラ7(本発明の「撮像手段」に相当)に加えて、ディスプレイ4の片側上部に配設される端側カメラ8(本発明の「撮像手段」に相当)を備えている。
As shown in FIG. 4, the
中央カメラ7および端側カメラ8は、ディスプレイ4に対面する使用者5を含む撮像空間を撮像する。この中央カメラ7および端側カメラ8の撮像空間は、ディスプレイ4に対面して起立した使用者5の全身が収まる範囲であればよい。また、これら中央カメラ7および端側カメラ8は、所定時間Teの経過毎にディスプレイ4に対面する使用者5を含む撮像空間の画像を撮像して、それぞれPC3(本発明の「表示手段」、「判断手段」に相当)に出力している。
The
PC3(本発明の「表示手段」、「判断手段」に相当)は、中央カメラ7および端側カメラ8から出力される画像情報に基づいて、使用者5とディスプレイ4との間の距離D2を算出し、この距離D2が所定の距離にあるか否かを判断する。そして、距離D2が所定の距離にあると判断したときには第一実施形態にて説明した画像処理を開始し、距離D2が所定の距離にないと判断したときには第一実施形態にて説明した画像処理を実行しないようにしている。
The PC 3 (corresponding to “display means” and “determination means” of the present invention) determines the distance D 2 between the
以下、図5を参照しながら、この使用者5とディスプレイ4との間の距離D2を算出する距離算出処理について説明する。
同図5に示されるように、この距離算出処理が開始されると、まずPC3を用いて想定距離D1を設定する(ステップS200)。想定距離D1は、ディスプレイ4に対面して起立した使用者5の全身画像がディスプレイ4に適切な大きさで表示されるために必要な距離である。距離D1は、予め設定されていてもよいし、使用者5や管理者が都度設定するようにしてもよい。距離D1を予め設定する場合、距離D1は、1〜6mの範囲が好ましい。より好ましくは、3〜4mの範囲が好ましい。
Hereinafter, a distance calculation process for calculating the distance D2 between the
As shown in FIG. 5, when the distance calculation process is started, first, an assumed distance D1 is set using the PC 3 (step S200). The assumed distance D <b> 1 is a distance necessary for the whole body image of the
次に、PC3は、以下に説明するステップS201〜S205の処理と並行して、以下に説明するステップS206〜S210の処理を実行する。
Next, the
まず、ステップS201〜S205の処理について説明する。上述したように、想定距離D1を設定した(ステップS200)後、PC3は中央カメラ7が撮像してPC3に出力した画像(本発明の「表示画像」に相当)のうち、最新の画像を取得する(ステップS201)。そして、取得した画像に対して白と黒の2階調に変換する2値化処理を施す(ステップS202)。
First, the processing of steps S201 to S205 will be described. As described above, after setting the assumed distance D1 (step S200), the
そして、前回の制御周期で取得して2値化処理を施した画像と、今回の制御周期で取得して2値化処理を施した画像との差分画像を生成する(ステップS203)。ここで、前回の制御周期で取得した画像と今回の制御周期で取得した画像との間の差分は、白画素として認識される。 Then, a difference image between the image acquired in the previous control cycle and subjected to the binarization process and the image acquired in the current control cycle and subjected to the binarization process is generated (step S203). Here, the difference between the image acquired in the previous control cycle and the image acquired in the current control cycle is recognized as a white pixel.
前回の制御周期で取得した画像と今回の制御周期で取得した画像との間の差分は、ディスプレイ4に対面した何らかのものの動き、すなわちディスプレイ4に対面して起立した使用者5の動きに起因したものであると考えられる。そこで、PC3は、この差分画像中に白画素を検出したか否かを判断する(ステップS204)。
白画素を検出したと判断する場合(ステップS204:YES)、この白画素が検出された位置に使用者5が位置しているとして、その座標を(X1,Y1)として記憶する(ステップS205)。
The difference between the image acquired in the previous control cycle and the image acquired in the current control cycle is due to the movement of something facing the
If it is determined that a white pixel has been detected (step S204: YES), the
一方、白画素を検出していないと判断する場合(ステップS204:NO)、すなわち、前回撮像した画像と今回撮像した画像との間に変化がないと判断する場合、ステップS201〜S204の処理を再び実行する。 On the other hand, when it is determined that no white pixel is detected (step S204: NO), that is, when it is determined that there is no change between the previously captured image and the current captured image, the processing of steps S201 to S204 is performed. Run again.
次に、ステップS206〜S210の処理について説明する。上述したように、想定距離D1を設定した(ステップS200)後、PC3は端側カメラ8が撮像してPC3に出力した画像(本発明の「表示画像」に相当)のうち、最新の画像を取得する(ステップS206)。そして、取得した画像に対して白と黒の2階調に変換する2値化処理を施す(ステップS207)。
Next, the process of steps S206 to S210 will be described. As described above, after setting the assumed distance D1 (step S200), the
そして、前回の制御周期で取得して2値化処理を施した画像と、今回の制御周期で取得して2値化処理を施した画像との差分画像を生成する(ステップS208)。次に、PC3は、この差分画像中に白画素を検出したか否かを判断する(ステップS209)。
Then, a difference image between the image acquired in the previous control cycle and subjected to the binarization process and the image acquired in the current control cycle and subjected to the binarization process is generated (step S208). Next, the
白画素を検出したと判断する場合(ステップS209:YES)、この白画素が検出された位置に使用者5が位置しているとして、その座標を(X2,Y2)として記憶する(ステップS210)。
一方、白画素を検出していないと判断する場合(ステップS209:NO)、すなわち、前回撮像した画像と今回撮像した画像との間に変化がないと判断する場合、ステップS206〜ステップS209の処理を再び実行する。
If it is determined that a white pixel has been detected (step S209: YES), the
On the other hand, when it is determined that no white pixel is detected (step S209: NO), that is, when it is determined that there is no change between the image captured last time and the image captured this time, the processing of step S206 to step S209 is performed. Run again.
このように、ステップS201〜S205の処理、およびステップS206〜S210の処理を実行した後、上述した処理で記憶した座標(X1,Y1)、(X2,Y2)および中央カメラ7と端側カメラ8との間の距離とに基づいて、使用者5とディスプレイ4との間の距離D2を算出する(ステップS211)。
As described above, after executing the processing of steps S201 to S205 and the processing of steps S206 to S210, the coordinates (X1, Y1) and (X2, Y2) stored in the above-described processing, the
次に、この距離D2が想定距離D1−αよりも大きく、且つ想定距離D1+α以下であるか否かを判断する(ステップS212)。なお、αは、0.5〜1mの範囲が好ましい。より好ましくは、0.0〜0.1mの範囲が好ましい。
そして、距離D2が想定距離D1−αよりも大きく、且つ想定距離D1+α以下であると判断する場合(ステップS212:YES)、この処理を一旦終了する。この場合は、第一実施形態で説明した画像処理を実行する。
Next, it is determined whether or not the distance D2 is larger than the assumed distance D1−α and equal to or smaller than the assumed distance D1 + α (step S212). In addition, (alpha) has the preferable range of 0.5-1 m. More preferably, the range of 0.0-0.1 m is preferable.
When it is determined that the distance D2 is greater than the assumed distance D1-α and not more than the assumed distance D1 + α (step S212: YES), this process is temporarily terminated. In this case, the image processing described in the first embodiment is executed.
一方、距離D2が想定距離D1−α以下である、もしくは想定距離D1+αよりも大きいと判断する場合(ステップS212:NO)、ステップS201以降の処理およびステップS206以降の処理を実行する。 On the other hand, when it is determined that the distance D2 is equal to or less than the assumed distance D1-α (step S212: NO), the processing after step S201 and the processing after step S206 are executed.
上記実施形態によれば、上記(1)〜(3)に加え、以下に記載する作用効果を奏することができる。 According to the said embodiment, in addition to said (1)-(3), there can exist the effect described below.
(4)同実施形態によれば、ディスプレイ4に対面する使用者5を含む撮像空間に使用者5以外に動くものがあった場合であっても、そのものとディスプレイ4との間の距離が、想定距離D1−α以下である、または想定距離D1+αよりも大きい場合は、画像処理は開始されない。このため、使用者5以外の動くものが撮像された場合であっても、これが使用者5と誤認されることを抑制することができる。
(4) According to the embodiment, even if there is something other than the
(5)また、前回の制御周期で取得した画像と今回の制御周期で評価画像との差分画像を用いて使用者5とディスプレイ4との間の距離D2を算出するようにしているため、簡易な構成で使用者5の位置を算出することができるようになる。
(5) In addition, since the distance D2 between the
(第三実施形態)
以下、本発明を具体化した第三実施形態を上記第一実施形態と異なる点を中心に図6〜図8に基づいて説明する。なお、これら図6〜図8において、第一実施形態にて説明した各要素と同一の要素についてはそれぞれ同一の符号を示しており、それら要素についての重複する説明は割愛する。
(Third embodiment)
Hereinafter, a third embodiment of the present invention will be described based on FIGS. 6 to 8 with a focus on differences from the first embodiment. In addition, in these FIGS. 6-8, the same code | symbol is shown about the element same as each element demonstrated in 1st embodiment, The overlapping description about these elements is omitted.
図6に示されるように、この第三実施形態の学習支援装置1は、ディスプレイ4(本発明の「表示画面」に相当)の中央上部に配設される中央カメラ7(本発明の「撮像手段」に相当)に加えて、ディスプレイ4の片側上部に配設される端側カメラ8(本発明の「撮像手段」に相当)を備えている。
As shown in FIG. 6, the learning
中央カメラ7および端側カメラ8は、ディスプレイ4に対面する使用者5を含む撮像空間を撮像する。この中央カメラ7および端側カメラ8の撮像空間は、ディスプレイ4に対面して起立した使用者5の全身が収まる範囲であればよい。また、これら中央カメラ7および端側カメラ8は、所定時間Teの経過毎にディスプレイ4に対面する使用者5を含む撮像空間の画像を撮像して、それぞれPC3(本発明の「表示手段」、「判断手段」に相当)に出力している。
The
PC3は、表示画像の所定位置の点(例えば、ディスプレイ4上の左下隅の点)を原点とし、横方向の座標をX軸、縦方向の座標をY軸、これらX軸およびY軸にそれぞれ直交する方向の座標をZ軸として、学習画像6を表示する座標(X,Y,Z)を設定する。本実施形態では、中央カメラ7および端側カメラ8からPC3に出力される画像を表示画像とする。また、これら表示画像のうち、中央カメラ7からPC3に出力される画像を特に基準画像や評価画像として本処理に使用する。また、学習画像6を表示する座標は、中央カメラ7から出力される画像に対して設定する。
The
なお、本実施形態において、Z軸は、ディスプレイ4上の点を原点とし、奥行き方向を正方向とする軸である。そして、Z軸座標の値が大きい値に設定されたときほど、ディスプレイ4に表示される学習画像6の領域を小さくするようにしている。
In the present embodiment, the Z axis is an axis having a point on the
そして、PC3は、中央カメラ7および端側カメラ8からそれぞれ取得される画像に基づいて、使用者5とディスプレイ4との間の距離D2を算出し、この距離D2が上述したように設定されるZ軸座標の値に相当する距離にあるか否かを判断するようにしている。
Then, the
以下、PC3に出力される画像の処理手順について図7を参照しながら詳細に説明する。
同図7に示されるように、本処理が開始されると、まず、PC3は学習時間Tpの計時を開始し(ステップS300)、次に中央カメラ7にて撮像された基準画像を取得する(ステップS301)。そして、学習画像6を表示する座標(X,Y,Z)を設定する(ステップS302)。
Hereinafter, the processing procedure of the image output to the
As shown in FIG. 7, when this processing is started, first, the
次に、PC3は、設定した座標(X,Y)を中心とする領域に学習画像6を表示する(ステップS303)。この際、PC3は、Z軸座標の値が大きい値に設定されたときほど、すなわち学習画像6が使用者5から見て遠くにあるときほど、当該学習画像6を小さく表示する。また、当該学習画像6の表示時間Tdの計時を開始する(ステップS303)。
Next, the
そして、PC3は、評価画像(本発明の「表示画像」に相当)を取得してディスプレイ4に表示する(ステップS304)。このように、ステップS304の実行毎に最新の画像を評価画像とするが、評価画像に対しては、都度同じ座標系を設定するとともにステップS302にて設定した領域Bと同等の領域を領域Bとする。
次に、3次元座標算出処理を実行する(ステップS305)。
Then, the
Next, a three-dimensional coordinate calculation process is executed (step S305).
次に、図8を参照しながら3次元座標算出処理について説明する。
同図8に示されるように、本処理が開始されると、PC3は、まず以下に説明するステップS330〜S334の処理と並行して、以下に説明するステップS335〜S339の処理を実行する。
Next, the three-dimensional coordinate calculation process will be described with reference to FIG.
As shown in FIG. 8, when this process is started, the
まず、ステップS330〜S334の処理について説明する。
PC3は、中央カメラ7が撮像してPC3に出力した画像のうち、最新の画像(評価画像)を第一実施形態にて説明した方法に準じた方法で複数の領域に区画し、領域B(学習画像6を表示する領域)の画像を取得する(ステップS330)。そして、この画像に対して白と黒の2階調に変換する2値化処理を施す(ステップS331)。
First, the process of steps S330 to S334 will be described.
Of the images captured by the
次に、前回の制御周期で取得して2値化処理を施した領域Bの画像と、今回の制御周期で取得して2値化処理を施した領域Bの画像との差分画像を生成する(ステップS332)。そして、この差分画像中に白画素を検出したか否かを判断する(ステップS333)。
白画素を検出したと判断する場合(ステップS333:YES)、検出した白画素の座標を(X1,Y1)として記憶する(ステップS334)。
Next, a difference image is generated between the image of the region B acquired in the previous control cycle and subjected to the binarization processing and the image of the region B acquired in the current control cycle and subjected to the binarization processing. (Step S332). And it is judged whether the white pixel was detected in this difference image (step S333).
If it is determined that a white pixel has been detected (step S333: YES), the coordinates of the detected white pixel are stored as (X1, Y1) (step S334).
一方、白画素を検出していないと判断する場合(ステップS333:NO)、すなわち、前回撮像した画像と今回撮像した画像との間に変化がないと判断する場合、ステップS330〜S332の処理を再び実行する。 On the other hand, when it is determined that no white pixel is detected (step S333: NO), that is, when it is determined that there is no change between the previously captured image and the current captured image, the processing of steps S330 to S332 is performed. Run again.
次に、ステップS335〜S339の処理について説明する。
PC3は、端側カメラ8が撮像してPC3に出力した表示画像のうち、最新の画像に対して評価画像と同様の座標系を設定し、複数の領域に区画する。そして、評価画像で設定した座標(X,Y)に相当する座標を中心とする、領域Bに相当する領域の画像を取得する(ステップS335)。そして、この領域の画像に対して白と黒の2階調に変換する2値化処理を施す(ステップS336)。
Next, processing in steps S335 to S339 will be described.
The
次に、前回の制御周期で端側カメラ8から取得して2値化処理を施した領域の画像と、今回の制御周期で端側カメラ8から取得して2値化処理を施した領域の画像との差分画像を生成する(ステップS337)。次に、PC3は、この差分画像中に白画素を検出したか否かを判断する(ステップS338)。
Next, an image of the area obtained from the
白画素を検出したと判断する場合(ステップS338:YES)、検出した白画素の座標を(X2,Y2)として記憶する(ステップS339)。
一方、白画素を検出していないと判断する場合(ステップS338:NO)、すなわち、前回撮像した画像と今回撮像した画像との間に変化がないと判断する場合、ステップS335〜ステップS337の処理を再び実行する。
If it is determined that a white pixel has been detected (step S338: YES), the coordinates of the detected white pixel are stored as (X2, Y2) (step S339).
On the other hand, when it is determined that no white pixel is detected (step S338: NO), that is, when it is determined that there is no change between the previously captured image and the current captured image, the processing of steps S335 to S337 is performed. Run again.
このように、ステップS330〜S334の処理、およびステップS335〜S339の処理を実行した後、上述の処理で記憶した座標(X1,Y1)および(X2,Y2)に基づいて、使用者5とディスプレイ4との間の距離D2を算出する(ステップS340)。
As described above, after executing the processing of steps S330 to S334 and the processing of steps S335 to S339, based on the coordinates (X1, Y1) and (X2, Y2) stored in the above processing, the
このような3次元座標算出処理を実行した後(ステップS305)、PC3は、次に算出した距離D2が所定範囲にあるか否かを判断する(ステップS306)。次に、距離D2が所定範囲にあるか否かの判断方法について図9を参照しながら説明する。
After executing such a three-dimensional coordinate calculation process (step S305), the
同図9(a)に示されるように、例えば、Z軸座標の値「Z」が小さい値に設定されたときには、学習画像6が使用者5から近いところに表示されるように見えるべく、学習画像6を大きく表示する。このときには、使用者5がディスプレイ4から離れたこと、すなわち使用者5とディスプレイ4との間の距離D2が大きくなったことをもって、使用者5が所定範囲にあると判断する。
一方、Z軸座標の値「Z」が大きい値に設定されたときには、同図9(b)に示されるように、学習画像6が使用者5から遠いところに表示されるように見えるべく、学習画像6を小さく表示する。このときには、使用者5がディスプレイ4に近づいたこと、すなわち使用者5とディスプレイ4との間の距離D2が小さくなったことをもって、使用者5が所定範囲にあると判断する。
As shown in FIG. 9A, for example, when the Z-axis coordinate value “Z” is set to a small value, the learning image 6 appears to be displayed near the
On the other hand, when the Z-axis coordinate value “Z” is set to a large value, as shown in FIG. 9B, the learning image 6 appears to be displayed far from the
このように、Z軸座標の値「Z」が大きい値に設定されたときには、距離D2が小さくなることをもって、Z軸座標の値「Z」が小さい値に設定されたときには、距離D2が大きくなることをもって使用者5が所定範囲にあると判断する。
このため、本実施形態では、Z軸座標の値「Z」と距離D2との和が所定値D3になることをもって、距離D2が所定範囲にあると判断する。
Thus, when the Z-axis coordinate value “Z” is set to a large value, the distance D2 decreases, and when the Z-axis coordinate value “Z” is set to a small value, the distance D2 increases. Therefore, it is determined that the
For this reason, in the present embodiment, when the sum of the Z-axis coordinate value “Z” and the distance D2 becomes the predetermined value D3, it is determined that the distance D2 is within the predetermined range.
距離D2が所定範囲にあると判断する場合(ステップS306:YES)、次に評価画像において学習画像6が表示される領域Bの階調値と、基準画像における領域Aの階調値との2次元相関係数rを算出する(ステップS307)。そして、この2次元相関係数rが基準値C以下であるか否かを判断する(ステップS308)。 When it is determined that the distance D2 is within the predetermined range (step S306: YES), the gradation value of the area B where the learning image 6 is next displayed in the evaluation image and the gradation value of the area A in the reference image are 2 A dimension correlation coefficient r is calculated (step S307). And it is judged whether this two-dimensional correlation coefficient r is below the reference value C (step S308).
2次元相関係数rが基準値C以下であると判断する場合(ステップS308;YES)、学習画像6に基づく情報を提供し、表示時間Tdをクリアする(ステップS310)。具体的には、第一実施形態にて示したように、犬に相当する英単語および犬の鳴き声を音声発生部3aから発生させるとともに、表示した犬が歩き去るようなアニメーションを表示させる。または、犬の画像を犬を示す英単語「Dog」に変化させる。
When it is determined that the two-dimensional correlation coefficient r is equal to or less than the reference value C (step S308; YES), information based on the learning image 6 is provided and the display time Td is cleared (step S310). Specifically, as shown in the first embodiment, an English word corresponding to a dog and a bark of a dog are generated from the
2次元相関係数rが基準値Cを超えていると判断する場合(ステップS308:NO)、および距離D2が所定範囲内にないと判断する場合(ステップS306:NO)、学習画像6の表示時間Tdが最長表示時間Tdmaxを超えているか否かを判断する(ステップS309)。 When it is determined that the two-dimensional correlation coefficient r exceeds the reference value C (step S308: NO), and when it is determined that the distance D2 is not within the predetermined range (step S306: NO), the learning image 6 is displayed. It is determined whether or not the time Td exceeds the longest display time Tdmax (step S309).
表示時間Tdが最長表示時間Tdmax以下であると判断する場合(ステップS309:NO)、ステップS304以降の処理を実行する。 When it is determined that the display time Td is equal to or shorter than the longest display time Tdmax (step S309: NO), the processing after step S304 is executed.
一方、表示時間Tdが最長表示時間Tdmaxを超えたと判断する場合(ステップS309:YES)、次に現在ディスプレイ4に表示されている学習画像6を消去し、表示時間Tdをクリアする(ステップS311)。
On the other hand, when it is determined that the display time Td has exceeded the longest display time Tdmax (step S309: YES), the learning image 6 currently displayed on the
次に、PC3は、学習時間Tpが所定時間Tpcを超えたか否かを判断する(ステップS312)。学習時間Tpが所定時間Tpcを超えたと判断する場合(ステップS312:YES)、この処理を終了する。一方、学習時間Tpが所定時間Tpc以下であると判断する場合(ステップS312:NO)、ステップS301以降の処理を実行する。
Next, the
第一実施形態にて説明したように、近年、軽い身体運動により身体運動中の心拍数が上昇するにつれて学習能率が向上する一方、過度な身体運動により心拍数が上昇しすぎると学習能率が低下することが明らかになりつつある。そこで、本実施形態では、運動強度が所定の範囲におさまるように、最長表示時間Tdmaxおよび座標(X,Y,Z)を設定することが好ましい。 As described in the first embodiment, in recent years, learning efficiency improves as the heart rate during physical exercise increases due to light physical exercise, while learning efficiency decreases when the heart rate increases excessively due to excessive physical exercise. It is becoming clear. Therefore, in the present embodiment, it is preferable to set the longest display time Tdmax and the coordinates (X, Y, Z) so that the exercise intensity falls within a predetermined range.
上記実施形態によれば、上記(1)〜(3)に加え、以下に記載する作用効果を奏することができる。
(6)本実施形態によれば、使用者5は、X軸方向およびY軸方向のみならずZ軸方向(前後方向)にも動くこととなる。このため、使用者5が動く範囲が大きくなり、より好的に運動強度を向上させ、ひいては学習能率を向上させることができるようになる。
According to the said embodiment, in addition to said (1)-(3), there can exist the effect described below.
(6) According to the present embodiment, the
(第四実施形態)
以下、本発明を具体化した第四実施形態を上記第一実施形態と異なる点を中心に図10および図11に基づいて説明する。なお、図10および図11において、第一実施形態にて説明した各要素と同一の要素についてはそれぞれ同一の符号を示しており、それら要素についての重複する説明は割愛する。
(Fourth embodiment)
Hereinafter, a fourth embodiment embodying the present invention will be described based on FIG. 10 and FIG. 11 with a focus on differences from the first embodiment. 10 and 11, the same reference numerals are given to the same elements as those described in the first embodiment, and redundant description of these elements is omitted.
図10に示されるように、この第四実施形態の学習支援装置1は、ディスプレイ4(本発明の「表示画面」に相当)の中央上部に配設される第一カメラ10(本発明の「撮像手段」に相当)および第二カメラ11(本発明の「撮像手段」に相当)に加えて、赤外光を照射する赤外光ライト13を備えている。
As shown in FIG. 10, the
第一カメラ10および第二カメラ11は、撮像範囲がディスプレイ4に対向して起立した使用者5の全身が収まる範囲となるように配設されている。また、第一カメラ10の受光部には、赤外光のみを透過するフィルタ12が取り付けられている。このため、第一カメラ10は、赤外光のみからなる赤外光画像を撮像することとなる。
また、これら第一カメラ10および第二カメラ11は、所定時間Teの経過毎にディスプレイ4に対面する使用者5を含む撮像空間を撮像して、それぞれPC3(本発明の「表示手段」、「判断手段」に相当)に出力している。
The
The
本実施形態では、第一カメラ10および第二カメラ11からPC3に出力される画像を表示画像とする。特に、第一カメラ10からPC3に出力される画像をディスプレイ4に表示し、第二カメラ11からPC3に出力される画像を基準画像や評価画像として本処理に使用する。
以下、PC3に出力される画像の処理手順について図11を参照しながら詳細に説明する。
In the present embodiment, an image output from the
Hereinafter, the processing procedure of the image output to the
同図11に示されるように、本処理が開始されると、まず、PC3は学習時間Tpの計時を開始し(ステップS400)、次に第二カメラ11にて撮像された可視光画像を取得してディスプレイ4に表示する(ステップS401)。
As shown in FIG. 11, when this process is started, first, the
そして、第一カメラ10にて撮像され、PC3に出力された画像のうち、本処理の開始時に最も近い時点で撮像された画像を基準画像として取得する(ステップS402)。また、最新の画像を評価画像として取得する(ステップS402)。
And the image imaged at the time nearest to the time of the start of this process among the images imaged with the
次に、第一カメラ10にて撮像され、PC3に出力された画像のうち、最新の画像(評価画像)に対して、上述した第一実施形態に準じた方法で学習画像6を表示する座標(X,Y)を設定する(ステップS403)。具体的には、評価画像を区画して形成される複数の領域のうち、ひとつの領域を選択し、この選択した領域(以下、領域B)の中心座標を座標(X,Y)として設定する。
Next, coordinates for displaying the learning image 6 by the method according to the above-described first embodiment with respect to the latest image (evaluation image) among the images captured by the
第一実施形態と同様に、基準画像と評価画像には、同じ座標系が設定される。PC3は、基準画像のうち、領域Bに対応する領域(基準画像において、設定した座標(X,Y)を中心とする領域)を領域Aとする。
Similar to the first embodiment, the same coordinate system is set for the reference image and the evaluation image. The
また、第二カメラ11からPC3に出力される可視光画像のうち、最新の画像に対して、第一カメラ10からPC3に出力された画像と同様の座標系を設定し、第一カメラ10からPC3に出力された画像と同様に複数の領域に区画する。そして、座標(X,Y)に相当する座標を中心とする、領域Bに相当する領域に学習画像6を表示して、当該学習画像6の表示時間Tdの計時を開始する(ステップS404)。
Moreover, the same coordinate system as the image output from the
次に、PC3は、第二カメラ11にて撮像された可視光画像をディスプレイ4に表示する(ステップS405)。このように、ステップS405の実行毎に最新の可視光画像をディスプレイ4に表示するが、これら可視光画像に対しては、都度同じ座標系を設定するとともにステップS403、S404にて設定した領域に学習画像6を表示し続ける。
Next, the
そして第一カメラ10にて撮像されPC3に出力される赤外光画像のうち、最新の画像を評価画像として取得する(ステップS406)。このように、ステップS406の実行毎に最新の赤外光画像を評価画像とするが、これら評価画像に対しては、都度同じ座標系を設定するとともに、都度ステップS403にて設定した領域Bと等しい位置に領域Bを設定する。
And the newest image is acquired as an evaluation image among the infrared-light images imaged with the
次に、PC3は、評価画像における領域Bの階調値と、基準画像における領域Aの階調値との2次元相関係数rを算出する(ステップS407)。そして、この2次元相関係数rが基準値C以下であるか否かを判断する(ステップS408)。
2次元相関係数rが基準値C以下であると判断する場合(ステップS408:YES)、学習画像6に基づく情報を提供し、表示時間Tdをクリアする(ステップS410)。
Next, the
When it is determined that the two-dimensional correlation coefficient r is equal to or less than the reference value C (step S408: YES), information based on the learning image 6 is provided and the display time Td is cleared (step S410).
一方、2次元相関係数rが基準値Cを超えていると判断する場合(ステップS408:NO)、すなわち、評価画像において学習画像6が表示される領域Bに使用者5の手が位置していないと判断する場合、次に学習画像6の表示時間Tdが最長表示時間Tdmaxを超えたか否かを判断する(ステップS409)。表示時間Tdが最長表示時間Tdmax以下であると判断する場合(ステップS409:NO)、ステップS405以降の処理を実行する。
On the other hand, when it is determined that the two-dimensional correlation coefficient r exceeds the reference value C (step S408: NO), that is, the hand of the
表示時間Tdが最長表示時間Tdmaxを超えていると判断する場合(ステップS409:YES)、次に現在ディスプレイ4に表示されている学習画像6を消去し、表示時間Tdをクリアする(ステップS411)。
When it is determined that the display time Td exceeds the longest display time Tdmax (step S409: YES), the learning image 6 currently displayed on the
次に、PC3は、学習時間Tpが所定時間Tpcを超えたか否かを判断する(ステップS412)。学習時間Tpが所定時間Tpcを超えたと判断する場合(ステップS412:YES)、この処理を終了する。一方、学習時間Tpが所定時間Tpc以下であると判断する場合(ステップS412:NO)、ステップS402以降の処理を実行する。
Next, the
上記実施形態によれば、上記(1)〜(3)に加えて以下に記載する作用効果を奏することができる。
(7)本実施形態によれば、赤外光ライト13から照射されて、使用者5に反射し、第一カメラ10にて撮像される赤外光を用いて使用者5の位置を検出することができる。このため、ディスプレイ4に対面する使用者5を含む空間に使用者5以外のものがあった場合、当該使用者5以外のものを使用者5と誤認することを抑制し、使用者5を適切に検出することができる。
According to the said embodiment, in addition to said (1)-(3), there can exist an effect described below.
(7) According to the present embodiment, the position of the
(その他の実施形態)
なお、この発明にかかる学習支援装置1は、上記実施形態にて例示した構成に限定されるものではなく、同実施の形態を適宜変更した例えば次のような形態として実施することもできる。また以下の各変形例は、上記実施形態についてのみ適用されるものではなく、異なる変形例同士を互いに組み合わせて実施することもできる。
(Other embodiments)
Note that the
・図12に示されるように、複数の領域を選択し、各領域にそれぞれ異なる学習画像6a〜6cを表示させてもよい。この場合、学習画像6a〜6cをディスプレイ4に表示させた後、PC3は、学習画像6a〜6cからひとつの学習画像を任意に選択する。例えば、学習画像6bを選択した場合、ディスプレイ4に学習画像6a〜6cを表示させた後、PC3は、学習画像6bを使用者5が選択するよう、何らかの指示を与える。図12の例で示すと、猫に相当する英単語(CAT)の音声を音声発生部3aから発生させる。その後、学習画像6bが表示される領域に使用者5の所定部位が位置する場合のみ、学習画像6bに基づく情報を提供し、学習画像6b以外の領域に所定部位が位置する場合は何の変化も与えないようにする。本変形例によれば、使用者5は、学習画像6bに基づく情報(本変形例では、猫に関する英単語の音声)を与えられた状態で、学習画像6a〜6cの中から学習画像6b(猫に関する画像)を選択するという作業を行うこととなる。このため、使用者5は、より好適に学習画像6bと学習画像6bに基づく情報とを対応づける学習を行うことができる。
As shown in FIG. 12, a plurality of areas may be selected and
・上記第三実施形態では、学習画像6をディスプレイ4の奥行き方向に表示するようにしたが、本発明の学習画像6の表示方法はこれに限られるものではない。例えば、ディスプレイ4から使用者5の方向へ飛び出すような態様で表示してもよい。
In the third embodiment, the learning image 6 is displayed in the depth direction of the
・画像処理の実行中、使用者5とディスプレイ4との間の距離D2を常時モニタして、この距離D2が想定距離D1にないと判断されたときに、画像処理を終了するようにしてもよい。
During the image processing, the distance D2 between the
・上記実施形態では、諧調値の2次元相関係数rを用いて学習画像6が表示される領域に使用者5の手が位置したか否かを判断するようにしたが、本発明の判断方法はこれに限られるものではなく、例えば、輝度の2次元相関係数rを用いて判断するようにしてもよい。
In the above embodiment, it is determined whether the hand of the
・上記実施形態では、学習画像6に基づく情報を、学習画像6(上記実施形態では犬)に相当する英単語の音声、アニメーション、または当該英単語の画像としたが、学習画像6に基づく情報はこれに限られるものではない。学習画像6に基づく情報として、振動を発生させるようにしてもよい。 In the above embodiment, the information based on the learning image 6 is the voice, animation, or image of the English word corresponding to the learning image 6 (the dog in the above embodiment). Is not limited to this. As information based on the learning image 6, vibration may be generated.
・上記実施形態では、カメラを1台ないし2台配設するようにしたが、配設するカメラの台数はこれに限られるものではなく、更に多くのカメラを配設してもよい。本変形例によれば、使用者5のZ軸方向における位置を精度よく検出することができる。
In the above embodiment, one or two cameras are arranged, but the number of cameras arranged is not limited to this, and more cameras may be arranged. According to this modification, the position of the
・上記実施形態では、カメラをディスプレイ4の上部に配設するようにしたが、本発明におけるカメラの配設位置はこれに限られるものではなく、使用者5の全身画像を撮像することができる位置であればよい。例えば、ディスプレイ4と使用者5を挟んで対向する位置に配設してもよい。
In the above embodiment, the camera is arranged on the upper part of the
・上記実施形態では、画像をディスプレイ4に表示するようにしたが、本発明の画像表示方法はこれに限られるものではない。例えば、PC3にプロジェクタを接続して、当該プロジェクタから画像を照射するようにしてもよい。
In the above embodiment, the image is displayed on the
・上記実施形態では、使用者5の手が所定部位に相当するとして説明したが、本発明はこれに限られるものではなく、使用者5のいずれかの部位を所定部位とすることができる。
In the above embodiment, it has been described that the
・上記実施形態では、英語学習に用いる例について説明したが、本発明を用いて学習できるものは、英語に限らない。例えば、中国語やフランス語といった他の外国語の学習に用いることもできる。また、語学に限るものではなく、何らかの記憶の定着を促すための学習であれば、他の分野の学習に用いることもできる。 In the above embodiment, an example used for English learning has been described, but what can be learned using the present invention is not limited to English. For example, it can be used for learning other foreign languages such as Chinese and French. Moreover, the learning is not limited to language, and can be used for learning in other fields as long as the learning is to promote the establishment of some kind of memory.
1…学習支援装置
2…カメラ
3…PC
4…ディスプレイ
5…使用者
6…学習画像
7…中央カメラ
8…端側カメラ
10…第一カメラ
11…第二カメラ
12…フィルタ
13…赤外光ライト
1 ... Learning support device 2 ...
4 ...
Claims (8)
前記表示画像を前記表示画面に表示するとともに、前記表示画像を区画して形成された複数の領域のうち少なくともひとつの領域に学習画像を表示する表示手段と、
前記学習画像が表示される領域に使用者の所定部位が位置するか否かを前記表示画像に基づいて判断する判断手段とを備え、
前記学習画像が表示される領域に前記所定部位が位置していると前記判断手段を通じて判断されたときには、前記表示手段は、前記学習画像に基づく情報を提供する
ことを特徴とする学習支援装置。 A learning support apparatus comprising: a display screen for displaying an image; and an imaging means for capturing an imaging space including a user facing the display screen as a display image,
Display means for displaying the display image on the display screen and displaying a learning image in at least one of a plurality of regions formed by partitioning the display image;
Determination means for determining whether or not a predetermined part of the user is located in a region where the learning image is displayed, based on the display image;
The learning support apparatus, wherein when the determination unit determines that the predetermined part is located in a region where the learning image is displayed, the display unit provides information based on the learning image.
前記判断手段は、前記学習画像の表示前に前記撮像手段から出力される表示画像を基準画像として記憶し、前記学習画像の表示後に前記撮像手段から出力される表示画像を評価画像として記憶し、前記基準画像における前記領域の諧調値と前記評価画像における前記領域の諧調値との二次元相関係数に基づいて前記領域に前記所定部位が位置するか否かを判断する
ことを特徴とする学習支援装置。 The learning support device according to claim 1,
The determination unit stores a display image output from the imaging unit before display of the learning image as a reference image, stores a display image output from the imaging unit after display of the learning image as an evaluation image, Learning based on a two-dimensional correlation coefficient between a gradation value of the region in the reference image and a gradation value of the region in the evaluation image, to determine whether or not the predetermined part is located in the region Support device.
前記領域を中心部分と当該中心部分を除く外側部分とに分割し、
前記基準画像における前記領域の外側部分の諧調値と、前記表示画像における前記領域の外側部分の諧調値との二次元相関係数に基づいて、前記領域に前記所定部位が位置するか否か判断する
ことを特徴とする学習支援装置。 The learning support device according to claim 2,
Dividing the region into a central portion and an outer portion excluding the central portion;
Based on a two-dimensional correlation coefficient between the gradation value of the outer portion of the region in the reference image and the gradation value of the outer portion of the region in the display image, it is determined whether or not the predetermined portion is located in the region. A learning support apparatus characterized by
前記表示手段は、使用者が前記表示画面に表示される学習画像に合わせて身体を動かしたときの当該使用者の運動強度が所定の範囲に収まるように、前記学習画像を前記表示画面に表示させる
ことを特徴とする学習支援装置。 The learning support device according to any one of claims 1 to 3,
The display means displays the learning image on the display screen so that the exercise intensity of the user when the user moves his body according to the learning image displayed on the display screen is within a predetermined range. A learning support device characterized by having
前記撮像手段は複数備えられるものであり、
前記判断手段は、前記各撮像手段を通じて撮像される各表示画像に基づいて、前記所定部位と前記表示画面との間の距離を算出し、
前記所定部位と前記表示画面との間が所定距離にあるときに、前記学習画像が表示される領域に使用者の所定部位が位置するか否かを判断する
ことを特徴とする学習支援装置。 The learning support device according to any one of claims 1 to 4,
A plurality of the imaging means are provided,
The determination unit calculates a distance between the predetermined part and the display screen based on each display image captured through each imaging unit,
A learning support apparatus, wherein when a predetermined distance is between the predetermined part and the display screen, it is determined whether or not the predetermined part of the user is located in a region where the learning image is displayed.
前記表示手段は、前記複数の撮像手段のうちのひとつの撮像手段を通じて撮像された表示画像を前記表示画面に表示し、
前記表示画面に表示される前記表示画像を複数の領域に区画して、前記複数の領域のうち少なくともひとつの領域を選択し、
前記表示画面に対して垂直方向に延びる座標において所定範囲を設定し、
前記選択した領域において学習画像を前記設定した所定範囲に応じた大きさで表示し、
前記複数の撮像手段を通じて撮像される各表示画像に基づいて、使用者の所定部位と前記表示画面との間の距離を算出し、
前記所定部位と前記表示画面との間が前記所定範囲にあるときに、前記学習画像が表示される領域に使用者の所定部位が位置するか否かを判断する判断処理を実行する
ことを特徴とする学習支援装置。 A learning support apparatus comprising: a display unit that displays an image on a display screen; and a plurality of imaging units that capture an imaging space including a user facing the display screen as a display image,
The display unit displays a display image captured through one of the plurality of imaging units on the display screen;
Partitioning the display image displayed on the display screen into a plurality of regions, selecting at least one of the plurality of regions,
A predetermined range is set in coordinates extending in a direction perpendicular to the display screen;
In the selected area, the learning image is displayed in a size according to the set predetermined range,
Based on each display image captured through the plurality of imaging means, a distance between a predetermined part of the user and the display screen is calculated,
A determination process is performed to determine whether or not the user's predetermined part is located in an area where the learning image is displayed when the predetermined part and the display screen are within the predetermined range. Learning support device.
前記撮像手段は、赤外光を撮像する
ことを特徴とする学習支援装置。 The learning support device according to any one of claims 1 to 6,
The image pickup means picks up infrared light.
前記表示画像を前記表示画面に表示するとともに、前記表示画像を区画して形成された複数の領域のうち少なくともひとつの領域に学習画像を表示する表示工程と、
前記学習画像が表示される領域に使用者の所定部位が位置するか否かを前記表示画像に基づいて判断する判断工程とを備え、
前記表示工程は、前記学習画像を、所定時間の経過毎に異なる領域に表示するものであり、
前記学習画像が表示される領域に前記所定部位が位置していると前記判断工程を通じて判断されたときには、前記表示工程は、前記学習画像に基づく情報を提供する
ことを特徴とする学習支援方法。 A learning support method comprising: a display step of displaying an image; and an imaging step of capturing an imaging space including a user facing the display screen as a display image,
A display step of displaying the display image on the display screen and displaying a learning image in at least one of a plurality of regions formed by partitioning the display image;
A determination step of determining whether or not a predetermined part of the user is located in a region where the learning image is displayed, based on the display image,
In the display step, the learning image is displayed in a different area for every elapse of a predetermined time,
When it is determined through the determination step that the predetermined part is located in a region where the learning image is displayed, the display step provides information based on the learning image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013122182A JP2014238792A (en) | 2013-06-10 | 2013-06-10 | Learning support device and learning support method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013122182A JP2014238792A (en) | 2013-06-10 | 2013-06-10 | Learning support device and learning support method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014238792A true JP2014238792A (en) | 2014-12-18 |
Family
ID=52135882
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013122182A Pending JP2014238792A (en) | 2013-06-10 | 2013-06-10 | Learning support device and learning support method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014238792A (en) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09325674A (en) * | 1996-06-04 | 1997-12-16 | Combi Corp | Visual-edutainment-exercise system |
JP2000010696A (en) * | 1998-06-22 | 2000-01-14 | Sony Corp | Device and method for processing image and provision medium |
JP2009010849A (en) * | 2007-06-29 | 2009-01-15 | Victor Co Of Japan Ltd | Control device for electronic apparatus |
JP2009089068A (en) * | 2007-09-28 | 2009-04-23 | Victor Co Of Japan Ltd | Control device for electronic apparatus, control method and control program |
JP2009201800A (en) * | 2008-02-28 | 2009-09-10 | Xing Inc | Exercise supporting apparatus, computer program and exercise supporting method |
JP2012090802A (en) * | 2010-10-27 | 2012-05-17 | Denso It Laboratory Inc | Amusement system |
JP2012196315A (en) * | 2011-03-22 | 2012-10-18 | Nagasakiken Koritsu Daigaku Hojin | Occupational therapy training support apparatus |
JP2013021389A (en) * | 2011-07-07 | 2013-01-31 | Nikon Corp | Image display device |
JP2013069224A (en) * | 2011-09-26 | 2013-04-18 | Sony Corp | Motion recognition apparatus, motion recognition method, operation apparatus, electronic apparatus, and program |
JP2013080135A (en) * | 2011-10-04 | 2013-05-02 | Nagasakiken Koritsu Daigaku Hojin | Image display device |
JP2013088732A (en) * | 2011-10-21 | 2013-05-13 | Yoshitaka Yamamoto | Foreign language learning system |
JP2013517051A (en) * | 2010-01-15 | 2013-05-16 | マイクロソフト コーポレーション | Recognition of user intent in motion capture systems |
-
2013
- 2013-06-10 JP JP2013122182A patent/JP2014238792A/en active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09325674A (en) * | 1996-06-04 | 1997-12-16 | Combi Corp | Visual-edutainment-exercise system |
JP2000010696A (en) * | 1998-06-22 | 2000-01-14 | Sony Corp | Device and method for processing image and provision medium |
JP2009010849A (en) * | 2007-06-29 | 2009-01-15 | Victor Co Of Japan Ltd | Control device for electronic apparatus |
JP2009089068A (en) * | 2007-09-28 | 2009-04-23 | Victor Co Of Japan Ltd | Control device for electronic apparatus, control method and control program |
JP2009201800A (en) * | 2008-02-28 | 2009-09-10 | Xing Inc | Exercise supporting apparatus, computer program and exercise supporting method |
JP2013517051A (en) * | 2010-01-15 | 2013-05-16 | マイクロソフト コーポレーション | Recognition of user intent in motion capture systems |
JP2012090802A (en) * | 2010-10-27 | 2012-05-17 | Denso It Laboratory Inc | Amusement system |
JP2012196315A (en) * | 2011-03-22 | 2012-10-18 | Nagasakiken Koritsu Daigaku Hojin | Occupational therapy training support apparatus |
JP2013021389A (en) * | 2011-07-07 | 2013-01-31 | Nikon Corp | Image display device |
JP2013069224A (en) * | 2011-09-26 | 2013-04-18 | Sony Corp | Motion recognition apparatus, motion recognition method, operation apparatus, electronic apparatus, and program |
JP2013080135A (en) * | 2011-10-04 | 2013-05-02 | Nagasakiken Koritsu Daigaku Hojin | Image display device |
JP2013088732A (en) * | 2011-10-21 | 2013-05-13 | Yoshitaka Yamamoto | Foreign language learning system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7004094B2 (en) | Fish length measurement system, fish length measurement method and fish length measurement program | |
JP4791595B2 (en) | Image photographing apparatus, image photographing method, and image photographing program | |
JP5361592B2 (en) | Endoscope apparatus, measurement method, and program | |
JP6189170B2 (en) | Posture estimation device | |
JP6304244B2 (en) | 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program | |
JP2018048839A (en) | Three-dimensional data generator, three-dimensional data generation method, and monitoring system equipped with three-dimensional data generator | |
JP5417645B2 (en) | Plane estimation method and range image camera in range image | |
WO2019172363A1 (en) | Information processing device, object measurement system, object measurement method, and program storage medium | |
JP2008146583A (en) | Attitude detector and behavior detector | |
JP2012154805A (en) | Jumping action measuring device and jumping action measuring method | |
JP6816773B2 (en) | Information processing equipment, information processing methods and computer programs | |
JP2012226645A (en) | Image processing apparatus, image processing method, recording medium, and program | |
JP5928676B2 (en) | Occupational therapy training support device | |
JPWO2013088517A1 (en) | How to estimate the orientation of a stationary person | |
JP2011069797A (en) | Displacement measuring device and displacement measuring method | |
JP5652882B2 (en) | Scoliosis screening system, scoliosis determination program used therefor, and terminal device | |
JP2019126657A (en) | Detection device and detection program | |
JP2008148237A (en) | Posture detecting device | |
JPWO2017072975A1 (en) | Imaging system | |
JP2014238792A (en) | Learning support device and learning support method | |
WO2019230171A1 (en) | Laser calibration device, calibration method therefor, and image input device including laser calibration device | |
JP2005084012A (en) | Skin shape measuring method and skin shape measuring device | |
JP6075982B2 (en) | Face frown detection system and face frown detection method | |
JP6306903B2 (en) | Information processing apparatus, information processing apparatus control method, and program | |
JP5102107B2 (en) | Microscope equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160608 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170314 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20171017 |