JP2014238792A - Learning support device and learning support method - Google Patents

Learning support device and learning support method Download PDF

Info

Publication number
JP2014238792A
JP2014238792A JP2013122182A JP2013122182A JP2014238792A JP 2014238792 A JP2014238792 A JP 2014238792A JP 2013122182 A JP2013122182 A JP 2013122182A JP 2013122182 A JP2013122182 A JP 2013122182A JP 2014238792 A JP2014238792 A JP 2014238792A
Authority
JP
Japan
Prior art keywords
image
display
learning
user
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013122182A
Other languages
Japanese (ja)
Inventor
一男 辺見
Kazuo Henmi
一男 辺見
うらら 前野
Urara Maeno
うらら 前野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagasaki Prefectural University Corp
Original Assignee
Nagasaki Prefectural University Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagasaki Prefectural University Corp filed Critical Nagasaki Prefectural University Corp
Priority to JP2013122182A priority Critical patent/JP2014238792A/en
Publication of JP2014238792A publication Critical patent/JP2014238792A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a learning support device capable of efficiently performing learning by using a personal computer.SOLUTION: A learning support device 1 includes a display 4, a PC 3 for performing processing of an image to be displayed in the display 4, and a camera 2 for imaging the front of the display 4. The PC 3 displays an image picked up by the camera 2 in the display 4, and also displays a learning image 6 in at least one region of a plurality of regions formed by partitioning the image displayed in the display 4. Then, the PC 3 determines whether a hand of a user 5 is located in a region with the learning image 6 on the basis of the image picked up by the camera 2. Information based on the learning image 6 is provided when the hand of the user 5 is determined to be located in the region in which the learning image 6 is displayed.

Description

本発明は、学習支援装置および学習支援方法に関する。   The present invention relates to a learning support apparatus and a learning support method.

従来、語学の習得等を効果的に行うため、パーソナルコンピュータを利用した種々の装置や方法が提案されている。
例えば、特許文献1には、学習者の学習履歴を各別に管理し、各学習者の理解度に応じて問題データを各学習者に各別に提示する学習支援装置が開示されている。
Conventionally, various apparatuses and methods using a personal computer have been proposed in order to effectively acquire language and the like.
For example, Patent Literature 1 discloses a learning support device that manages learners' learning histories individually and presents problem data to each learner according to the level of understanding of each learner.

特開2004−157616号公報JP 2004-157616 A 社団法人 電子情報通信学会、信学技報ET97−87(1997−12)計算課題と記憶課題における身体運動と学習能率の関係に関する検討The Institute of Electronics, Information and Communication Engineers, IEICE Technical Report ET97-87 (1997-12) Examination of the relationship between physical exercise and learning efficiency in computational and memory tasks

特許文献1に記載の発明では、学習支援装置が、各学習者の理解度を各学習者の正答率等に基づいて解析し、その理解度に応じて出題する問題を選択する。このような装置を用いた学習は、単に理解の進んでいない領域の問題を繰り返し解くというものでしかなく、従来の学習方法と大きく異なるものではない。このため、パーソナルコンピュータを用いた学習方法としては、未だ改善の余地を残すものであった。
このような問題は、特許文献1に記載の発明に限るものではなく、パーソナルコンピュータを利用して学習を効率よく行うための装置であれば、概ね共通したものとなっている。
In the invention described in Patent Document 1, the learning support device analyzes the degree of understanding of each learner based on the correct answer rate of each learner and selects a question to be set according to the degree of understanding. Learning using such a device is merely to repeatedly solve a problem in a region that is not well understood, and is not significantly different from conventional learning methods. For this reason, there is still room for improvement as a learning method using a personal computer.
Such a problem is not limited to the invention described in Patent Document 1, and is generally common to apparatuses that perform learning efficiently using a personal computer.

本発明は、上記従来技術の問題を解決するためになされたものであって、パーソナルコンピュータを用いて効率よく学習を行うことのできる学習支援装置および学習支援方法を提供することを目的とする。   The present invention has been made to solve the above-described problems of the prior art, and an object of the present invention is to provide a learning support apparatus and a learning support method that can perform learning efficiently using a personal computer.

本発明の第一態様は、上記課題を解決するためになされたものであり、画像を表示する表示画面と、前記表示画面に対面する使用者を含む撮像空間を表示画像として撮像する撮像手段とを備える学習支援装置であって、前記表示画像を前記表示画面に表示するとともに、前記表示画像を区画して形成された複数の領域のうち少なくともひとつの領域に学習画像を表示する表示手段と、前記学習画像が表示される領域に使用者の所定部位が位置するか否かを前記表示画像に基づいて判断する判断手段とを備え、前記学習画像が表示される領域に前記所定部位が位置していると前記判断手段を通じて判断されたときには、前記表示手段は、前記学習画像に基づく情報を提供することを特徴とする。   A first aspect of the present invention is made to solve the above-described problem, and includes a display screen that displays an image, and an imaging unit that captures an imaging space including a user facing the display screen as a display image. A display unit that displays the display image on the display screen and displays the learning image in at least one of a plurality of regions formed by partitioning the display image; Determination means for determining based on the display image whether or not a predetermined part of the user is located in the area where the learning image is displayed, and the predetermined part is located in the area where the learning image is displayed. When it is determined through the determination means that the display means, the display means provides information based on the learning image.

同構成では、使用者が身体を動かし、学習画像が表示される領域に所定部位を位置させると、学習画像に基づく情報が使用者に提供される。例えば、学習画像に対応する音声を発生させたり、学習画像に応じた視覚変化を生じさせることができる。このため、同構成によれば、使用者が学習画像の表示される領域に所定位置が位置するよう学習画像の表示領域に応じて身体を動かし、適切に身体を動かせて所定部位が当該領域に位置した場合は、使用者は、学習画像に応じた視覚変化や聴覚変化を得ることができる。このように身体を動かして視覚的または聴覚的な変化を得ることができるため、使用者は、身体を動かしながら学習画像に関連した情報を視覚または聴覚から得て学習することができる。このように身体を動かしながらの学習では、記憶が定着しやすくなるため、使用者は、楽しみながら効率よく学習を行うことができる。   In the same configuration, when the user moves his / her body and positions a predetermined part in a region where the learning image is displayed, information based on the learning image is provided to the user. For example, sound corresponding to the learning image can be generated, or a visual change corresponding to the learning image can be generated. For this reason, according to this configuration, the user moves the body according to the display area of the learning image so that the predetermined position is located in the area where the learning image is displayed, and the user can move the body appropriately so that the predetermined part is moved to the area. When positioned, the user can obtain visual changes and auditory changes according to the learning image. Since the user can move the body to obtain a visual or audible change, the user can learn information related to the learning image from the visual or auditory sense while moving the body. In such learning while moving the body, the memory is easily fixed, so that the user can efficiently learn while having fun.

本発明の第二態様は、上記課題を解決するためになされたものであり、第一態様にかかる学習支援装置であって、前記判断手段は、前記学習画像の表示前に前記撮像手段から出力される表示画像を基準画像として記憶し、前記学習画像の表示後に前記撮像手段から出力される表示画像を評価画像として記憶し、前記基準画像における前記領域の諧調値と前記評価画像における前記領域の諧調値との二次元相関係数に基づいて前記領域に前記所定部位が位置するか否かを判断することを特徴とする。   A second aspect of the present invention is made to solve the above-described problem, and is a learning support apparatus according to the first aspect, wherein the determination means outputs from the imaging means before displaying the learning image. The display image to be stored is stored as a reference image, the display image output from the imaging unit after the learning image is displayed is stored as an evaluation image, the gradation value of the region in the reference image and the region in the evaluation image It is characterized in that it is determined whether or not the predetermined part is located in the region based on a two-dimensional correlation coefficient with a gradation value.

本発明の第三態様は、上記課題を解決するためになされたものであり、第二態様にかかる学習支援装置であって、前記領域を中心部分と当該中心部分を除く外側部分とに分割し、前記基準画像における前記領域の外側部分の諧調値と、前記表示画像における前記領域の外側部分の諧調値との二次元相関係数に基づいて、前記領域に前記所定部位が位置するか否か判断することを特徴とする。   A third aspect of the present invention is made to solve the above problem, and is a learning support device according to the second aspect, wherein the region is divided into a central part and an outer part excluding the central part. Whether or not the predetermined part is located in the region based on a two-dimensional correlation coefficient between the gradation value of the outer portion of the region in the reference image and the gradation value of the outer portion of the region of the display image It is characterized by judging.

同構成によれば、所定の領域に所定部位が位置するか否かについて、外側部分の諧調値に基づいて判断するため、領域全体の諧調値に基づいて判断する場合よりも、感度が高くなる。したがって、領域全体の諧調値に基づいて判断する場合と比較すると、より正確に所定の領域に所定部位が位置するか否かを判断することができる。   According to this configuration, since whether or not a predetermined part is located in a predetermined region is determined based on the gradation value of the outer portion, the sensitivity is higher than in the case of determining based on the gradation value of the entire region. . Therefore, it is possible to more accurately determine whether or not the predetermined part is located in the predetermined region as compared with the case of determining based on the gradation value of the entire region.

本発明の第四態様は、上記課題を解決するためになされたものであり、第一態様〜第三態様のいずれかにかかる学習支援装置であって、前記表示手段は、使用者が前記表示画面に表示される学習画像に合わせて身体を動かしたときの当該使用者の運動強度が所定の範囲に収まるように、前記学習画像を前記表示画面に表示させることを特徴とする。   A fourth aspect of the present invention is made to solve the above-described problem, and is a learning support apparatus according to any one of the first aspect to the third aspect, wherein the display unit is configured to display the display by a user. The learning image is displayed on the display screen so that the exercise intensity of the user when the body is moved in accordance with the learning image displayed on the screen falls within a predetermined range.

軽い身体運動により身体運動中の心拍数が上昇すると学習能率が向上する傾向にあるが、過度な身体運動により心拍数が上昇しすぎると学習能率が低下することも明らかになりつつある。同構成によれば、運動強度が所定の範囲に収まるように学習画像を表示させるため、学習能率が高い範囲となるように学習画像を表示させることができる。したがって、使用者は効率よく学習を行うことができる。   When the heart rate during physical exercise increases due to light physical exercise, the learning efficiency tends to improve. However, when the heart rate increases excessively due to excessive physical exercise, it is becoming clear that the learning efficiency decreases. According to this configuration, since the learning image is displayed so that the exercise intensity falls within a predetermined range, the learning image can be displayed so that the learning efficiency is in a high range. Therefore, the user can learn efficiently.

本発明の第五態様は、上記課題を解決するためになされたものであり、第一態様〜第四態様のいずれかにかかる学習支援装置であって、前記撮像手段は複数備えられるものであり、前記判断手段は、前記各撮像手段を通じて撮像される各表示画像に基づいて、前記所定部位と前記表示画面との間の距離を算出し、前記所定部位と前記表示画面との間が所定距離にあるときに、前記学習画像が表示される領域に使用者の所定部位が位置するか否かを判断することを特徴とする。   A fifth aspect of the present invention is made to solve the above-mentioned problem, and is a learning support apparatus according to any one of the first to fourth aspects, wherein a plurality of the imaging means are provided. The determination unit calculates a distance between the predetermined part and the display screen based on each display image captured through each imaging unit, and a predetermined distance between the predetermined part and the display screen. In this case, it is determined whether or not a predetermined part of the user is located in an area where the learning image is displayed.

同構成によれば、使用者以外のものを使用者の所定部位と誤認して、判断処理を実行してしまうことを抑制することができるようになる。   According to this configuration, it is possible to suppress misperception of a part other than the user as a predetermined part of the user and execution of the determination process.

本発明の第六態様は、上記課題を解決するためになされたものであり、画像を表示画面に表示する表示手段と、前記表示画面に対面する使用者を含む撮像空間を表示画像として撮像する複数の撮像手段とを備える学習支援装置であって、前記表示手段は、前記複数の撮像手段のうちのひとつの撮像手段を通じて撮像された表示画像を前記表示画面に表示し、前記表示画面に表示される前記表示画像を複数の領域に区画して、前記複数の領域のうち少なくともひとつの領域を選択し、前記表示画面に対して垂直方向に延びる座標において所定範囲を設定し、前記選択した領域において学習画像を前記設定した所定範囲に応じた大きさで表示し、前記複数の撮像手段を通じて撮像される各表示画像に基づいて、使用者の所定部位と前記表示画面との間の距離を算出し、前記所定部位と前記表示画面との間が前記所定範囲にあるときに、前記学習画像が表示される領域に使用者の所定部位が位置するか否かを判断する判断処理を実行することを特徴とする。   A sixth aspect of the present invention is made to solve the above-described problem, and captures an imaging space including a display unit that displays an image on a display screen and a user facing the display screen as a display image. A learning support apparatus including a plurality of imaging units, wherein the display unit displays a display image captured through one imaging unit of the plurality of imaging units on the display screen, and displays the display image on the display screen. Dividing the display image into a plurality of areas, selecting at least one of the plurality of areas, setting a predetermined range in coordinates extending in a direction perpendicular to the display screen, and selecting the selected area The learning image is displayed in a size corresponding to the set predetermined range, and based on each display image captured through the plurality of imaging means, a predetermined part of the user and the display screen And determining whether or not the predetermined part of the user is located in an area where the learning image is displayed when the distance between the predetermined part and the display screen is within the predetermined range. A process is executed.

同構成によれば、使用者の所定部位と表示画面との間の距離を算出することができる。このため、使用者が、上下左右方向だけでなく、前後方向にも動くように学習画像を表示させることができる。   According to this configuration, it is possible to calculate the distance between the predetermined part of the user and the display screen. For this reason, the learning image can be displayed so that the user moves not only in the vertical and horizontal directions but also in the longitudinal direction.

本発明の第七態様は、上記課題を解決するためになされたものであり、第一態様〜第六態様のいずれかにかかる学習支援装置であって、前記撮像手段は、赤外光を撮像することを特徴とする。   A seventh aspect of the present invention is made to solve the above-described problem, and is a learning support apparatus according to any one of the first to sixth aspects, wherein the imaging means captures infrared light. It is characterized by doing.

同構成によれば、使用者以外のものを使用者の所定部位と誤認して、判断処理を実行してしまうことを抑制することができるようになる。   According to this configuration, it is possible to suppress misperception of a part other than the user as a predetermined part of the user and execution of the determination process.

本発明の第八態様は、上記課題を解決するためになされたものであり、画像を表示する表示工程と、前記表示画面に対面する使用者を含む撮像空間を表示画像として撮像する撮像工程とを備える学習支援方法であって、前記表示画像を前記表示画面に表示するとともに、前記表示画像を区画して形成された複数の領域のうち少なくともひとつの領域に学習画像を表示する表示工程と、前記学習画像が表示される領域に使用者の所定部位が位置するか否かを前記表示画像に基づいて判断する判断工程とを備え、前記表示工程は、前記学習画像を、所定時間の経過毎に異なる領域に表示するものであり、前記学習画像が表示される領域に前記所定部位が位置していると前記判断工程を通じて判断されたときには、前記表示工程は、前記学習画像に基づく情報を提供することを特徴とする。   An eighth aspect of the present invention is made to solve the above-described problem, and includes a display process for displaying an image, and an imaging process for capturing an imaging space including a user facing the display screen as a display image. A display step of displaying the display image on the display screen and displaying the learning image in at least one of a plurality of regions formed by dividing the display image; A determination step of determining whether or not a predetermined portion of the user is located in a region where the learning image is displayed based on the display image, and the display step displays the learning image at every elapse of a predetermined time. When the determination step determines that the predetermined part is located in a region where the learning image is displayed, the display step displays the learning image on the learning image. And providing a brute information.

本発明によれば、パーソナルコンピュータを用いて効率よく学習を行うことのできる学習支援装置を得ることができる。   ADVANTAGE OF THE INVENTION According to this invention, the learning assistance apparatus which can learn efficiently using a personal computer can be obtained.

本発明の第一実施形態にかかる学習支援装置の概略構成図。1 is a schematic configuration diagram of a learning support apparatus according to a first embodiment of the present invention. 同実施形態にかかる画像の処理手順を示すフローチャート。6 is a flowchart showing an image processing procedure according to the embodiment. (a)は、同実施形態にかかる基準画像における選択された領域の拡大図、(b)は、同実施形態にかかる評価画像における選択された領域の拡大図。(A) is an enlarged view of a selected region in the reference image according to the embodiment, and (b) is an enlarged view of a selected region in the evaluation image according to the embodiment. 本発明の第二実施形態にかかる学習支援装置の概略構成図。The schematic block diagram of the learning assistance apparatus concerning 2nd embodiment of this invention. 同実施形態にかかる画像の処理手順を示すフローチャート。6 is a flowchart showing an image processing procedure according to the embodiment. 本発明の第三実施形態にかかる学習支援装置の概略構成図。The schematic block diagram of the learning assistance apparatus concerning 3rd embodiment of this invention. 同実施形態にかかる画像の処理手順を示すフローチャート。6 is a flowchart showing an image processing procedure according to the embodiment. 同実施形態にかかる使用者の3次元座標を算出するための処理手順を示すフローチャート。The flowchart which shows the process sequence for calculating the three-dimensional coordinate of the user concerning the embodiment. 同実施形態にかかる使用者とディスプレイとの模式図。The schematic diagram of the user and display concerning the embodiment. 本発明の第四実施形態にかかる学習支援装置の概略構成図。The schematic block diagram of the learning assistance apparatus concerning 4th embodiment of this invention. 同実施形態にかかる画像の処理方法を示すフローチャート。6 is a flowchart illustrating an image processing method according to the embodiment. 他の実施形態にかかる学習支援装置の概略構成図。The schematic block diagram of the learning assistance apparatus concerning other embodiment.

(第一実施形態)
以下、本発明を具体化した第一実施形態を図1〜図3に基づいて説明する。
(First embodiment)
Hereinafter, a first embodiment embodying the present invention will be described with reference to FIGS.

まず、図1を参照しながら、本発明の第一実施形態にかかる学習支援装置1について説明する。図1には、本発明の第一実施形態にかかる学習支援装置1の概略構成を示す。本実施形態では、学習支援装置1を英語学習に用いる場合について説明する。   First, a learning support apparatus 1 according to the first embodiment of the present invention will be described with reference to FIG. FIG. 1 shows a schematic configuration of a learning support apparatus 1 according to the first embodiment of the present invention. This embodiment demonstrates the case where the learning assistance apparatus 1 is used for English learning.

同図1に示されるように、学習支援装置1は、カメラ2(本発明の「撮像手段」に相当)と、このカメラ2に接続されるパーソナルコンピュータとしてのPC3(本発明の「表示手段」および「判断手段」に相当)と、このPC3に接続される縦幅H、横幅Wのディスプレイ4(本発明の「表示画面」に相当)とを備える。   As shown in FIG. 1, the learning support apparatus 1 includes a camera 2 (corresponding to “imaging means” of the present invention) and a PC 3 (a “display means” of the present invention) as a personal computer connected to the camera 2. And a display 4 having a vertical width H and a horizontal width W (corresponding to a “display screen” of the present invention) connected to the PC 3.

カメラ2とPC3との接続方法、およびPC3とディスプレイ4との接続方法は、特に限定されるものではなく、例えば、有線方式や無線方式のネットワークを介して接続されていてもよい。   The connection method between the camera 2 and the PC 3 and the connection method between the PC 3 and the display 4 are not particularly limited, and for example, they may be connected via a wired or wireless network.

カメラ2は、ディスプレイ4の中央上部に配設され、ディスプレイ4に対面する使用者5を含む撮像空間を撮像する。このカメラ2の撮像空間は、ディスプレイ4に対面して起立した使用者5の全身が収まる範囲であればよい。また、カメラ2は、所定時間Teの経過毎にカメラ2によって撮像空間を撮像する。   The camera 2 is disposed at the upper center of the display 4 and images an imaging space including the user 5 facing the display 4. The imaging space of the camera 2 may be in a range in which the whole body of the user 5 standing up against the display 4 can be accommodated. In addition, the camera 2 images the imaging space by the camera 2 every elapse of the predetermined time Te.

PC3は、中央処理装置(CPU)によって回路各部の動作が制御されるもので、その制御プログラムはPC3に搭載されるメモリのROM(図示せず)に予め記憶されている。PC3は、この制御プログラムを通じて学習支援装置1の各種制御を実行する。   The PC 3 controls the operation of each part of the circuit by a central processing unit (CPU), and the control program is stored in advance in a ROM (not shown) of a memory mounted on the PC 3. The PC 3 executes various controls of the learning support apparatus 1 through this control program.

カメラ2にて所定時間Teの経過毎に撮像された撮像空間の画像は、表示画像として都度PC3に出力され、PC3のメモリに記憶される。PC3は、カメラ2から出力された表示画像を都度ディスプレイ4の全体にわたって表示させる。すなわち、ディスプレイ4には、カメラ2から出力される最新の画像が表示される。またPC3は、予めPC3のメモリに記憶された音声を各種制御に応じて発生させる音声発生部3aを備える。   An image of the imaging space captured at every elapse of the predetermined time Te by the camera 2 is output to the PC 3 each time as a display image and stored in the memory of the PC 3. The PC 3 displays the display image output from the camera 2 over the entire display 4 each time. That is, the latest image output from the camera 2 is displayed on the display 4. The PC 3 also includes a sound generation unit 3a that generates sound stored in advance in the memory of the PC 3 according to various controls.

このようなPC3は、カメラ2にて撮像された画像に重畳して学習画像6をディスプレイ4に表示させる。学習画像6を表示させる位置は、ディスプレイ4に表示する画像(表示画像)の所定位置の点(例えば、左下隅の点)を原点とし、横方向をX軸、X軸に垂直な方向をY軸として表される座標系上に設定される。   Such a PC 3 causes the learning image 6 to be displayed on the display 4 so as to be superimposed on the image captured by the camera 2. The learning image 6 is displayed at a predetermined point (for example, the lower left corner) of the image (display image) displayed on the display 4 as the origin, the horizontal direction is the X axis, and the direction perpendicular to the X axis is Y. Set on a coordinate system expressed as an axis.

以下、PC3に出力される画像の処理手順について図2を参照しながら詳細に説明する。
同図2に示されるように、本処理が開始されると、まず、PC3は学習時間Tpの計時を開始する(ステップS100)。次に基準画像を取得するとともに、評価画像を取得し、ディスプレイ4に表示する(ステップS101)。基準画像とは、カメラ2から表示画像としてPC3に出力された画像のうち、本処理の開始時に最も近い時点でカメラ2にて撮像され、PC3に出力された画像を示す。評価画像とは、カメラ2から表示画像としてPC3に出力された画像のうち、最新の表示画像、すなわちディスプレイ4に表示される画像を示す。
Hereinafter, the processing procedure of the image output to the PC 3 will be described in detail with reference to FIG.
As shown in FIG. 2, when this process is started, first, the PC 3 starts measuring the learning time Tp (step S100). Next, a reference image is acquired, and an evaluation image is acquired and displayed on the display 4 (step S101). The reference image refers to an image that is captured by the camera 2 and output to the PC 3 at the time closest to the start of this process, among the images output from the camera 2 to the PC 3 as display images. The evaluation image indicates the latest display image, that is, the image displayed on the display 4 among the images output from the camera 2 to the PC 3 as display images.

上述したように、表示画像には所定の座標系が設定される。基準画像と評価画像は、いずれも表示画像であるため、これら基準画像と評価画像には、同じ座標系が設定される。   As described above, a predetermined coordinate system is set for the display image. Since both the reference image and the evaluation image are display images, the same coordinate system is set for the reference image and the evaluation image.

次に、学習画像6を表示する座標(X,Y)を設定する(ステップS102)。具体的には、PC3は、評価画像を区画して形成される複数の領域(図1参照)のうち、ひとつの領域を選択し、この選択した領域(以下、領域B)の中心座標を座標(X,Y)として設定する。   Next, coordinates (X, Y) for displaying the learning image 6 are set (step S102). Specifically, the PC 3 selects one area from a plurality of areas (see FIG. 1) formed by dividing the evaluation image, and coordinates the center coordinates of the selected area (hereinafter, area B). Set as (X, Y).

上述したように、基準画像と評価画像には、等しい座標系が設定される。PC3は、基準画像のうち、領域Bに対応する領域(基準画像において、設定した座標(X,Y)を中心とする領域)を領域Aとする。   As described above, the same coordinate system is set for the reference image and the evaluation image. The PC 3 sets a region corresponding to the region B in the reference image (a region centered on the set coordinates (X, Y) in the reference image) as the region A.

なお、本実施形態では、表示画像を区画する際、各領域について、X軸方向の長さが「m1」、Y軸方向の長さが「n1」の長方形状を呈する領域となるように区画する(図3参照)。X軸方向の長さ「m1」は、ディスプレイ4の横幅W(図1参照)の1/26〜10/26の範囲(W×1/26〜W×10/26)が好ましく、ディスプレイ4の横幅Wの4/26〜6/26(W×4/26〜W×6/26)の範囲がより好ましい。Y軸方向の長さ「n1」は、ディスプレイ4の縦幅Hの1/20〜8/20の範囲(H×1/20〜H×8/20)が好ましく、ディスプレイ4の縦幅Hの3/20〜4.5/20の範囲(H×3/20〜H×4.5/20)がより好ましい。
また、領域A,Bを、中心領域Ac,Bcと、中心領域Ac,Bcを除く外側領域Ae,Beとにそれぞれ分割する。中心領域Ac,Bcは、X軸方向の長さが「m2」、Y軸方向の長さが「n2」の長方形状に設定している。X軸方向の長さ「m2」は、m1の1/2〜1/20の範囲(m1×1/2〜m1×1/20)が好ましく、m1の1/4〜1/10の範囲(m1×1/4〜m1×1/10)がより好ましい。Y軸方向の長さ「n2」は、n1の1/2〜1/20の範囲(n1×1/2〜n1×1/20)が好ましく、n1の1/4〜1/10の範囲(n1×1/4〜n1×1/10)がより好ましい。
In the present embodiment, when the display image is partitioned, each region is partitioned so as to be a rectangular region having a length in the X-axis direction of “m1” and a length in the Y-axis direction of “n1”. (See FIG. 3). The length “m1” in the X-axis direction is preferably in the range of 1/26 to 10/26 (W × 1/26 to W × 10/26) of the lateral width W of the display 4 (see FIG. 1). A range of 4/26 to 6/26 (W × 4/26 to W × 6/26) of the lateral width W is more preferable. The length “n1” in the Y-axis direction is preferably in the range of 1/20 to 8/20 of the vertical width H of the display 4 (H × 1/20 to H × 8/20). The range of 3/20 to 4.5 / 20 (H × 3/20 to H × 4.5 / 20) is more preferable.
Further, the regions A and B are divided into center regions Ac and Bc and outer regions Ae and Be excluding the center regions Ac and Bc, respectively. The center regions Ac and Bc are set in a rectangular shape having a length in the X-axis direction of “m2” and a length in the Y-axis direction of “n2”. The length “m2” in the X-axis direction is preferably in the range of 1/2 to 1/20 of m1 (m1 × 1/2 to m1 × 1/20), and is in the range of 1/4 to 1/10 of m1 ( m1 × 1/4 to m1 × 1/10) is more preferable. The length “n2” in the Y-axis direction is preferably in the range of 1/2 to 1/20 of n1 (n1 × 1/2 to n1 × 1/20), and is in the range of 1/4 to 1/10 of n1 ( n1 × 1/4 to n1 × 1/10) is more preferable.

PC3は、ディスプレイ4に評価画像を表示する際、同図1に示されるように、領域Bに、学習しようとする英単語に相当する画像(ここでは犬の画像)を座標(X,Y)を中心として評価画像に重畳して表示する。この犬の画像は、本実施形態における学習画像6に相当する。   When the PC 3 displays the evaluation image on the display 4, as shown in FIG. 1, the image corresponding to the English word to be learned (here, the dog image) is coordinated (X, Y) in the region B. Is superimposed on the evaluation image. This dog image corresponds to the learning image 6 in the present embodiment.

このようにPC3は、領域Bに学習画像6を表示し、当該学習画像6の表示を開始してからの経過時間である表示時間Tdの計時を開始する(ステップS103)。
次に、PC3は、評価画像を取得し、ディスプレイ4に表示する(ステップS104)。このように、ステップS104の実行毎に最新の画像を評価画像とするが、評価画像に対しては、都度同じ座標系を設定するとともにステップS102にて設定した領域B、外側領域Beと同等の領域をそれぞれ領域B、外側領域Beとして設定する。
In this way, the PC 3 displays the learning image 6 in the region B, and starts measuring the display time Td that is an elapsed time since the display of the learning image 6 is started (step S103).
Next, the PC 3 acquires an evaluation image and displays it on the display 4 (step S104). In this way, the latest image is used as the evaluation image every time step S104 is executed. For the evaluation image, the same coordinate system is set each time, and is equivalent to the area B and the outer area Be set in step S102. The areas are set as the area B and the outer area Be, respectively.

次に、PC3は、評価画像における領域Bの外側領域Beと、基準画像における領域Aの外側領域Beの2次元相関係数rを算出する(ステップS105)。
本実施形態では、以下の数1を用いて2次元相関係数rを算出する。

Figure 2014238792
Next, the PC 3 calculates a two-dimensional correlation coefficient r between the outer region Be of the region B in the evaluation image and the outer region Be of the region A in the reference image (step S105).
In the present embodiment, the two-dimensional correlation coefficient r is calculated using the following formula 1.
Figure 2014238792

図3(a)に、基準画像における領域Aの拡大図を示す。また、図3(b)に、評価画像における領域Bの拡大図を示す。なお、同図3(b)には、領域Bに使用者5の手(本発明の「所定部位」に相当)が位置する場合を示す。   FIG. 3A shows an enlarged view of the region A in the reference image. FIG. 3B shows an enlarged view of the region B in the evaluation image. FIG. 3B shows a case where the hand of the user 5 (corresponding to the “predetermined part” of the present invention) is located in the region B.

基準画像における領域Aの外側領域Aeの階調値と、評価画像における領域Bの外側領域Beの階調値とが異なる場合は、基準画像が撮像されたときから評価画像が撮像されるまでの間に、その領域において何らかの変化が生じたこと、例えば、図3(b)に示されるように、学習画像6が表示される領域に使用者5の身体の一部(ここでは手)が入ってきたという変化が生じたことが考えられる。   When the gradation value of the outer area Ae of the area A in the reference image is different from the gradation value of the outer area Be of the area B in the evaluation image, the period from when the reference image is captured until the evaluation image is captured In the meantime, some change occurred in the area, for example, as shown in FIG. 3B, a part of the body of the user 5 (in this case, a hand) enters the area where the learning image 6 is displayed. It is possible that a change has occurred.

そこで、本実施形態では、基準画像における領域Aの外側領域Aeの階調値と、評価画像における領域Bの外側領域Beの階調値との2次元相関係数rを算出し(ステップS105)、この2次元相関係数rが基準値C以下であるか否かを判断する(ステップS106)。   Therefore, in the present embodiment, a two-dimensional correlation coefficient r between the gradation value of the outer area Ae of the area A in the reference image and the gradation value of the outer area Be of the area B in the evaluation image is calculated (step S105). Then, it is determined whether or not the two-dimensional correlation coefficient r is equal to or less than the reference value C (step S106).

これにより、この領域に使用者5の身体の一部が位置しているか否かを判断する。なお、上述した数1からわかるように、外側領域Aeの階調値と外側領域Beの階調値とが近いときほど、2次元相関係数rは高い値となる。
基準値Cは、実験等を通じて予め定められている。具体的には、基準値Cは、0.5〜1.0の範囲が好ましい。より好ましくは、0.8〜0.99の範囲が好ましい。基準値Cが1.0を超えたり、0.5の範囲未満であると、学習画像6が表示される領域に使用者5の手が位置するか否かについて適切に判断することが困難となる。
Thereby, it is determined whether a part of the body of the user 5 is located in this region. As can be seen from Equation 1 described above, the closer the gradation value of the outer region Ae and the gradation value of the outer region Be, the higher the two-dimensional correlation coefficient r.
The reference value C is determined in advance through experiments or the like. Specifically, the reference value C is preferably in the range of 0.5 to 1.0. More preferably, the range of 0.8 to 0.99 is preferable. If the reference value C exceeds 1.0 or is less than 0.5, it is difficult to appropriately determine whether or not the hand of the user 5 is located in the area where the learning image 6 is displayed. Become.

2次元相関係数rが基準値C以下であると判断する場合(ステップS106:YES)、すなわち、評価画像における領域Bに使用者5の手が位置していると判断する場合、学習画像6に基づく情報を提供し、表示時間Tdをクリアする(ステップS108)。本実施形態では、犬(本実施形態における学習画像6)に相当する英単語および犬の鳴き声を音声発生部3aから発生させるとともに、表示した犬が歩き去るようなアニメーションを表示させる。または、犬の画像を犬に相当する英単語「Dog」に変化させる。このように学習画像6に基づく情報を提供する際、学習画像6は消去する。   When it is determined that the two-dimensional correlation coefficient r is equal to or less than the reference value C (step S106: YES), that is, when it is determined that the hand of the user 5 is located in the region B in the evaluation image, the learning image 6 Is provided, and the display time Td is cleared (step S108). In the present embodiment, an English word corresponding to a dog (learning image 6 in the present embodiment) and a dog cry are generated from the sound generation unit 3a, and an animation that causes the displayed dog to walk away is displayed. Alternatively, the image of the dog is changed to an English word “Dog” corresponding to the dog. Thus, when providing information based on the learning image 6, the learning image 6 is deleted.

一方、2次元相関係数rが基準値Cを超えていると判断する場合(ステップS106:NO)、すなわち、評価画像における領域Bに使用者5の手が位置していないと判断する場合、次に学習画像6の表示時間Tdが最長表示時間Tdmaxを超えたか否かを判断する(ステップS107)。   On the other hand, when it is determined that the two-dimensional correlation coefficient r exceeds the reference value C (step S106: NO), that is, when it is determined that the hand of the user 5 is not located in the region B in the evaluation image, Next, it is determined whether or not the display time Td of the learning image 6 exceeds the longest display time Tdmax (step S107).

なお、最長表示時間Tdmaxは、表示時間TdがステップS108の処理でクリアされない場合に、学習画像6がディスプレイ4に継続して表示される最も長い時間であり、評価画像の取得周期である所定時間Teよりも長い時間に予め設定されている。   The longest display time Tdmax is the longest time for which the learning image 6 is continuously displayed on the display 4 when the display time Td is not cleared in the process of step S108, and is a predetermined time that is an evaluation image acquisition cycle. It is set in advance to a time longer than Te.

表示時間Tdが最長表示時間Tdmax以下であると判断する場合(ステップS107:NO)、ステップS104以降の処理を実行する。
一方、表示時間Tdが最長表示時間Tdmaxを超えたと判断する場合(ステップS107:YES)、次に現在ディスプレイ4に表示されている学習画像6を消去し、表示時間Tdをクリアするする(ステップS109)。
When it is determined that the display time Td is equal to or shorter than the longest display time Tdmax (step S107: NO), the processing after step S104 is executed.
On the other hand, when it is determined that the display time Td has exceeded the longest display time Tdmax (step S107: YES), the learning image 6 currently displayed on the display 4 is erased and the display time Td is cleared (step S109). ).

次に、PC3は、学習時間Tpが所定時間Tpcを超えたか否かを判断する(ステップS110)。なお、所定時間Tpcは、学習支援装置1を継続して使用するのに適当な時間として予め定められる所定の時間であり、学習画像6の最長表示時間Tdmaxよりも長い時間に予め設定されている。なお、所定時間Tpcは、0.5〜10秒の範囲が好ましい。より好ましくは、2〜5秒の範囲が好ましい。   Next, the PC 3 determines whether or not the learning time Tp has exceeded the predetermined time Tpc (step S110). The predetermined time Tpc is a predetermined time that is predetermined as an appropriate time for continuously using the learning support device 1 and is set in advance to a time longer than the longest display time Tdmax of the learning image 6. . The predetermined time Tpc is preferably in the range of 0.5 to 10 seconds. More preferably, the range of 2 to 5 seconds is preferable.

学習時間Tpが所定時間Tpcを超えたと判断する場合(ステップS110:YES)、この処理を終了する。一方、学習時間Tpが所定時間Tpc以下であると判断する場合(ステップS110:NO)、ステップS101以降の処理を実行する。   When it is determined that the learning time Tp has exceeded the predetermined time Tpc (step S110: YES), this process is terminated. On the other hand, when it is determined that the learning time Tp is equal to or shorter than the predetermined time Tpc (step S110: NO), the processing after step S101 is executed.

ところで、非特許文献1に記載されるように、近年、軽い身体運動により身体運動中の心拍数が上昇するにつれて学習能率が向上する一方、過度な身体運動により心拍数が上昇しすぎると学習能率が低下することが明らかになりつつある。そこで、本実施形態では、運動強度が所定の範囲におさまるように、最長表示時間Tdmaxおよび座標(X,Y)を設定する。
具体的には、例えば、酸素摂取量で表わすと、使用者5の酸素摂取量が2〜4METsとなるように最長表示時間Tdmaxおよび座標(X,Y)を設定することが好ましく、酸素摂取量が3METsとなるように、最長表示時間Tdmaxおよび座標(X,Y)を設定することがより好ましい。
より具体的には、最長表示時間Tdmaxが20秒〜300秒の範囲に設定されることが好ましく、30秒〜120秒の範囲に設定されることがより好ましい。
By the way, as described in Non-Patent Document 1, in recent years, learning efficiency improves as the heart rate during physical exercise increases due to light physical exercise, while learning efficiency increases when the heart rate increases excessively due to excessive physical exercise. It is becoming clear that this will decline. Therefore, in the present embodiment, the longest display time Tdmax and the coordinates (X, Y) are set so that the exercise intensity falls within a predetermined range.
Specifically, for example, when expressed in terms of oxygen intake, it is preferable to set the longest display time Tdmax and coordinates (X, Y) so that the oxygen intake of the user 5 is 2 to 4 METs. It is more preferable to set the longest display time Tdmax and the coordinates (X, Y) so that becomes 3METs.
More specifically, the longest display time Tdmax is preferably set in the range of 20 seconds to 300 seconds, and more preferably in the range of 30 seconds to 120 seconds.

上記実施形態によれば、以下に記載する作用効果を奏することができる。
(1)上記実施形態によれば、使用者5が身体を動かし、学習画像6(本実施形態では犬の画像)が表示される領域に所定部位を位置させると、学習画像6に基づく情報が使用者に提供される。すなわち、使用者5は、犬に相当する英単語および犬の鳴き声に関する音声、表示した犬の画像が歩き去るようなアニメーション等を得ることができる。このため、使用者5が学習画像6が表示される領域に所定部位が位置するよう学習画像6の表示領域に応じて身体を動かし、所定部位が領域に位置した場合は、使用者5は学習画像6に基づいた視覚変化や聴覚変化を得ることができる。このため、使用者5は、身体を動かしながら聴覚や視覚変化を通じて英語学習を行うことができることとなり、楽しみながら、効率よく学習を進めることができる。
According to the said embodiment, there can exist an effect described below.
(1) According to the above embodiment, when the user 5 moves his / her body and positions a predetermined part in the area where the learning image 6 (in this embodiment, a dog image) is displayed, information based on the learning image 6 is displayed. Provided to the user. In other words, the user 5 can obtain an English word corresponding to a dog, a voice related to the dog's cry, an animation in which the displayed dog image walks away, and the like. Therefore, when the user 5 moves the body according to the display area of the learning image 6 so that the predetermined part is located in the area where the learning image 6 is displayed, and the predetermined part is located in the area, the user 5 learns. Visual changes and auditory changes based on the image 6 can be obtained. For this reason, the user 5 can learn English through auditory and visual changes while moving the body, and can efficiently learn while having fun.

(2)また、選択した領域に所定部位が位置するか否かについて、領域Aの外側領域Aeの諧調値と領域Bの外側領域Beの諧調値とに基づいて判断するため、領域Aの諧調値と領域Bの諧調値とに基づいて判断する場合よりも、精度が高い。換言すると、領域Aの諧調値と領域Bの諧調値とに基づいて判断する場合と比較して、より正確に領域Aに所定部位が位置するか否かを判断することができる。   (2) Since whether or not a predetermined part is located in the selected area is determined based on the gradation value of the outer area Ae of the area A and the gradation value of the outer area Be of the area B, the gradation of the area A is determined. The accuracy is higher than in the case where the determination is made based on the value and the gradation value of the region B. In other words, it can be determined whether or not the predetermined part is located in the region A more accurately than in the case where the determination is based on the gradation value of the region A and the gradation value of the region B.

(3)また、運動強度が所定の範囲におさまるように、最長表示時間Tdmaxおよび座標(X,Y)を設定しているため、使用者5は、身体運動を行い、効率よく学習することができる。   (3) Since the longest display time Tdmax and the coordinates (X, Y) are set so that the exercise intensity falls within a predetermined range, the user 5 can perform physical exercise and learn efficiently. it can.

(第二実施形態)
以下、本発明を具体化した第二実施形態を上記第一実施形態と異なる点を中心に図4および図5に基づいて説明する。なお、これら図4および図5において、第一実施形態にて説明した各要素と同一の要素についてはそれぞれ同一の符号を示しており、それら要素についての重複する説明は割愛する。
(Second embodiment)
Hereinafter, a second embodiment embodying the present invention will be described based on FIG. 4 and FIG. 5 with a focus on differences from the first embodiment. 4 and 5, the same elements as those described in the first embodiment are denoted by the same reference numerals, and redundant description of these elements is omitted.

図4に示されるように、この第二実施形態の学習支援装置1は、ディスプレイ4(本発明の「表示画面」に相当)の中央上部に配設される中央カメラ7(本発明の「撮像手段」に相当)に加えて、ディスプレイ4の片側上部に配設される端側カメラ8(本発明の「撮像手段」に相当)を備えている。   As shown in FIG. 4, the learning support device 1 of the second embodiment includes a central camera 7 (an “imaging” of the present invention) disposed at the upper center of a display 4 (corresponding to a “display screen” of the present invention). In addition to the “means”, an end camera 8 (corresponding to the “imaging means” of the present invention) provided on one upper side of the display 4 is provided.

中央カメラ7および端側カメラ8は、ディスプレイ4に対面する使用者5を含む撮像空間を撮像する。この中央カメラ7および端側カメラ8の撮像空間は、ディスプレイ4に対面して起立した使用者5の全身が収まる範囲であればよい。また、これら中央カメラ7および端側カメラ8は、所定時間Teの経過毎にディスプレイ4に対面する使用者5を含む撮像空間の画像を撮像して、それぞれPC3(本発明の「表示手段」、「判断手段」に相当)に出力している。   The central camera 7 and the end camera 8 image an imaging space including the user 5 facing the display 4. The imaging space of the central camera 7 and the end camera 8 may be in a range in which the whole body of the user 5 standing up against the display 4 can be accommodated. Further, the central camera 7 and the end camera 8 capture images of an imaging space including the user 5 facing the display 4 every elapse of a predetermined time Te, respectively, and the PC 3 (the “display unit” of the present invention, Equivalent to “determination means”).

PC3(本発明の「表示手段」、「判断手段」に相当)は、中央カメラ7および端側カメラ8から出力される画像情報に基づいて、使用者5とディスプレイ4との間の距離D2を算出し、この距離D2が所定の距離にあるか否かを判断する。そして、距離D2が所定の距離にあると判断したときには第一実施形態にて説明した画像処理を開始し、距離D2が所定の距離にないと判断したときには第一実施形態にて説明した画像処理を実行しないようにしている。   The PC 3 (corresponding to “display means” and “determination means” of the present invention) determines the distance D 2 between the user 5 and the display 4 based on the image information output from the central camera 7 and the end camera 8. It is calculated and it is determined whether or not the distance D2 is a predetermined distance. Then, when it is determined that the distance D2 is a predetermined distance, the image processing described in the first embodiment is started, and when it is determined that the distance D2 is not a predetermined distance, the image processing described in the first embodiment. Not to run.

以下、図5を参照しながら、この使用者5とディスプレイ4との間の距離D2を算出する距離算出処理について説明する。
同図5に示されるように、この距離算出処理が開始されると、まずPC3を用いて想定距離D1を設定する(ステップS200)。想定距離D1は、ディスプレイ4に対面して起立した使用者5の全身画像がディスプレイ4に適切な大きさで表示されるために必要な距離である。距離D1は、予め設定されていてもよいし、使用者5や管理者が都度設定するようにしてもよい。距離D1を予め設定する場合、距離D1は、1〜6mの範囲が好ましい。より好ましくは、3〜4mの範囲が好ましい。
Hereinafter, a distance calculation process for calculating the distance D2 between the user 5 and the display 4 will be described with reference to FIG.
As shown in FIG. 5, when the distance calculation process is started, first, an assumed distance D1 is set using the PC 3 (step S200). The assumed distance D <b> 1 is a distance necessary for the whole body image of the user 5 standing up against the display 4 to be displayed in an appropriate size on the display 4. The distance D1 may be set in advance, or may be set each time by the user 5 or the administrator. When the distance D1 is set in advance, the distance D1 is preferably in the range of 1 to 6 m. More preferably, the range of 3-4 m is preferable.

次に、PC3は、以下に説明するステップS201〜S205の処理と並行して、以下に説明するステップS206〜S210の処理を実行する。   Next, the PC 3 executes the processes of steps S206 to S210 described below in parallel with the processes of steps S201 to S205 described below.

まず、ステップS201〜S205の処理について説明する。上述したように、想定距離D1を設定した(ステップS200)後、PC3は中央カメラ7が撮像してPC3に出力した画像(本発明の「表示画像」に相当)のうち、最新の画像を取得する(ステップS201)。そして、取得した画像に対して白と黒の2階調に変換する2値化処理を施す(ステップS202)。   First, the processing of steps S201 to S205 will be described. As described above, after setting the assumed distance D1 (step S200), the PC 3 obtains the latest image among the images (corresponding to the “display image” of the present invention) captured by the central camera 7 and output to the PC 3. (Step S201). Then, a binarization process for converting the acquired image into two gradations of white and black is performed (step S202).

そして、前回の制御周期で取得して2値化処理を施した画像と、今回の制御周期で取得して2値化処理を施した画像との差分画像を生成する(ステップS203)。ここで、前回の制御周期で取得した画像と今回の制御周期で取得した画像との間の差分は、白画素として認識される。   Then, a difference image between the image acquired in the previous control cycle and subjected to the binarization process and the image acquired in the current control cycle and subjected to the binarization process is generated (step S203). Here, the difference between the image acquired in the previous control cycle and the image acquired in the current control cycle is recognized as a white pixel.

前回の制御周期で取得した画像と今回の制御周期で取得した画像との間の差分は、ディスプレイ4に対面した何らかのものの動き、すなわちディスプレイ4に対面して起立した使用者5の動きに起因したものであると考えられる。そこで、PC3は、この差分画像中に白画素を検出したか否かを判断する(ステップS204)。
白画素を検出したと判断する場合(ステップS204:YES)、この白画素が検出された位置に使用者5が位置しているとして、その座標を(X1,Y1)として記憶する(ステップS205)。
The difference between the image acquired in the previous control cycle and the image acquired in the current control cycle is due to the movement of something facing the display 4, that is, the movement of the user 5 standing up against the display 4. It is thought to be a thing. Therefore, the PC 3 determines whether or not a white pixel has been detected in the difference image (step S204).
If it is determined that a white pixel has been detected (step S204: YES), the user 5 is located at the position where the white pixel is detected, and the coordinates are stored as (X1, Y1) (step S205). .

一方、白画素を検出していないと判断する場合(ステップS204:NO)、すなわち、前回撮像した画像と今回撮像した画像との間に変化がないと判断する場合、ステップS201〜S204の処理を再び実行する。   On the other hand, when it is determined that no white pixel is detected (step S204: NO), that is, when it is determined that there is no change between the previously captured image and the current captured image, the processing of steps S201 to S204 is performed. Run again.

次に、ステップS206〜S210の処理について説明する。上述したように、想定距離D1を設定した(ステップS200)後、PC3は端側カメラ8が撮像してPC3に出力した画像(本発明の「表示画像」に相当)のうち、最新の画像を取得する(ステップS206)。そして、取得した画像に対して白と黒の2階調に変換する2値化処理を施す(ステップS207)。   Next, the process of steps S206 to S210 will be described. As described above, after setting the assumed distance D1 (step S200), the PC 3 captures the latest image among the images (corresponding to the “display image” of the present invention) captured by the end camera 8 and output to the PC 3. Obtain (step S206). Then, a binarization process for converting the acquired image into two gradations of white and black is performed (step S207).

そして、前回の制御周期で取得して2値化処理を施した画像と、今回の制御周期で取得して2値化処理を施した画像との差分画像を生成する(ステップS208)。次に、PC3は、この差分画像中に白画素を検出したか否かを判断する(ステップS209)。   Then, a difference image between the image acquired in the previous control cycle and subjected to the binarization process and the image acquired in the current control cycle and subjected to the binarization process is generated (step S208). Next, the PC 3 determines whether or not a white pixel is detected in the difference image (step S209).

白画素を検出したと判断する場合(ステップS209:YES)、この白画素が検出された位置に使用者5が位置しているとして、その座標を(X2,Y2)として記憶する(ステップS210)。
一方、白画素を検出していないと判断する場合(ステップS209:NO)、すなわち、前回撮像した画像と今回撮像した画像との間に変化がないと判断する場合、ステップS206〜ステップS209の処理を再び実行する。
If it is determined that a white pixel has been detected (step S209: YES), the user 5 is located at the position where the white pixel is detected, and the coordinates are stored as (X2, Y2) (step S210). .
On the other hand, when it is determined that no white pixel is detected (step S209: NO), that is, when it is determined that there is no change between the image captured last time and the image captured this time, the processing of step S206 to step S209 is performed. Run again.

このように、ステップS201〜S205の処理、およびステップS206〜S210の処理を実行した後、上述した処理で記憶した座標(X1,Y1)、(X2,Y2)および中央カメラ7と端側カメラ8との間の距離とに基づいて、使用者5とディスプレイ4との間の距離D2を算出する(ステップS211)。   As described above, after executing the processing of steps S201 to S205 and the processing of steps S206 to S210, the coordinates (X1, Y1) and (X2, Y2) stored in the above-described processing, the central camera 7 and the end camera 8 are stored. The distance D2 between the user 5 and the display 4 is calculated on the basis of the distance between (step S211).

次に、この距離D2が想定距離D1−αよりも大きく、且つ想定距離D1+α以下であるか否かを判断する(ステップS212)。なお、αは、0.5〜1mの範囲が好ましい。より好ましくは、0.0〜0.1mの範囲が好ましい。
そして、距離D2が想定距離D1−αよりも大きく、且つ想定距離D1+α以下であると判断する場合(ステップS212:YES)、この処理を一旦終了する。この場合は、第一実施形態で説明した画像処理を実行する。
Next, it is determined whether or not the distance D2 is larger than the assumed distance D1−α and equal to or smaller than the assumed distance D1 + α (step S212). In addition, (alpha) has the preferable range of 0.5-1 m. More preferably, the range of 0.0-0.1 m is preferable.
When it is determined that the distance D2 is greater than the assumed distance D1-α and not more than the assumed distance D1 + α (step S212: YES), this process is temporarily terminated. In this case, the image processing described in the first embodiment is executed.

一方、距離D2が想定距離D1−α以下である、もしくは想定距離D1+αよりも大きいと判断する場合(ステップS212:NO)、ステップS201以降の処理およびステップS206以降の処理を実行する。   On the other hand, when it is determined that the distance D2 is equal to or less than the assumed distance D1-α (step S212: NO), the processing after step S201 and the processing after step S206 are executed.

上記実施形態によれば、上記(1)〜(3)に加え、以下に記載する作用効果を奏することができる。   According to the said embodiment, in addition to said (1)-(3), there can exist the effect described below.

(4)同実施形態によれば、ディスプレイ4に対面する使用者5を含む撮像空間に使用者5以外に動くものがあった場合であっても、そのものとディスプレイ4との間の距離が、想定距離D1−α以下である、または想定距離D1+αよりも大きい場合は、画像処理は開始されない。このため、使用者5以外の動くものが撮像された場合であっても、これが使用者5と誤認されることを抑制することができる。   (4) According to the embodiment, even if there is something other than the user 5 in the imaging space including the user 5 facing the display 4, the distance between itself and the display 4 is If it is less than or equal to the assumed distance D1−α, or greater than the assumed distance D1 + α, the image processing is not started. For this reason, even if a moving object other than the user 5 is imaged, it can be prevented that this is mistaken as the user 5.

(5)また、前回の制御周期で取得した画像と今回の制御周期で評価画像との差分画像を用いて使用者5とディスプレイ4との間の距離D2を算出するようにしているため、簡易な構成で使用者5の位置を算出することができるようになる。   (5) In addition, since the distance D2 between the user 5 and the display 4 is calculated using the difference image between the image acquired in the previous control cycle and the evaluation image in the current control cycle, it is simple. The position of the user 5 can be calculated with a simple configuration.

(第三実施形態)
以下、本発明を具体化した第三実施形態を上記第一実施形態と異なる点を中心に図6〜図8に基づいて説明する。なお、これら図6〜図8において、第一実施形態にて説明した各要素と同一の要素についてはそれぞれ同一の符号を示しており、それら要素についての重複する説明は割愛する。
(Third embodiment)
Hereinafter, a third embodiment of the present invention will be described based on FIGS. 6 to 8 with a focus on differences from the first embodiment. In addition, in these FIGS. 6-8, the same code | symbol is shown about the element same as each element demonstrated in 1st embodiment, The overlapping description about these elements is omitted.

図6に示されるように、この第三実施形態の学習支援装置1は、ディスプレイ4(本発明の「表示画面」に相当)の中央上部に配設される中央カメラ7(本発明の「撮像手段」に相当)に加えて、ディスプレイ4の片側上部に配設される端側カメラ8(本発明の「撮像手段」に相当)を備えている。   As shown in FIG. 6, the learning support apparatus 1 of the third embodiment includes a central camera 7 (an “imaging” of the present invention) disposed at the upper center of a display 4 (corresponding to a “display screen” of the present invention). In addition to the “means”, an end camera 8 (corresponding to the “imaging means” of the present invention) provided on one upper side of the display 4 is provided.

中央カメラ7および端側カメラ8は、ディスプレイ4に対面する使用者5を含む撮像空間を撮像する。この中央カメラ7および端側カメラ8の撮像空間は、ディスプレイ4に対面して起立した使用者5の全身が収まる範囲であればよい。また、これら中央カメラ7および端側カメラ8は、所定時間Teの経過毎にディスプレイ4に対面する使用者5を含む撮像空間の画像を撮像して、それぞれPC3(本発明の「表示手段」、「判断手段」に相当)に出力している。   The central camera 7 and the end camera 8 image an imaging space including the user 5 facing the display 4. The imaging space of the central camera 7 and the end camera 8 may be in a range in which the whole body of the user 5 standing up against the display 4 can be accommodated. Further, the central camera 7 and the end camera 8 capture images of an imaging space including the user 5 facing the display 4 every elapse of a predetermined time Te, respectively, and the PC 3 (the “display unit” of the present invention, Equivalent to “determination means”).

PC3は、表示画像の所定位置の点(例えば、ディスプレイ4上の左下隅の点)を原点とし、横方向の座標をX軸、縦方向の座標をY軸、これらX軸およびY軸にそれぞれ直交する方向の座標をZ軸として、学習画像6を表示する座標(X,Y,Z)を設定する。本実施形態では、中央カメラ7および端側カメラ8からPC3に出力される画像を表示画像とする。また、これら表示画像のうち、中央カメラ7からPC3に出力される画像を特に基準画像や評価画像として本処理に使用する。また、学習画像6を表示する座標は、中央カメラ7から出力される画像に対して設定する。   The PC 3 uses a point at a predetermined position of the display image (for example, the point at the lower left corner on the display 4) as the origin, the horizontal coordinate is the X axis, the vertical coordinate is the Y axis, and these X axis and Y axis are respectively The coordinates (X, Y, Z) for displaying the learning image 6 are set with the coordinates in the orthogonal direction as the Z axis. In the present embodiment, an image output from the central camera 7 and the end camera 8 to the PC 3 is a display image. Of these display images, an image output from the central camera 7 to the PC 3 is used in the present process as a reference image or an evaluation image. The coordinates for displaying the learning image 6 are set for the image output from the central camera 7.

なお、本実施形態において、Z軸は、ディスプレイ4上の点を原点とし、奥行き方向を正方向とする軸である。そして、Z軸座標の値が大きい値に設定されたときほど、ディスプレイ4に表示される学習画像6の領域を小さくするようにしている。   In the present embodiment, the Z axis is an axis having a point on the display 4 as an origin and a depth direction as a positive direction. The area of the learning image 6 displayed on the display 4 is made smaller as the value of the Z-axis coordinate is set to a larger value.

そして、PC3は、中央カメラ7および端側カメラ8からそれぞれ取得される画像に基づいて、使用者5とディスプレイ4との間の距離D2を算出し、この距離D2が上述したように設定されるZ軸座標の値に相当する距離にあるか否かを判断するようにしている。   Then, the PC 3 calculates the distance D2 between the user 5 and the display 4 based on the images respectively acquired from the central camera 7 and the end camera 8, and this distance D2 is set as described above. It is determined whether the distance is equivalent to the value of the Z-axis coordinate.

以下、PC3に出力される画像の処理手順について図7を参照しながら詳細に説明する。
同図7に示されるように、本処理が開始されると、まず、PC3は学習時間Tpの計時を開始し(ステップS300)、次に中央カメラ7にて撮像された基準画像を取得する(ステップS301)。そして、学習画像6を表示する座標(X,Y,Z)を設定する(ステップS302)。
Hereinafter, the processing procedure of the image output to the PC 3 will be described in detail with reference to FIG.
As shown in FIG. 7, when this processing is started, first, the PC 3 starts measuring the learning time Tp (step S300), and then acquires a reference image captured by the central camera 7 (step S300). Step S301). Then, coordinates (X, Y, Z) for displaying the learning image 6 are set (step S302).

次に、PC3は、設定した座標(X,Y)を中心とする領域に学習画像6を表示する(ステップS303)。この際、PC3は、Z軸座標の値が大きい値に設定されたときほど、すなわち学習画像6が使用者5から見て遠くにあるときほど、当該学習画像6を小さく表示する。また、当該学習画像6の表示時間Tdの計時を開始する(ステップS303)。   Next, the PC 3 displays the learning image 6 in a region centered on the set coordinates (X, Y) (step S303). At this time, the PC 3 displays the learning image 6 smaller as the value of the Z-axis coordinate is set to a larger value, that is, as the learning image 6 is farther from the user 5. In addition, the measurement of the display time Td of the learning image 6 is started (step S303).

そして、PC3は、評価画像(本発明の「表示画像」に相当)を取得してディスプレイ4に表示する(ステップS304)。このように、ステップS304の実行毎に最新の画像を評価画像とするが、評価画像に対しては、都度同じ座標系を設定するとともにステップS302にて設定した領域Bと同等の領域を領域Bとする。
次に、3次元座標算出処理を実行する(ステップS305)。
Then, the PC 3 acquires an evaluation image (corresponding to the “display image” of the present invention) and displays it on the display 4 (step S304). In this way, the latest image is used as the evaluation image every time step S304 is executed. For the evaluation image, the same coordinate system is set each time, and an area equivalent to the area B set in step S302 is set as the area B. And
Next, a three-dimensional coordinate calculation process is executed (step S305).

次に、図8を参照しながら3次元座標算出処理について説明する。
同図8に示されるように、本処理が開始されると、PC3は、まず以下に説明するステップS330〜S334の処理と並行して、以下に説明するステップS335〜S339の処理を実行する。
Next, the three-dimensional coordinate calculation process will be described with reference to FIG.
As shown in FIG. 8, when this process is started, the PC 3 first executes the processes of steps S335 to S339 described below in parallel with the processes of steps S330 to S334 described below.

まず、ステップS330〜S334の処理について説明する。
PC3は、中央カメラ7が撮像してPC3に出力した画像のうち、最新の画像(評価画像)を第一実施形態にて説明した方法に準じた方法で複数の領域に区画し、領域B(学習画像6を表示する領域)の画像を取得する(ステップS330)。そして、この画像に対して白と黒の2階調に変換する2値化処理を施す(ステップS331)。
First, the process of steps S330 to S334 will be described.
Of the images captured by the central camera 7 and output to the PC 3, the PC 3 divides the latest image (evaluation image) into a plurality of regions by a method according to the method described in the first embodiment, and the region B ( An image of an area in which the learning image 6 is displayed is acquired (step S330). Then, a binarization process for converting the image into two gradations of white and black is performed (step S331).

次に、前回の制御周期で取得して2値化処理を施した領域Bの画像と、今回の制御周期で取得して2値化処理を施した領域Bの画像との差分画像を生成する(ステップS332)。そして、この差分画像中に白画素を検出したか否かを判断する(ステップS333)。
白画素を検出したと判断する場合(ステップS333:YES)、検出した白画素の座標を(X1,Y1)として記憶する(ステップS334)。
Next, a difference image is generated between the image of the region B acquired in the previous control cycle and subjected to the binarization processing and the image of the region B acquired in the current control cycle and subjected to the binarization processing. (Step S332). And it is judged whether the white pixel was detected in this difference image (step S333).
If it is determined that a white pixel has been detected (step S333: YES), the coordinates of the detected white pixel are stored as (X1, Y1) (step S334).

一方、白画素を検出していないと判断する場合(ステップS333:NO)、すなわち、前回撮像した画像と今回撮像した画像との間に変化がないと判断する場合、ステップS330〜S332の処理を再び実行する。   On the other hand, when it is determined that no white pixel is detected (step S333: NO), that is, when it is determined that there is no change between the previously captured image and the current captured image, the processing of steps S330 to S332 is performed. Run again.

次に、ステップS335〜S339の処理について説明する。
PC3は、端側カメラ8が撮像してPC3に出力した表示画像のうち、最新の画像に対して評価画像と同様の座標系を設定し、複数の領域に区画する。そして、評価画像で設定した座標(X,Y)に相当する座標を中心とする、領域Bに相当する領域の画像を取得する(ステップS335)。そして、この領域の画像に対して白と黒の2階調に変換する2値化処理を施す(ステップS336)。
Next, processing in steps S335 to S339 will be described.
The PC 3 sets the same coordinate system as the evaluation image for the latest image among the display images captured by the end camera 8 and output to the PC 3, and divides the image into a plurality of regions. Then, an image of an area corresponding to the area B centered on the coordinates corresponding to the coordinates (X, Y) set in the evaluation image is acquired (step S335). Then, a binarization process is performed on the image in this area to convert it into two gradations of white and black (step S336).

次に、前回の制御周期で端側カメラ8から取得して2値化処理を施した領域の画像と、今回の制御周期で端側カメラ8から取得して2値化処理を施した領域の画像との差分画像を生成する(ステップS337)。次に、PC3は、この差分画像中に白画素を検出したか否かを判断する(ステップS338)。   Next, an image of the area obtained from the end camera 8 and binarized in the previous control cycle, and an area obtained from the end camera 8 and binarized in the current control cycle A difference image from the image is generated (step S337). Next, the PC 3 determines whether or not a white pixel has been detected in the difference image (step S338).

白画素を検出したと判断する場合(ステップS338:YES)、検出した白画素の座標を(X2,Y2)として記憶する(ステップS339)。
一方、白画素を検出していないと判断する場合(ステップS338:NO)、すなわち、前回撮像した画像と今回撮像した画像との間に変化がないと判断する場合、ステップS335〜ステップS337の処理を再び実行する。
If it is determined that a white pixel has been detected (step S338: YES), the coordinates of the detected white pixel are stored as (X2, Y2) (step S339).
On the other hand, when it is determined that no white pixel is detected (step S338: NO), that is, when it is determined that there is no change between the previously captured image and the current captured image, the processing of steps S335 to S337 is performed. Run again.

このように、ステップS330〜S334の処理、およびステップS335〜S339の処理を実行した後、上述の処理で記憶した座標(X1,Y1)および(X2,Y2)に基づいて、使用者5とディスプレイ4との間の距離D2を算出する(ステップS340)。   As described above, after executing the processing of steps S330 to S334 and the processing of steps S335 to S339, based on the coordinates (X1, Y1) and (X2, Y2) stored in the above processing, the user 5 and the display are displayed. 4 is calculated (step S340).

このような3次元座標算出処理を実行した後(ステップS305)、PC3は、次に算出した距離D2が所定範囲にあるか否かを判断する(ステップS306)。次に、距離D2が所定範囲にあるか否かの判断方法について図9を参照しながら説明する。   After executing such a three-dimensional coordinate calculation process (step S305), the PC 3 determines whether or not the calculated distance D2 is within a predetermined range (step S306). Next, a method for determining whether or not the distance D2 is within the predetermined range will be described with reference to FIG.

同図9(a)に示されるように、例えば、Z軸座標の値「Z」が小さい値に設定されたときには、学習画像6が使用者5から近いところに表示されるように見えるべく、学習画像6を大きく表示する。このときには、使用者5がディスプレイ4から離れたこと、すなわち使用者5とディスプレイ4との間の距離D2が大きくなったことをもって、使用者5が所定範囲にあると判断する。
一方、Z軸座標の値「Z」が大きい値に設定されたときには、同図9(b)に示されるように、学習画像6が使用者5から遠いところに表示されるように見えるべく、学習画像6を小さく表示する。このときには、使用者5がディスプレイ4に近づいたこと、すなわち使用者5とディスプレイ4との間の距離D2が小さくなったことをもって、使用者5が所定範囲にあると判断する。
As shown in FIG. 9A, for example, when the Z-axis coordinate value “Z” is set to a small value, the learning image 6 appears to be displayed near the user 5, The learning image 6 is displayed in a large size. At this time, it is determined that the user 5 is within the predetermined range when the user 5 is away from the display 4, that is, the distance D2 between the user 5 and the display 4 is increased.
On the other hand, when the Z-axis coordinate value “Z” is set to a large value, as shown in FIG. 9B, the learning image 6 appears to be displayed far from the user 5, The learning image 6 is displayed in a small size. At this time, it is determined that the user 5 is within the predetermined range when the user 5 approaches the display 4, that is, when the distance D2 between the user 5 and the display 4 is reduced.

このように、Z軸座標の値「Z」が大きい値に設定されたときには、距離D2が小さくなることをもって、Z軸座標の値「Z」が小さい値に設定されたときには、距離D2が大きくなることをもって使用者5が所定範囲にあると判断する。
このため、本実施形態では、Z軸座標の値「Z」と距離D2との和が所定値D3になることをもって、距離D2が所定範囲にあると判断する。
Thus, when the Z-axis coordinate value “Z” is set to a large value, the distance D2 decreases, and when the Z-axis coordinate value “Z” is set to a small value, the distance D2 increases. Therefore, it is determined that the user 5 is within the predetermined range.
For this reason, in the present embodiment, when the sum of the Z-axis coordinate value “Z” and the distance D2 becomes the predetermined value D3, it is determined that the distance D2 is within the predetermined range.

距離D2が所定範囲にあると判断する場合(ステップS306:YES)、次に評価画像において学習画像6が表示される領域Bの階調値と、基準画像における領域Aの階調値との2次元相関係数rを算出する(ステップS307)。そして、この2次元相関係数rが基準値C以下であるか否かを判断する(ステップS308)。   When it is determined that the distance D2 is within the predetermined range (step S306: YES), the gradation value of the area B where the learning image 6 is next displayed in the evaluation image and the gradation value of the area A in the reference image are 2 A dimension correlation coefficient r is calculated (step S307). And it is judged whether this two-dimensional correlation coefficient r is below the reference value C (step S308).

2次元相関係数rが基準値C以下であると判断する場合(ステップS308;YES)、学習画像6に基づく情報を提供し、表示時間Tdをクリアする(ステップS310)。具体的には、第一実施形態にて示したように、犬に相当する英単語および犬の鳴き声を音声発生部3aから発生させるとともに、表示した犬が歩き去るようなアニメーションを表示させる。または、犬の画像を犬を示す英単語「Dog」に変化させる。   When it is determined that the two-dimensional correlation coefficient r is equal to or less than the reference value C (step S308; YES), information based on the learning image 6 is provided and the display time Td is cleared (step S310). Specifically, as shown in the first embodiment, an English word corresponding to a dog and a bark of a dog are generated from the voice generation unit 3a, and an animation that causes the displayed dog to walk away is displayed. Alternatively, the image of the dog is changed to an English word “Dog” indicating the dog.

2次元相関係数rが基準値Cを超えていると判断する場合(ステップS308:NO)、および距離D2が所定範囲内にないと判断する場合(ステップS306:NO)、学習画像6の表示時間Tdが最長表示時間Tdmaxを超えているか否かを判断する(ステップS309)。   When it is determined that the two-dimensional correlation coefficient r exceeds the reference value C (step S308: NO), and when it is determined that the distance D2 is not within the predetermined range (step S306: NO), the learning image 6 is displayed. It is determined whether or not the time Td exceeds the longest display time Tdmax (step S309).

表示時間Tdが最長表示時間Tdmax以下であると判断する場合(ステップS309:NO)、ステップS304以降の処理を実行する。   When it is determined that the display time Td is equal to or shorter than the longest display time Tdmax (step S309: NO), the processing after step S304 is executed.

一方、表示時間Tdが最長表示時間Tdmaxを超えたと判断する場合(ステップS309:YES)、次に現在ディスプレイ4に表示されている学習画像6を消去し、表示時間Tdをクリアする(ステップS311)。   On the other hand, when it is determined that the display time Td has exceeded the longest display time Tdmax (step S309: YES), the learning image 6 currently displayed on the display 4 is deleted, and the display time Td is cleared (step S311). .

次に、PC3は、学習時間Tpが所定時間Tpcを超えたか否かを判断する(ステップS312)。学習時間Tpが所定時間Tpcを超えたと判断する場合(ステップS312:YES)、この処理を終了する。一方、学習時間Tpが所定時間Tpc以下であると判断する場合(ステップS312:NO)、ステップS301以降の処理を実行する。   Next, the PC 3 determines whether or not the learning time Tp has exceeded the predetermined time Tpc (step S312). When it is determined that the learning time Tp has exceeded the predetermined time Tpc (step S312: YES), this process ends. On the other hand, when it is determined that the learning time Tp is equal to or shorter than the predetermined time Tpc (step S312: NO), the processing after step S301 is executed.

第一実施形態にて説明したように、近年、軽い身体運動により身体運動中の心拍数が上昇するにつれて学習能率が向上する一方、過度な身体運動により心拍数が上昇しすぎると学習能率が低下することが明らかになりつつある。そこで、本実施形態では、運動強度が所定の範囲におさまるように、最長表示時間Tdmaxおよび座標(X,Y,Z)を設定することが好ましい。   As described in the first embodiment, in recent years, learning efficiency improves as the heart rate during physical exercise increases due to light physical exercise, while learning efficiency decreases when the heart rate increases excessively due to excessive physical exercise. It is becoming clear. Therefore, in the present embodiment, it is preferable to set the longest display time Tdmax and the coordinates (X, Y, Z) so that the exercise intensity falls within a predetermined range.

上記実施形態によれば、上記(1)〜(3)に加え、以下に記載する作用効果を奏することができる。
(6)本実施形態によれば、使用者5は、X軸方向およびY軸方向のみならずZ軸方向(前後方向)にも動くこととなる。このため、使用者5が動く範囲が大きくなり、より好的に運動強度を向上させ、ひいては学習能率を向上させることができるようになる。
According to the said embodiment, in addition to said (1)-(3), there can exist the effect described below.
(6) According to the present embodiment, the user 5 moves not only in the X-axis direction and the Y-axis direction but also in the Z-axis direction (front-rear direction). For this reason, the range in which the user 5 moves is increased, and the exercise intensity can be improved more favorably, and as a result, the learning efficiency can be improved.

(第四実施形態)
以下、本発明を具体化した第四実施形態を上記第一実施形態と異なる点を中心に図10および図11に基づいて説明する。なお、図10および図11において、第一実施形態にて説明した各要素と同一の要素についてはそれぞれ同一の符号を示しており、それら要素についての重複する説明は割愛する。
(Fourth embodiment)
Hereinafter, a fourth embodiment embodying the present invention will be described based on FIG. 10 and FIG. 11 with a focus on differences from the first embodiment. 10 and 11, the same reference numerals are given to the same elements as those described in the first embodiment, and redundant description of these elements is omitted.

図10に示されるように、この第四実施形態の学習支援装置1は、ディスプレイ4(本発明の「表示画面」に相当)の中央上部に配設される第一カメラ10(本発明の「撮像手段」に相当)および第二カメラ11(本発明の「撮像手段」に相当)に加えて、赤外光を照射する赤外光ライト13を備えている。   As shown in FIG. 10, the learning support device 1 of the fourth embodiment includes a first camera 10 (“the display screen” of the present invention) disposed at the upper center of the display 4 (corresponding to the “display screen” of the present invention). In addition to the "imaging means" and the second camera 11 (corresponding to the "imaging means" of the present invention), an infrared light 13 for irradiating infrared light is provided.

第一カメラ10および第二カメラ11は、撮像範囲がディスプレイ4に対向して起立した使用者5の全身が収まる範囲となるように配設されている。また、第一カメラ10の受光部には、赤外光のみを透過するフィルタ12が取り付けられている。このため、第一カメラ10は、赤外光のみからなる赤外光画像を撮像することとなる。
また、これら第一カメラ10および第二カメラ11は、所定時間Teの経過毎にディスプレイ4に対面する使用者5を含む撮像空間を撮像して、それぞれPC3(本発明の「表示手段」、「判断手段」に相当)に出力している。
The first camera 10 and the second camera 11 are arranged so that the imaging range is a range in which the whole body of the user 5 standing up against the display 4 can be accommodated. A filter 12 that transmits only infrared light is attached to the light receiving portion of the first camera 10. For this reason, the 1st camera 10 will image the infrared light image which consists only of infrared light.
The first camera 10 and the second camera 11 take an image of an imaging space including the user 5 facing the display 4 every elapse of a predetermined time Te, respectively, and the PC 3 (the “display unit”, “ Equivalent to “determination means”).

本実施形態では、第一カメラ10および第二カメラ11からPC3に出力される画像を表示画像とする。特に、第一カメラ10からPC3に出力される画像をディスプレイ4に表示し、第二カメラ11からPC3に出力される画像を基準画像や評価画像として本処理に使用する。
以下、PC3に出力される画像の処理手順について図11を参照しながら詳細に説明する。
In the present embodiment, an image output from the first camera 10 and the second camera 11 to the PC 3 is a display image. In particular, an image output from the first camera 10 to the PC 3 is displayed on the display 4, and an image output from the second camera 11 to the PC 3 is used as a reference image or an evaluation image in this processing.
Hereinafter, the processing procedure of the image output to the PC 3 will be described in detail with reference to FIG.

同図11に示されるように、本処理が開始されると、まず、PC3は学習時間Tpの計時を開始し(ステップS400)、次に第二カメラ11にて撮像された可視光画像を取得してディスプレイ4に表示する(ステップS401)。   As shown in FIG. 11, when this process is started, first, the PC 3 starts measuring the learning time Tp (step S400), and then acquires a visible light image captured by the second camera 11. And it displays on the display 4 (step S401).

そして、第一カメラ10にて撮像され、PC3に出力された画像のうち、本処理の開始時に最も近い時点で撮像された画像を基準画像として取得する(ステップS402)。また、最新の画像を評価画像として取得する(ステップS402)。   And the image imaged at the time nearest to the time of the start of this process among the images imaged with the 1st camera 10 and output to PC3 is acquired as a standard image (Step S402). Further, the latest image is acquired as an evaluation image (step S402).

次に、第一カメラ10にて撮像され、PC3に出力された画像のうち、最新の画像(評価画像)に対して、上述した第一実施形態に準じた方法で学習画像6を表示する座標(X,Y)を設定する(ステップS403)。具体的には、評価画像を区画して形成される複数の領域のうち、ひとつの領域を選択し、この選択した領域(以下、領域B)の中心座標を座標(X,Y)として設定する。   Next, coordinates for displaying the learning image 6 by the method according to the above-described first embodiment with respect to the latest image (evaluation image) among the images captured by the first camera 10 and output to the PC 3. (X, Y) is set (step S403). Specifically, one area is selected from a plurality of areas formed by dividing the evaluation image, and the center coordinates of the selected area (hereinafter, area B) are set as coordinates (X, Y). .

第一実施形態と同様に、基準画像と評価画像には、同じ座標系が設定される。PC3は、基準画像のうち、領域Bに対応する領域(基準画像において、設定した座標(X,Y)を中心とする領域)を領域Aとする。   Similar to the first embodiment, the same coordinate system is set for the reference image and the evaluation image. The PC 3 sets a region corresponding to the region B in the reference image (a region centered on the set coordinates (X, Y) in the reference image) as the region A.

また、第二カメラ11からPC3に出力される可視光画像のうち、最新の画像に対して、第一カメラ10からPC3に出力された画像と同様の座標系を設定し、第一カメラ10からPC3に出力された画像と同様に複数の領域に区画する。そして、座標(X,Y)に相当する座標を中心とする、領域Bに相当する領域に学習画像6を表示して、当該学習画像6の表示時間Tdの計時を開始する(ステップS404)。   Moreover, the same coordinate system as the image output from the first camera 10 to the PC 3 is set for the latest image among the visible light images output from the second camera 11 to the PC 3. Similar to the image output to the PC 3, it is divided into a plurality of areas. Then, the learning image 6 is displayed in a region corresponding to the region B with the coordinate corresponding to the coordinates (X, Y) as the center, and the measurement of the display time Td of the learning image 6 is started (step S404).

次に、PC3は、第二カメラ11にて撮像された可視光画像をディスプレイ4に表示する(ステップS405)。このように、ステップS405の実行毎に最新の可視光画像をディスプレイ4に表示するが、これら可視光画像に対しては、都度同じ座標系を設定するとともにステップS403、S404にて設定した領域に学習画像6を表示し続ける。   Next, the PC 3 displays a visible light image captured by the second camera 11 on the display 4 (step S405). In this way, the latest visible light image is displayed on the display 4 every time step S405 is executed. For these visible light images, the same coordinate system is set each time and the region set in steps S403 and S404 is set. The learning image 6 is continuously displayed.

そして第一カメラ10にて撮像されPC3に出力される赤外光画像のうち、最新の画像を評価画像として取得する(ステップS406)。このように、ステップS406の実行毎に最新の赤外光画像を評価画像とするが、これら評価画像に対しては、都度同じ座標系を設定するとともに、都度ステップS403にて設定した領域Bと等しい位置に領域Bを設定する。 And the newest image is acquired as an evaluation image among the infrared-light images imaged with the 1st camera 10 and output to PC3 (step S406). In this way, the latest infrared light image is used as the evaluation image every time step S406 is executed. For these evaluation images, the same coordinate system is set each time, and the region B set in step S403 is set each time. Region B is set at the same position.

次に、PC3は、評価画像における領域Bの階調値と、基準画像における領域Aの階調値との2次元相関係数rを算出する(ステップS407)。そして、この2次元相関係数rが基準値C以下であるか否かを判断する(ステップS408)。
2次元相関係数rが基準値C以下であると判断する場合(ステップS408:YES)、学習画像6に基づく情報を提供し、表示時間Tdをクリアする(ステップS410)。
Next, the PC 3 calculates a two-dimensional correlation coefficient r between the gradation value of the region B in the evaluation image and the gradation value of the region A in the reference image (step S407). And it is judged whether this two-dimensional correlation coefficient r is below the reference value C (step S408).
When it is determined that the two-dimensional correlation coefficient r is equal to or less than the reference value C (step S408: YES), information based on the learning image 6 is provided and the display time Td is cleared (step S410).

一方、2次元相関係数rが基準値Cを超えていると判断する場合(ステップS408:NO)、すなわち、評価画像において学習画像6が表示される領域Bに使用者5の手が位置していないと判断する場合、次に学習画像6の表示時間Tdが最長表示時間Tdmaxを超えたか否かを判断する(ステップS409)。表示時間Tdが最長表示時間Tdmax以下であると判断する場合(ステップS409:NO)、ステップS405以降の処理を実行する。   On the other hand, when it is determined that the two-dimensional correlation coefficient r exceeds the reference value C (step S408: NO), that is, the hand of the user 5 is located in the region B where the learning image 6 is displayed in the evaluation image. If it is determined that it is not, it is next determined whether or not the display time Td of the learning image 6 exceeds the longest display time Tdmax (step S409). When it is determined that the display time Td is equal to or shorter than the longest display time Tdmax (step S409: NO), the processing after step S405 is executed.

表示時間Tdが最長表示時間Tdmaxを超えていると判断する場合(ステップS409:YES)、次に現在ディスプレイ4に表示されている学習画像6を消去し、表示時間Tdをクリアする(ステップS411)。   When it is determined that the display time Td exceeds the longest display time Tdmax (step S409: YES), the learning image 6 currently displayed on the display 4 is then erased and the display time Td is cleared (step S411). .

次に、PC3は、学習時間Tpが所定時間Tpcを超えたか否かを判断する(ステップS412)。学習時間Tpが所定時間Tpcを超えたと判断する場合(ステップS412:YES)、この処理を終了する。一方、学習時間Tpが所定時間Tpc以下であると判断する場合(ステップS412:NO)、ステップS402以降の処理を実行する。   Next, the PC 3 determines whether or not the learning time Tp has exceeded the predetermined time Tpc (step S412). When it is determined that the learning time Tp has exceeded the predetermined time Tpc (step S412: YES), this process ends. On the other hand, when it is determined that the learning time Tp is equal to or shorter than the predetermined time Tpc (step S412: NO), the processing after step S402 is executed.

上記実施形態によれば、上記(1)〜(3)に加えて以下に記載する作用効果を奏することができる。
(7)本実施形態によれば、赤外光ライト13から照射されて、使用者5に反射し、第一カメラ10にて撮像される赤外光を用いて使用者5の位置を検出することができる。このため、ディスプレイ4に対面する使用者5を含む空間に使用者5以外のものがあった場合、当該使用者5以外のものを使用者5と誤認することを抑制し、使用者5を適切に検出することができる。
According to the said embodiment, in addition to said (1)-(3), there can exist an effect described below.
(7) According to the present embodiment, the position of the user 5 is detected using the infrared light that is irradiated from the infrared light 13, reflected by the user 5, and picked up by the first camera 10. be able to. For this reason, when there is something other than the user 5 in the space including the user 5 facing the display 4, it is possible to suppress misidentification of the thing other than the user 5 as the user 5, and make the user 5 appropriate. Can be detected.

(その他の実施形態)
なお、この発明にかかる学習支援装置1は、上記実施形態にて例示した構成に限定されるものではなく、同実施の形態を適宜変更した例えば次のような形態として実施することもできる。また以下の各変形例は、上記実施形態についてのみ適用されるものではなく、異なる変形例同士を互いに組み合わせて実施することもできる。
(Other embodiments)
Note that the learning support device 1 according to the present invention is not limited to the configuration exemplified in the above embodiment, and can be implemented as, for example, the following form in which the embodiment is appropriately changed. The following modifications are not applied only to the above-described embodiment, and different modifications can be combined with each other.

・図12に示されるように、複数の領域を選択し、各領域にそれぞれ異なる学習画像6a〜6cを表示させてもよい。この場合、学習画像6a〜6cをディスプレイ4に表示させた後、PC3は、学習画像6a〜6cからひとつの学習画像を任意に選択する。例えば、学習画像6bを選択した場合、ディスプレイ4に学習画像6a〜6cを表示させた後、PC3は、学習画像6bを使用者5が選択するよう、何らかの指示を与える。図12の例で示すと、猫に相当する英単語(CAT)の音声を音声発生部3aから発生させる。その後、学習画像6bが表示される領域に使用者5の所定部位が位置する場合のみ、学習画像6bに基づく情報を提供し、学習画像6b以外の領域に所定部位が位置する場合は何の変化も与えないようにする。本変形例によれば、使用者5は、学習画像6bに基づく情報(本変形例では、猫に関する英単語の音声)を与えられた状態で、学習画像6a〜6cの中から学習画像6b(猫に関する画像)を選択するという作業を行うこととなる。このため、使用者5は、より好適に学習画像6bと学習画像6bに基づく情報とを対応づける学習を行うことができる。   As shown in FIG. 12, a plurality of areas may be selected and different learning images 6a to 6c may be displayed in the respective areas. In this case, after the learning images 6a to 6c are displayed on the display 4, the PC 3 arbitrarily selects one learning image from the learning images 6a to 6c. For example, when the learning image 6b is selected, after the learning images 6a to 6c are displayed on the display 4, the PC 3 gives some instruction so that the user 5 selects the learning image 6b. In the example of FIG. 12, English voice (CAT) voice corresponding to a cat is generated from the voice generator 3a. Thereafter, only when the predetermined part of the user 5 is located in the area where the learning image 6b is displayed, the information based on the learning image 6b is provided, and what changes when the predetermined part is located in an area other than the learning image 6b. Also don't give. According to this modification, the user 5 is given learning information 6b (from the learning images 6a to 6c) in a state where information based on the learning image 6b (in this modification, voice of English words related to cats) is given. The operation of selecting an image relating to a cat) is performed. For this reason, the user 5 can perform the learning which matches the learning image 6b and the information based on the learning image 6b more suitably.

・上記第三実施形態では、学習画像6をディスプレイ4の奥行き方向に表示するようにしたが、本発明の学習画像6の表示方法はこれに限られるものではない。例えば、ディスプレイ4から使用者5の方向へ飛び出すような態様で表示してもよい。   In the third embodiment, the learning image 6 is displayed in the depth direction of the display 4, but the display method of the learning image 6 of the present invention is not limited to this. For example, you may display in the aspect which jumps out from the display 4 toward the user 5.

・画像処理の実行中、使用者5とディスプレイ4との間の距離D2を常時モニタして、この距離D2が想定距離D1にないと判断されたときに、画像処理を終了するようにしてもよい。   During the image processing, the distance D2 between the user 5 and the display 4 is constantly monitored, and when it is determined that the distance D2 is not the assumed distance D1, the image processing is terminated. Good.

・上記実施形態では、諧調値の2次元相関係数rを用いて学習画像6が表示される領域に使用者5の手が位置したか否かを判断するようにしたが、本発明の判断方法はこれに限られるものではなく、例えば、輝度の2次元相関係数rを用いて判断するようにしてもよい。   In the above embodiment, it is determined whether the hand of the user 5 is located in the area where the learning image 6 is displayed using the two-dimensional correlation coefficient r of the gradation value. The method is not limited to this, and for example, the determination may be made using the two-dimensional luminance correlation coefficient r.

・上記実施形態では、学習画像6に基づく情報を、学習画像6(上記実施形態では犬)に相当する英単語の音声、アニメーション、または当該英単語の画像としたが、学習画像6に基づく情報はこれに限られるものではない。学習画像6に基づく情報として、振動を発生させるようにしてもよい。   In the above embodiment, the information based on the learning image 6 is the voice, animation, or image of the English word corresponding to the learning image 6 (the dog in the above embodiment). Is not limited to this. As information based on the learning image 6, vibration may be generated.

・上記実施形態では、カメラを1台ないし2台配設するようにしたが、配設するカメラの台数はこれに限られるものではなく、更に多くのカメラを配設してもよい。本変形例によれば、使用者5のZ軸方向における位置を精度よく検出することができる。   In the above embodiment, one or two cameras are arranged, but the number of cameras arranged is not limited to this, and more cameras may be arranged. According to this modification, the position of the user 5 in the Z-axis direction can be detected with high accuracy.

・上記実施形態では、カメラをディスプレイ4の上部に配設するようにしたが、本発明におけるカメラの配設位置はこれに限られるものではなく、使用者5の全身画像を撮像することができる位置であればよい。例えば、ディスプレイ4と使用者5を挟んで対向する位置に配設してもよい。   In the above embodiment, the camera is arranged on the upper part of the display 4, but the arrangement position of the camera in the present invention is not limited to this, and a whole body image of the user 5 can be taken. Any position is acceptable. For example, you may arrange | position in the position which opposes on both sides of the display 4 and the user 5. FIG.

・上記実施形態では、画像をディスプレイ4に表示するようにしたが、本発明の画像表示方法はこれに限られるものではない。例えば、PC3にプロジェクタを接続して、当該プロジェクタから画像を照射するようにしてもよい。   In the above embodiment, the image is displayed on the display 4, but the image display method of the present invention is not limited to this. For example, a projector may be connected to the PC 3 so that an image is emitted from the projector.

・上記実施形態では、使用者5の手が所定部位に相当するとして説明したが、本発明はこれに限られるものではなく、使用者5のいずれかの部位を所定部位とすることができる。   In the above embodiment, it has been described that the user 5's hand corresponds to the predetermined part, but the present invention is not limited to this, and any part of the user 5 can be the predetermined part.

・上記実施形態では、英語学習に用いる例について説明したが、本発明を用いて学習できるものは、英語に限らない。例えば、中国語やフランス語といった他の外国語の学習に用いることもできる。また、語学に限るものではなく、何らかの記憶の定着を促すための学習であれば、他の分野の学習に用いることもできる。   In the above embodiment, an example used for English learning has been described, but what can be learned using the present invention is not limited to English. For example, it can be used for learning other foreign languages such as Chinese and French. Moreover, the learning is not limited to language, and can be used for learning in other fields as long as the learning is to promote the establishment of some kind of memory.

1…学習支援装置
2…カメラ
3…PC
4…ディスプレイ
5…使用者
6…学習画像
7…中央カメラ
8…端側カメラ
10…第一カメラ
11…第二カメラ
12…フィルタ
13…赤外光ライト
1 ... Learning support device 2 ... Camera 3 ... PC
4 ... Display 5 ... User 6 ... Learning image 7 ... Central camera 8 ... End camera 10 ... First camera 11 ... Second camera 12 ... Filter 13 ... Infrared light

Claims (8)

画像を表示する表示画面と、前記表示画面に対面する使用者を含む撮像空間を表示画像として撮像する撮像手段とを備える学習支援装置であって、
前記表示画像を前記表示画面に表示するとともに、前記表示画像を区画して形成された複数の領域のうち少なくともひとつの領域に学習画像を表示する表示手段と、
前記学習画像が表示される領域に使用者の所定部位が位置するか否かを前記表示画像に基づいて判断する判断手段とを備え、
前記学習画像が表示される領域に前記所定部位が位置していると前記判断手段を通じて判断されたときには、前記表示手段は、前記学習画像に基づく情報を提供する
ことを特徴とする学習支援装置。
A learning support apparatus comprising: a display screen for displaying an image; and an imaging means for capturing an imaging space including a user facing the display screen as a display image,
Display means for displaying the display image on the display screen and displaying a learning image in at least one of a plurality of regions formed by partitioning the display image;
Determination means for determining whether or not a predetermined part of the user is located in a region where the learning image is displayed, based on the display image;
The learning support apparatus, wherein when the determination unit determines that the predetermined part is located in a region where the learning image is displayed, the display unit provides information based on the learning image.
請求項1に記載の学習支援装置であって、
前記判断手段は、前記学習画像の表示前に前記撮像手段から出力される表示画像を基準画像として記憶し、前記学習画像の表示後に前記撮像手段から出力される表示画像を評価画像として記憶し、前記基準画像における前記領域の諧調値と前記評価画像における前記領域の諧調値との二次元相関係数に基づいて前記領域に前記所定部位が位置するか否かを判断する
ことを特徴とする学習支援装置。
The learning support device according to claim 1,
The determination unit stores a display image output from the imaging unit before display of the learning image as a reference image, stores a display image output from the imaging unit after display of the learning image as an evaluation image, Learning based on a two-dimensional correlation coefficient between a gradation value of the region in the reference image and a gradation value of the region in the evaluation image, to determine whether or not the predetermined part is located in the region Support device.
請求項2に記載の学習支援装置であって、
前記領域を中心部分と当該中心部分を除く外側部分とに分割し、
前記基準画像における前記領域の外側部分の諧調値と、前記表示画像における前記領域の外側部分の諧調値との二次元相関係数に基づいて、前記領域に前記所定部位が位置するか否か判断する
ことを特徴とする学習支援装置。
The learning support device according to claim 2,
Dividing the region into a central portion and an outer portion excluding the central portion;
Based on a two-dimensional correlation coefficient between the gradation value of the outer portion of the region in the reference image and the gradation value of the outer portion of the region in the display image, it is determined whether or not the predetermined portion is located in the region. A learning support apparatus characterized by
請求項1〜3のいずれか一項に記載の学習支援装置であって、
前記表示手段は、使用者が前記表示画面に表示される学習画像に合わせて身体を動かしたときの当該使用者の運動強度が所定の範囲に収まるように、前記学習画像を前記表示画面に表示させる
ことを特徴とする学習支援装置。
The learning support device according to any one of claims 1 to 3,
The display means displays the learning image on the display screen so that the exercise intensity of the user when the user moves his body according to the learning image displayed on the display screen is within a predetermined range. A learning support device characterized by having
請求項1〜4のいずれか一項に記載の学習支援装置であって、
前記撮像手段は複数備えられるものであり、
前記判断手段は、前記各撮像手段を通じて撮像される各表示画像に基づいて、前記所定部位と前記表示画面との間の距離を算出し、
前記所定部位と前記表示画面との間が所定距離にあるときに、前記学習画像が表示される領域に使用者の所定部位が位置するか否かを判断する
ことを特徴とする学習支援装置。
The learning support device according to any one of claims 1 to 4,
A plurality of the imaging means are provided,
The determination unit calculates a distance between the predetermined part and the display screen based on each display image captured through each imaging unit,
A learning support apparatus, wherein when a predetermined distance is between the predetermined part and the display screen, it is determined whether or not the predetermined part of the user is located in a region where the learning image is displayed.
画像を表示画面に表示する表示手段と、前記表示画面に対面する使用者を含む撮像空間を表示画像として撮像する複数の撮像手段とを備える学習支援装置であって、
前記表示手段は、前記複数の撮像手段のうちのひとつの撮像手段を通じて撮像された表示画像を前記表示画面に表示し、
前記表示画面に表示される前記表示画像を複数の領域に区画して、前記複数の領域のうち少なくともひとつの領域を選択し、
前記表示画面に対して垂直方向に延びる座標において所定範囲を設定し、
前記選択した領域において学習画像を前記設定した所定範囲に応じた大きさで表示し、
前記複数の撮像手段を通じて撮像される各表示画像に基づいて、使用者の所定部位と前記表示画面との間の距離を算出し、
前記所定部位と前記表示画面との間が前記所定範囲にあるときに、前記学習画像が表示される領域に使用者の所定部位が位置するか否かを判断する判断処理を実行する
ことを特徴とする学習支援装置。
A learning support apparatus comprising: a display unit that displays an image on a display screen; and a plurality of imaging units that capture an imaging space including a user facing the display screen as a display image,
The display unit displays a display image captured through one of the plurality of imaging units on the display screen;
Partitioning the display image displayed on the display screen into a plurality of regions, selecting at least one of the plurality of regions,
A predetermined range is set in coordinates extending in a direction perpendicular to the display screen;
In the selected area, the learning image is displayed in a size according to the set predetermined range,
Based on each display image captured through the plurality of imaging means, a distance between a predetermined part of the user and the display screen is calculated,
A determination process is performed to determine whether or not the user's predetermined part is located in an area where the learning image is displayed when the predetermined part and the display screen are within the predetermined range. Learning support device.
請求項1〜6のいずれか一項に記載の学習支援装置であって、
前記撮像手段は、赤外光を撮像する
ことを特徴とする学習支援装置。
The learning support device according to any one of claims 1 to 6,
The image pickup means picks up infrared light.
画像を表示する表示工程と、前記表示画面に対面する使用者を含む撮像空間を表示画像として撮像する撮像工程とを備える学習支援方法であって、
前記表示画像を前記表示画面に表示するとともに、前記表示画像を区画して形成された複数の領域のうち少なくともひとつの領域に学習画像を表示する表示工程と、
前記学習画像が表示される領域に使用者の所定部位が位置するか否かを前記表示画像に基づいて判断する判断工程とを備え、
前記表示工程は、前記学習画像を、所定時間の経過毎に異なる領域に表示するものであり、
前記学習画像が表示される領域に前記所定部位が位置していると前記判断工程を通じて判断されたときには、前記表示工程は、前記学習画像に基づく情報を提供する
ことを特徴とする学習支援方法。
A learning support method comprising: a display step of displaying an image; and an imaging step of capturing an imaging space including a user facing the display screen as a display image,
A display step of displaying the display image on the display screen and displaying a learning image in at least one of a plurality of regions formed by partitioning the display image;
A determination step of determining whether or not a predetermined part of the user is located in a region where the learning image is displayed, based on the display image,
In the display step, the learning image is displayed in a different area for every elapse of a predetermined time,
When it is determined through the determination step that the predetermined part is located in a region where the learning image is displayed, the display step provides information based on the learning image.
JP2013122182A 2013-06-10 2013-06-10 Learning support device and learning support method Pending JP2014238792A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013122182A JP2014238792A (en) 2013-06-10 2013-06-10 Learning support device and learning support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013122182A JP2014238792A (en) 2013-06-10 2013-06-10 Learning support device and learning support method

Publications (1)

Publication Number Publication Date
JP2014238792A true JP2014238792A (en) 2014-12-18

Family

ID=52135882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013122182A Pending JP2014238792A (en) 2013-06-10 2013-06-10 Learning support device and learning support method

Country Status (1)

Country Link
JP (1) JP2014238792A (en)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09325674A (en) * 1996-06-04 1997-12-16 Combi Corp Visual-edutainment-exercise system
JP2000010696A (en) * 1998-06-22 2000-01-14 Sony Corp Device and method for processing image and provision medium
JP2009010849A (en) * 2007-06-29 2009-01-15 Victor Co Of Japan Ltd Control device for electronic apparatus
JP2009089068A (en) * 2007-09-28 2009-04-23 Victor Co Of Japan Ltd Control device for electronic apparatus, control method and control program
JP2009201800A (en) * 2008-02-28 2009-09-10 Xing Inc Exercise supporting apparatus, computer program and exercise supporting method
JP2012090802A (en) * 2010-10-27 2012-05-17 Denso It Laboratory Inc Amusement system
JP2012196315A (en) * 2011-03-22 2012-10-18 Nagasakiken Koritsu Daigaku Hojin Occupational therapy training support apparatus
JP2013021389A (en) * 2011-07-07 2013-01-31 Nikon Corp Image display device
JP2013069224A (en) * 2011-09-26 2013-04-18 Sony Corp Motion recognition apparatus, motion recognition method, operation apparatus, electronic apparatus, and program
JP2013080135A (en) * 2011-10-04 2013-05-02 Nagasakiken Koritsu Daigaku Hojin Image display device
JP2013088732A (en) * 2011-10-21 2013-05-13 Yoshitaka Yamamoto Foreign language learning system
JP2013517051A (en) * 2010-01-15 2013-05-16 マイクロソフト コーポレーション Recognition of user intent in motion capture systems

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09325674A (en) * 1996-06-04 1997-12-16 Combi Corp Visual-edutainment-exercise system
JP2000010696A (en) * 1998-06-22 2000-01-14 Sony Corp Device and method for processing image and provision medium
JP2009010849A (en) * 2007-06-29 2009-01-15 Victor Co Of Japan Ltd Control device for electronic apparatus
JP2009089068A (en) * 2007-09-28 2009-04-23 Victor Co Of Japan Ltd Control device for electronic apparatus, control method and control program
JP2009201800A (en) * 2008-02-28 2009-09-10 Xing Inc Exercise supporting apparatus, computer program and exercise supporting method
JP2013517051A (en) * 2010-01-15 2013-05-16 マイクロソフト コーポレーション Recognition of user intent in motion capture systems
JP2012090802A (en) * 2010-10-27 2012-05-17 Denso It Laboratory Inc Amusement system
JP2012196315A (en) * 2011-03-22 2012-10-18 Nagasakiken Koritsu Daigaku Hojin Occupational therapy training support apparatus
JP2013021389A (en) * 2011-07-07 2013-01-31 Nikon Corp Image display device
JP2013069224A (en) * 2011-09-26 2013-04-18 Sony Corp Motion recognition apparatus, motion recognition method, operation apparatus, electronic apparatus, and program
JP2013080135A (en) * 2011-10-04 2013-05-02 Nagasakiken Koritsu Daigaku Hojin Image display device
JP2013088732A (en) * 2011-10-21 2013-05-13 Yoshitaka Yamamoto Foreign language learning system

Similar Documents

Publication Publication Date Title
JP7004094B2 (en) Fish length measurement system, fish length measurement method and fish length measurement program
JP4791595B2 (en) Image photographing apparatus, image photographing method, and image photographing program
JP5361592B2 (en) Endoscope apparatus, measurement method, and program
JP6189170B2 (en) Posture estimation device
JP6304244B2 (en) 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program
JP2018048839A (en) Three-dimensional data generator, three-dimensional data generation method, and monitoring system equipped with three-dimensional data generator
JP5417645B2 (en) Plane estimation method and range image camera in range image
WO2019172363A1 (en) Information processing device, object measurement system, object measurement method, and program storage medium
JP2008146583A (en) Attitude detector and behavior detector
JP2012154805A (en) Jumping action measuring device and jumping action measuring method
JP6816773B2 (en) Information processing equipment, information processing methods and computer programs
JP2012226645A (en) Image processing apparatus, image processing method, recording medium, and program
JP5928676B2 (en) Occupational therapy training support device
JPWO2013088517A1 (en) How to estimate the orientation of a stationary person
JP2011069797A (en) Displacement measuring device and displacement measuring method
JP5652882B2 (en) Scoliosis screening system, scoliosis determination program used therefor, and terminal device
JP2019126657A (en) Detection device and detection program
JP2008148237A (en) Posture detecting device
JPWO2017072975A1 (en) Imaging system
JP2014238792A (en) Learning support device and learning support method
WO2019230171A1 (en) Laser calibration device, calibration method therefor, and image input device including laser calibration device
JP2005084012A (en) Skin shape measuring method and skin shape measuring device
JP6075982B2 (en) Face frown detection system and face frown detection method
JP6306903B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP5102107B2 (en) Microscope equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160608

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170314

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171017