JP2015145939A - Video/sound recording system for articulation training - Google Patents

Video/sound recording system for articulation training Download PDF

Info

Publication number
JP2015145939A
JP2015145939A JP2014018314A JP2014018314A JP2015145939A JP 2015145939 A JP2015145939 A JP 2015145939A JP 2014018314 A JP2014018314 A JP 2014018314A JP 2014018314 A JP2014018314 A JP 2014018314A JP 2015145939 A JP2015145939 A JP 2015145939A
Authority
JP
Japan
Prior art keywords
recording
display
patient
displayed
prompt
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014018314A
Other languages
Japanese (ja)
Other versions
JP5805804B2 (en
Inventor
山本 一郎
Ichiro Yamamoto
一郎 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2014018314A priority Critical patent/JP5805804B2/en
Publication of JP2015145939A publication Critical patent/JP2015145939A/en
Application granted granted Critical
Publication of JP5805804B2 publication Critical patent/JP5805804B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a device allowing articulation training excluding a McGurk effect.SOLUTION: The video/sound recording system of the present invention includes: a microphone for collecting sounds; storing means for storing a character or picture as an articulation object for training; a camera for photographing a patient; a display for displaying an image; a speaker for reproducing a sound; and a control unit for performing control so that the character or picture read from the storing means is displayed on a display screen 12a of the display 12, an image of the patient photographed by the camera is not displayed, and sounds are collected by the microphone. When the collected sounds are included a desired articulation, the image of the patient including his/her mouth shape is displayed, and the collected sounds are reproduced from the speaker.

Description

この発明は、構音訓練用録画・録音装置に関するものである。   The present invention relates to a recording / recording apparatus for articulation training.

口蓋裂術後症は、構音障害を生じさせることがある。当該構音障害は、言語聴覚士等の指導者による直接の構音指導、及び家庭での反復練習によって治療される。それには、治療前に良好な記録の採取と検査が不可欠である。   Post cleft palate can cause dysarthria. The articulation disorder is treated by direct articulation guidance by a leader such as a speech hearing person and repeated practice at home. To do so, it is essential to have good records and tests before treatment.

構音障害の治療では、患者毎に必要な構音訓練の内容が異なる。そして、構音障害の治療は、家庭において、正しい構音を繰り返すことが重要である。しかし、家庭では、正しい構音であったか否かを患者自身が確認することができず、指導者による構音訓練と同様の環境を再現することは困難であった。   In the treatment of articulation disorders, the content of articulation training necessary for each patient differs. In the treatment of articulation disorders, it is important to repeat correct articulation at home. However, at home, the patient himself / herself cannot confirm whether or not the composition was correct, and it was difficult to reproduce the same environment as the composition training by the instructor.

そこで、特許文献1においては、家庭での構音訓練を効率的に行うことができる情報処理装置が提案されている。   Therefore, Patent Document 1 proposes an information processing apparatus that can efficiently perform articulation training at home.

この特許文献1の情報処理装置は、音声を集音するマイクと、所定の構音に対応する参照音声波形を記憶する記憶手段と、画像を表示する表示手段と、前記マイクで集音した音声の波形を取得し、当該取得した音声の波形、前記参照音声波形、及び前記所定の構音に対応する口形の画像、を前記表示手段に表示させる制御手段と、を備えている。   The information processing apparatus disclosed in Patent Document 1 includes a microphone that collects voice, a storage unit that stores a reference voice waveform corresponding to a predetermined composition, a display unit that displays an image, and a voice that is collected by the microphone. Control means for acquiring a waveform and displaying the acquired sound waveform, the reference sound waveform, and a mouth shape image corresponding to the predetermined articulation on the display means.

特開2013−61369号公報JP 2013-61369 A

ところで、上記した特許文献1においては、構音障害による問題とマガーク効果による問題が解決されていない。   By the way, in the above-mentioned patent document 1, the problem due to the dysarthria and the problem due to the Magag effect are not solved.

構音障害は、舌が口蓋に当たる位置によって、発生する音が異なることが原因の一つであり、口の動きは同じなのに、異なった発音が生じるという障害をいう。   The dysarthria is one of the causes that the generated sound differs depending on the position where the tongue hits the palate, and it means that the sound of the mouth is the same, but different pronunciations occur.

マガーク効果は、ある音韻を発音したときの音声を、別の音韻を発音しているときの口の動きの映像と組み合わせて視聴者が視聴すると、耳から入ってきた音韻や口の動きから連想した音韻とも異なる音韻を視聴者が知覚するという知覚効果をいう。   The Magherk effect is associated with the phoneme and mouth movement that comes from the ear when the viewer views the sound of one phoneme in combination with the video of the mouth movement of another phoneme. This means the perceptual effect that the viewer perceives a phoneme that is different from the phoneme.

即ち、上記した特許文献1おいては、発音したときの口形の画像を表示するように構成しているが、舌が口蓋に当たる位置が異なり音韻が所望の音韻とならない場合、この口形と異なる音韻の音声が組み合わされ、マガーク効果により異なる音韻を知覚することになり、却って構音訓練を阻害する虞がある。   That is, in the above-mentioned Patent Document 1, the mouth shape image when it is pronounced is displayed, but when the position where the tongue hits the palate is different and the phoneme does not become the desired phoneme, the phoneme different from this mouth shape is displayed. Are combined to perceive different phonemes due to the Magag effect, which may hinder articulation training.

この発明は、上記した従来の問題点を解消するためになされたものにして、マガーク効果の影響を排除した構音訓練が行える装置を提供することを目的とする。   An object of the present invention is to provide an apparatus capable of performing articulation training which is made to solve the above-described conventional problems and eliminates the influence of the Magag effect.

この発明の構音訓練用録画・録音装置は、音声を集音する集音手段と、訓練用の構音対象となる文字又は絵を記憶する記憶手段と、画像を表示する表示手段と、患者を撮影する撮影手段と、前記表示手段に前記記憶手段から読み出した文字又は絵を表示させるとともに、前記撮影手段で撮影している患者の画像の表示を行わないように制御して、前記集音手段で音声を集音するように制御する制御手段と、を備えたことを特徴とする。   The recording / recording apparatus for articulation training according to the present invention includes a sound collecting means for collecting voice, a storage means for storing characters or pictures to be trained for training, a display means for displaying an image, and imaging a patient. And the display means displays on the display means characters or pictures read from the storage means, and controls so as not to display the image of the patient imaged by the imaging means, And a control means for controlling the sound to be collected.

また、選択可能な訓練の構音対象を表示する表示欄と、録画・録音されたデータの有無を表示する録画・録音データ選択欄と、を備え、選択した訓練用の構音対象の文字を又は絵を表示させた状態で、録画・録音すると、該当する録画・録音データ選択欄の表示を変更させるように構成することができる。   It also has a display field that displays selectable training composition and a recording / recording data selection field that displays the presence / absence of recorded / recorded data. When recording / recording in a state where is displayed, the display of the corresponding recording / recording data selection field can be changed.

また、音声を再生する拡声手段を備え、前記集音した音声が所望の構音である場合に、口形を含む患者の画像を表示させると共に集音した音声を拡声手段から再生するように構成すればよい。   Further, it is provided with a loudspeaker that reproduces voice, and when the collected voice has a desired composition, it is configured to display a patient image including a mouth shape and to play the collected voice from the loudspeaker. Good.

この発明は、マガーク効果の影響が生じない状態で、家庭での構音訓練、また、家庭で行った構音訓練に対する適切な指導を行うことができる。   According to the present invention, it is possible to perform appropriate articulation training at home and articulation training performed at home without being affected by the Magag effect.

この発明にかかる構音訓練用録画・録音装置の構成を示すブロック図である。It is a block diagram which shows the structure of the recording / recording apparatus for articulation training concerning this invention. この発明に用いられるタブレット型パーソナルコンピュータ装置を示す模式図である。It is a schematic diagram which shows the tablet-type personal computer apparatus used for this invention. この発明に用いられるUSBコントローラを示す模式図である。It is a schematic diagram which shows the USB controller used for this invention. この発明のディスプレイに表示される画面の例を示す図である。It is a figure which shows the example of the screen displayed on the display of this invention. この発明のディスプレイに表示される画面の顔検出ランプを示す図である。It is a figure which shows the face detection lamp of the screen displayed on the display of this invention. この発明のディスプレイに表示されるインジケータ部を示す図である。It is a figure which shows the indicator part displayed on the display of this invention. この発明の音声モードにおけるディスプレイに表示される画面の例を示す図である。It is a figure which shows the example of the screen displayed on the display in the audio | voice mode of this invention. この発明の動画モードにおけるディスプレイに表示される画面の例を示す図である。It is a figure which shows the example of the screen displayed on the display in the moving image mode of this invention. この発明の動画モードにおけるディスプレイに表示される画面の動画表示欄をマスクした例を示す図である。It is a figure which shows the example which masked the moving image display column of the screen displayed on the display in the moving image mode of this invention. この発明の動画モードにおけるディスプレイのプロンプト表示欄に文字の表示を行っている例を示す図である。It is a figure which shows the example which is displaying the character in the prompt display column of the display in the moving image mode of this invention. この発明の音声モードにおけるディスプレイに表示される画面の再生表示の例を示す図である。It is a figure which shows the example of the reproduction | regeneration display of the screen displayed on the display in the audio | voice mode of this invention. この発明の動画モードにおけるディスプレイに表示される画面の再生表示の例を示す図である。It is a figure which shows the example of the reproduction | regeneration display of the screen displayed on the display in the moving image mode of this invention. この発明の動画モードにおけるディスプレイに表示される画面の再生表示の例を示す図である。It is a figure which shows the example of the reproduction | regeneration display of the screen displayed on the display in the moving image mode of this invention. この発明の制御部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the control part of this invention.

以下、この実施の形態について図面を参照しながら詳細に説明する。なお、図中同一又は相当部分には同一符号を付して、説明の重複を避けるためにその説明は繰返さない。   Hereinafter, this embodiment will be described in detail with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals, and the description thereof will not be repeated in order to avoid duplication of explanation.

図1は、この発明にかかる構音訓練用録画・録音装置の構成を示すブロック図であり、図2は、この発明に用いられるタブレット型パーソナルコンピュータ装置を示す模式図である。この構音訓練用録画・録音装置は、例えば、図2に示すように、タブレット型パーソナルコンピュータ装置1を用いて構成されている。このタブレット型パーソナルコンピュータ装置1は、制御部10、ディスプレイ11、入力装置12、マイク13、スピーカ14、カメラ15、通信インターフェース(I/F)16、USBインターフェース(I/F)17、ROM18及びRAM19を備えたパーソナルコンピュータ装置である。   FIG. 1 is a block diagram showing a configuration of a recording / recording apparatus for articulation training according to the present invention, and FIG. 2 is a schematic diagram showing a tablet personal computer apparatus used in the present invention. This articulation training recording / recording apparatus is configured using a tablet personal computer apparatus 1 as shown in FIG. The tablet personal computer device 1 includes a control unit 10, a display 11, an input device 12, a microphone 13, a speaker 14, a camera 15, a communication interface (I / F) 16, a USB interface (I / F) 17, a ROM 18 and a RAM 19. It is a personal computer apparatus provided with.

制御部10は、タブレット型パーソナルコンピュータ装置1を統括的に制御するものであり、マイクロコンピュータで構成されている。そして、制御部10では、各部で入力された操作信号に基づいて各部で収集されたデータを処理する。   The control unit 10 controls the tablet personal computer device 1 in an integrated manner, and is composed of a microcomputer. And the control part 10 processes the data collected in each part based on the operation signal input in each part.

制御部10には、ディスプレイ11、入力装置12、マイク13、スピーカ14、カメラ15、通信I/F16、USBI/F17、ROM18及びRAM19が接続されている。   A display 11, an input device 12, a microphone 13, a speaker 14, a camera 15, a communication I / F 16, a USB I / F 17, a ROM 18 and a RAM 19 are connected to the control unit 10.

ディスプレイ11は、制御部10で処理された画像データを表示する表示装置である。入力装置12は、操作者が入力した操作を操作信号にして、制御部10に送信する入力装置である。   The display 11 is a display device that displays image data processed by the control unit 10. The input device 12 is an input device that transmits an operation input by the operator as an operation signal to the control unit 10.

図2に示すように、タブレット型パーソナルコンピュータ装置1に備えられたディスプレイ11と入力装置12がタッチパネル液晶で構成される場合には、ディスプレイ11と入力装置12が一体として構成される。   As shown in FIG. 2, when the display 11 and the input device 12 provided in the tablet personal computer device 1 are configured by a touch panel liquid crystal, the display 11 and the input device 12 are configured integrally.

マイク13は、患者が発音した音声を収集するために使用する集音装置である。スピーカ14は、制御部10が処理した音声データを再生するために使用する拡声装置である。カメラ15は、患者が発音したときの顔の動きを撮影するために使用する撮影装置である。カメラ15は、患者が発音したときの顔の動きを撮影するために使用する撮影装置である。   The microphone 13 is a sound collecting device used to collect sound produced by the patient. The speaker 14 is a loudspeaker device used for reproducing the audio data processed by the control unit 10. The camera 15 is a photographing device used for photographing the movement of the face when the patient pronounces. The camera 15 is a photographing device used for photographing the movement of the face when the patient pronounces.

通信I/F16は、図示しない種々の機器と接続され、それら種々の機器との間でデータ等の送受信が行われる。通信I/F16と種々の機器は、例えば、ブルートゥース(Bluetooth)(登録商標)の規格に基づいた近距離無線通信により、データの送受が行われる。なお、無線通信であればブルートゥース以外の無線通信規格であっても構わない。   The communication I / F 16 is connected to various devices (not shown), and exchanges data and the like with these various devices. The communication I / F 16 and various devices transmit and receive data by short-range wireless communication based on, for example, the Bluetooth (registered trademark) standard. Note that wireless communication standards other than Bluetooth may be used for wireless communication.

USBI/F17は、USBデバイスとしてのUSBコントローラ2が接続され、USBコントローラ2から各種操作信号が制御部10に与えられる。   The USB I / F 17 is connected to a USB controller 2 as a USB device, and various operation signals are given from the USB controller 2 to the control unit 10.

ROM18とRAM19はともに記憶媒体であり、ROM18に記憶されている各種プログラムをRAM19に展開して、制御部10で処理することにより種々の動作を行う。ただし、タブレット型パーソナルコンピュータ装置1が制御部10によって統括的に制御されるものであればよいので、各種プログラムとROM18、RAM19との構成はどの様な構成であってもよい。   Both the ROM 18 and the RAM 19 are storage media, and various programs stored in the ROM 18 are developed in the RAM 19 and processed by the control unit 10 to perform various operations. However, as long as the tablet personal computer device 1 is centrally controlled by the control unit 10, the various programs and the ROM 18 and RAM 19 may have any configuration.

例えば、ROM18には、タブレット型パーソナルコンピュータ装置1を起動するためのOS等を格納しておき、その格納したOS等を読み出して、RAM19にOS等を展開して、各種機能を実現するように構成してもよい。   For example, the ROM 18 stores an OS or the like for starting the tablet personal computer device 1, reads the stored OS or the like, expands the OS or the like in the RAM 19, and realizes various functions. It may be configured.

また、RAM19は、ハードディスク等の不揮発性メモリとワークRAM等で構成して、RAM19の不揮発性メモリに各種ソフトを格納して、その格納した各種ソフトを読み出して、ワークRAM等に各種ソフトを展開して、各種機能を実現するように構成してもよい。   The RAM 19 is composed of a non-volatile memory such as a hard disk and a work RAM, and stores various software in the non-volatile memory of the RAM 19, reads the stored software, and develops the various software on the work RAM. Thus, various functions may be realized.

図3は、USBコントローラ2の構成を示した図である。USBコントローラ2は、ディスプレイ11に表示するプロンプトを切り替えるためや録画・録音・再生のために使用する。USBコントローラ2は、選択するプロンプトを切り替える上ボタン21、下ボタン22と録画・録音のオン・オフボタン23を有する。これらボタン21〜23を押すことで制御信号を発生して、その制御信号を制御部10へ与える。   FIG. 3 is a diagram showing the configuration of the USB controller 2. The USB controller 2 is used for switching a prompt displayed on the display 11 and for recording / recording / reproducing. The USB controller 2 includes an upper button 21, a lower button 22, and a recording / recording on / off button 23 for switching a prompt to be selected. By pressing these buttons 21 to 23, a control signal is generated, and the control signal is given to the control unit 10.

この発明にかかる構音訓練用録画・録音装置において、録画・録音を行っていないときにこのオン・オフボタン23を押すと録画・録音が開始して、録画・録音を行っているときにこのオン・オフボタン23を押すと録画・録音が停止する。   In the recording / recording apparatus for articulation training according to the present invention, when the on / off button 23 is pressed when recording / recording is not being performed, recording / recording starts, and when recording / recording is being performed, this on / off is started.・ Pressing the OFF button 23 stops recording.

次に、構音障害の治療を補助するための構音訓練用アプリケーションプログラム(以下、「構音訓練用ソフトAP」という。)について、説明する。構音訓練用ソフトAPは、この実施の形態では、ROM18に格納されている。制御部10は、ROM18に格納されている構音訓練用ソフトAPを読み出して、RAM19に展開することにより、以下のような機能を実現する。即ち、制御部10は、マイク13を用いた録音機能、スピーカ14を用いた音声再生機能、カメラ15を用いた撮影機能、マイク13で集音した音声の時間軸波形を取得する波形取得機能、撮影した画像、音声波形等をディスプレイ11に表示する表示機能等を実現する。訓練用の構音対象となる文字又は絵は構音訓練用ソフトAPと共にROM18に格納されている。   Next, an application program for articulation training for assisting treatment of articulation disorders (hereinafter referred to as “articulation training software AP”) will be described. The articulation training software AP is stored in the ROM 18 in this embodiment. The control unit 10 reads out the articulation training software AP stored in the ROM 18 and develops it in the RAM 19 to realize the following functions. That is, the control unit 10 has a recording function using the microphone 13, a sound reproduction function using the speaker 14, a photographing function using the camera 15, a waveform acquisition function for acquiring a time axis waveform of the sound collected by the microphone 13, A display function for displaying a photographed image, a voice waveform, and the like on the display 11 is realized. Characters or pictures to be trained for composition are stored in the ROM 18 together with the composition training software AP.

制御部10は、マイク13を用いて録音した音声データやカメラ15を用いて撮影した画像データをRAM19に格納する。RAM19に格納された各データは、記録した日時、記録に対応するプロンプト等の記録状況を識別可能にしておく。これにより、各データの読み出しは、日時、記録状況などに基づいて容易に選択して、再生することができる。 The control unit 10 stores audio data recorded using the microphone 13 and image data captured using the camera 15 in the RAM 19. Each data stored in the RAM 19 makes it possible to identify the recording date and time, the recording status such as a prompt corresponding to the recording. Thereby, the reading of each data can be easily selected and reproduced based on the date and time, the recording status, and the like.

このように、構音訓練用ソフトAPは、マイク13で集音した患者が発音した音声の音声波形やカメラ15で撮影した画像をディスプレイ11に表示することができる。これにより、患者は聴覚的なフィードバックだけでなく、視覚的なフィードバックが得られるため、家庭での構音訓練、また、家庭で行った構音訓練に対する適切な指導を行うことができる。また、構音訓練用ソフトAPは、録画・録音において、マイク13で録音した音声データやカメラ15を用いて撮影した画像データを、聴覚的情報と視覚的情報を区別して、RAM19に格納することもできる。これにより、格納されたデータを再生するときにおいて、マガーク効果の影響を排除した構音訓練を行うことができるため、家庭での構音訓練、また、家庭で行った構音訓練に対する適切な指導を行うことができる。   As described above, the articulation training software AP can display the voice waveform of the voice generated by the patient collected by the microphone 13 and the image taken by the camera 15 on the display 11. Thus, since the patient can obtain not only auditory feedback but also visual feedback, it is possible to provide appropriate guidance for articulation training at home and articulation training performed at home. In addition, the articulation training software AP may store audio data recorded by the microphone 13 and image data captured by the camera 15 in the RAM 19 while distinguishing auditory information from visual information. it can. As a result, when reproducing stored data, it is possible to perform articulation training that eliminates the influence of the Magag effect, so appropriate guidance for home articulation training and home articulation training should be provided. Can do.

以下、ディスプレイ11に表示される具体的な表示内容及び制御部10の動作について説明する。
ディスプレイ11に表示される表示画面の表示モードには、音声モードと動画モードがある。
音声モードは、患者が発音した様子の録画・録音又は録画・録音したデータの再生において、画像表示欄を表示しない表示モードである。
動画モードは、患者が発音した様子の録画・録音又は録画・録音したデータの再生において、画像表示欄を表示する表示モードである。
Hereinafter, specific display contents displayed on the display 11 and the operation of the control unit 10 will be described.
The display mode of the display screen displayed on the display 11 includes an audio mode and a moving image mode.
The voice mode is a display mode in which the image display column is not displayed in recording / recording of a state in which a patient pronounces sound or reproducing recorded / recorded data.
The moving image mode is a display mode in which an image display field is displayed in recording / recording of a state in which a patient has pronounced or reproduction of recorded / recorded data.

音声モードにおける表示画面について説明する。
図4は、音声モードにおけるディスプレイ11に表示される表示画面11aの例を示す図である。患者がタッチパネルである入力装置12を操作して、構音訓練用ソフトAPを立ち上げると、図4に示すように、ディスプレイ11に表示画面11aが表示される。
A display screen in the voice mode will be described.
FIG. 4 is a diagram illustrating an example of the display screen 11a displayed on the display 11 in the voice mode. When the patient operates the input device 12 which is a touch panel to start the articulation training software AP, a display screen 11a is displayed on the display 11 as shown in FIG.

表示画面11aには、顔検出ランプ111、顔検出インジケータ112、レコードボタン113、ストップボタン114、プレイボタン115、プロンプト表示欄116、プロンプト選択欄117、録画・録音データ選択欄118、音声波形欄119の操作アイコン等の画像表示欄が表示される。   The display screen 11a includes a face detection lamp 111, a face detection indicator 112, a record button 113, a stop button 114, a play button 115, a prompt display field 116, a prompt selection field 117, a recording / recording data selection field 118, and an audio waveform field 119. An image display field such as an operation icon is displayed.

顔検出ランプ111は、カメラ15で検出された患者の顔の位置が正常な範囲に収まっているかどうかを患者に知らせるランプである。図4に示すように、構音訓練用ソフトAPを立ち上げると、表示画面11aに、顔検出ランプ111が表示される。   The face detection lamp 111 is a lamp that informs the patient whether or not the position of the patient's face detected by the camera 15 is within a normal range. As shown in FIG. 4, when the articulation training software AP is started up, a face detection lamp 111 is displayed on the display screen 11a.

図5は、この発明における顔検出ランプ111の変化の様子を示す図である。
カメラ15で検出された患者の顔の位置が正常な範囲に収まっていない場合には、顔検出ランプ111が赤色(図5に示す111aにおけるハッチングの状態)になる。カメラ15で検出された患者の顔の位置が正常な範囲に収まっている場合には、顔検出ランプ111が緑色(図5に示す111bにおけるクロスハッチングの状態)になる。この顔検出ランプ111が赤色(111a)から緑色(111b)になるように、カメラ15を患者の顔の前で移動させる。
FIG. 5 is a diagram showing how the face detection lamp 111 changes in the present invention.
When the position of the patient's face detected by the camera 15 is not within the normal range, the face detection lamp 111 turns red (hatched in 111a shown in FIG. 5). When the position of the patient's face detected by the camera 15 is within a normal range, the face detection lamp 111 turns green (in a cross-hatched state at 111b shown in FIG. 5). The camera 15 is moved in front of the patient's face so that the face detection lamp 111 changes from red (111a) to green (111b).

また、この実施の形態では、表示画面11aに、顔検出インジケータ112が表示される。顔検出インジケータ112は、カメラ15で検出された患者の顔が正常な範囲に収まっているかどうかを患者に知らせるインジケータである。   In this embodiment, the face detection indicator 112 is displayed on the display screen 11a. The face detection indicator 112 is an indicator that informs the patient whether or not the patient's face detected by the camera 15 is within a normal range.

図6は、この発明における顔検出インジケータ112の変化の様子を示す図である。図6(a)、(b)に示すように、顔検出インジケータ112には、インジケータ枠112aが表示される。インジケータ枠112aで囲まれた範囲はカメラ15で検出された患者の顔の範囲である。   FIG. 6 is a diagram showing how the face detection indicator 112 changes in the present invention. As shown in FIGS. 6A and 6B, the face detection indicator 112 displays an indicator frame 112a. The range surrounded by the indicator frame 112 a is the range of the patient's face detected by the camera 15.

インジケータ枠112aが顔検出インジケータ112の中央部に収まれば、患者の顔が正常な範囲に収まっていると判断できる。即ち、インジケータ枠112aが顔検出インジケータ112の中央部に収まるようにタブレット型パーソナルコンピュータ装置1を移動させると、顔検出を正常に完了させることができる。このように、顔検出ランプ111と顔検出インジケータ112を用いることで、患者を録画するための顔位置に容易に設定することができる。   If the indicator frame 112a is within the center of the face detection indicator 112, it can be determined that the patient's face is within the normal range. That is, when the tablet personal computer device 1 is moved so that the indicator frame 112a is within the center of the face detection indicator 112, the face detection can be completed normally. Thus, by using the face detection lamp 111 and the face detection indicator 112, it is possible to easily set the face position for recording the patient.

レコードボタン113は、患者が発音した様子を録画・録音するためのボタンである。録画・録音を開始する場合には、レコードボタン113をタップする。USBコントローラ2のオン・オフボタン23を押すことで録画・録音を開始することもできる。   The record button 113 is a button for recording / recording a state in which the patient pronounced. When recording / recording is started, the record button 113 is tapped. Recording / recording can also be started by pressing the on / off button 23 of the USB controller 2.

ストップボタン114は、患者が発音した様子の録画・録音を停止するためのボタンである。録画・録音を停止する場合には、ストップボタン114をタップする。USBコントローラ2のオン・オフボタン23を押すことで録画・録音を停止することもできる。   The stop button 114 is a button for stopping recording / recording of a state in which the patient pronounces. To stop recording / recording, the stop button 114 is tapped. Recording / recording can also be stopped by pressing the on / off button 23 of the USB controller 2.

プレイボタン115は、患者が発音した様子を録画・録音したデータを再生するためのボタンである。所望する録画・録音データを選択して、選択した録画・録音データを再生する場合には、プレイボタン115をタップする。USBコントローラ2のオン・オフボタン33を押すことで録画・録音の再生を開始することができる。   The play button 115 is a button for playing back data recorded and recorded as a patient pronounces pronunciation. When the desired recording / recording data is selected and the selected recording / recording data is reproduced, the play button 115 is tapped. Pressing the on / off button 33 of the USB controller 2 can start playback of recording / recording.

選択した録画・録音データの再生を停止する場合には、ストップボタン114をタップする。USBコントローラ2のオン・オフボタン23を押すことで録画・録音データの再生を停止することもできる。   When stopping the reproduction of the selected recording / recording data, the stop button 114 is tapped. Pressing the on / off button 23 of the USB controller 2 can also stop the reproduction of the recorded / recorded data.

プロンプト表示欄116は、プロンプトとしての文字又は絵が表示される表示欄である。プロンプト選択欄117は、プロンプト表示欄116に表示させたい文字又は絵を選択する選択欄である。本実施形態では、プロンプト選択欄117a〜プロンプト選択欄117cと3個の選択欄を設けているが、プロンプト選択欄の個数は任意に増減できる。   The prompt display column 116 is a display column in which characters or pictures as prompts are displayed. The prompt selection column 117 is a selection column for selecting a character or a picture to be displayed in the prompt display column 116. In this embodiment, the prompt selection column 117a to the prompt selection column 117c and three selection columns are provided, but the number of prompt selection columns can be arbitrarily increased or decreased.

プロンプト選択欄117a〜プロンプト選択欄117cのうち、プロンプト表示欄116に表示させたい文字又は絵が表示されているプロンプト選択欄117をタップする。タップされたプロンプト選択欄117に表示されている文字又は絵がプロンプト表示欄116に表示される。そのプロンプト表示欄116に表示された文字又は絵を見て患者が想起する言葉を患者が発音することにより構音訓練が行われる。   Of the prompt selection column 117a to the prompt selection column 117c, the prompt selection column 117 in which a character or a picture to be displayed in the prompt display column 116 is displayed is tapped. The characters or pictures displayed in the tapped prompt selection field 117 are displayed in the prompt display field 116. The articulation training is performed when the patient pronounces a word recalled by the patient by looking at the characters or pictures displayed in the prompt display column 116.

図4に示す例では、第1のプロンプト選択欄117aの「ぱんだ」の文字に対応する絵がプロンプト表示欄116に表示されている。プロンプト表示欄116に表示された絵を患者が見て、患者が想起する言葉である「ぱんだ」を患者が発音する。   In the example shown in FIG. 4, a picture corresponding to the characters “Panda” in the first prompt selection field 117 a is displayed in the prompt display field 116. The patient looks at the picture displayed in the prompt display column 116, and the patient pronounces “Panda” which is a word recalled by the patient.

患者が発音した「ぱんだ」について、マイク13で患者の音声の集音を行い、カメラ15で患者が発音したときの顔の動きの撮影を行う。マイク13で集音した患者の音声データやカメラ15による患者の動画データがRAM19に記憶される。ストップボタン114のタップ又はUSBコントローラ2のオン・オフボタン23を押すことにより録画・録音を停止させることができる。   For “Panda” pronounced by the patient, the voice of the patient is collected by the microphone 13, and the movement of the face when the patient pronounces is photographed by the camera 15. Voice data of the patient collected by the microphone 13 and moving picture data of the patient by the camera 15 are stored in the RAM 19. Recording / recording can be stopped by tapping the stop button 114 or pressing the on / off button 23 of the USB controller 2.

ストップボタン114のタップ又はUSBコントローラ2のオン・オフボタン23が押されていない、即ち、録画・録音を停止させていない状態で、所定の時間が経過した場合には、第2のプロンプト選択欄117bに移動して、第2のプロンプト選択欄117bに設定された絵又は文字をプロンプト表示欄116に表示させることもできる。   When the tap of the stop button 114 or the on / off button 23 of the USB controller 2 is not pressed, that is, when recording / recording is not stopped, a predetermined time has elapsed, a second prompt selection field It is also possible to move to 117b and display the picture or character set in the second prompt selection field 117b in the prompt display field 116.

この場合、第1のプロンプト選択欄117aから第2のプロンプト選択欄117bに移動して、第2のプロンプト選択欄117bに設定された絵、この実施例では、「ばす」の絵がプロンプト表示欄116に表示される。   In this case, the first prompt selection field 117a is moved to the second prompt selection field 117b, and the picture set in the second prompt selection field 117b, in this embodiment, the “buzz” picture is displayed in the prompt display field. 116.

新たにプロンプト表示欄116に表示された絵等を患者が見て、患者が想起する言葉を患者が発音すると、マイク13で集音した患者の音声データやカメラ15による患者の動画データがRAM19に記憶される。   When the patient sees a picture or the like newly displayed in the prompt display column 116 and the patient pronounces a word recalled by the patient, the voice data of the patient collected by the microphone 13 and the moving image data of the patient by the camera 15 are stored in the RAM 19. Remembered.

なお、第2のプロンプトにおける録画・録音について、ストップボタン114のタップ又はUSBコントローラ2のオン・オフボタン23が押されていない、即ち、録画・録音を停止させていない状態で、所定の時間が経過した場合には、第3のプロンプト選択欄117cに移動して、第3のプロンプト選択欄117cに設定された絵等をプロンプト表示欄116に表示させることもできる。   For recording / recording in the second prompt, the tap of the stop button 114 or the on / off button 23 of the USB controller 2 is not pressed, that is, the recording / recording is not stopped. When the time has elapsed, it is possible to move to the third prompt selection field 117c and display the picture set in the third prompt selection field 117c in the prompt display field 116.

プロンプト選択欄117a〜プロンプト選択欄117cを任意に変更するときには、該当するプロンプト選択欄117a〜プロンプト選択欄117cをタップするか、USBコントローラ2の上ボタン21又は下ボタン22を押すことにより、選択されているプロンプトを変更することができる。   When the prompt selection field 117a to the prompt selection field 117c are arbitrarily changed, the prompt selection field 117a to the prompt selection field 117c is tapped or the upper button 21 or the lower button 22 of the USB controller 2 is pressed. You can change the prompt.

図7は、音声モードにおけるディスプレイ11に表示される表示画面11aのプロンプト表示欄116に文字の表示を行っている例を示す図である。この様に、プロンプト表示欄116にプロンプトとして文字を表示させることもできる。   FIG. 7 is a diagram showing an example in which characters are displayed in the prompt display field 116 of the display screen 11a displayed on the display 11 in the voice mode. In this way, characters can be displayed as prompts in the prompt display field 116.

プロンプト選択欄117a〜プロンプト選択欄117cのうち、プロンプト表示欄116に表示させたい文字が表示されているプロンプト選択欄117をタップする。タップされたプロンプト選択欄117に表示されている文字がプロンプト表示欄116に表示される。そのプロンプト表示欄116に表示された文字を見て患者が想起する言葉を患者が発音することにより構音訓練を行うことができる。   Of the prompt selection column 117a to the prompt selection column 117c, the prompt selection column 117 in which characters to be displayed in the prompt display column 116 are displayed is tapped. The characters displayed in the tapped prompt selection field 117 are displayed in the prompt display field 116. The articulation training can be performed when the patient pronounces a word recalled by the patient by looking at the characters displayed in the prompt display column 116.

録画・録音データ選択欄118は、患者が発音した様子を録画・録音したデータを選択する選択欄である。録画・録音データ選択欄118は、図4、図7等に示すように、プロンプト選択欄117のそれぞれ隣の領域に丸アイコンとして設けられている。この丸アイコンの行数は、本実施形態では3行になっており、プロンプト選択欄117aに丸アイコン118aを、プロンプト選択欄117bに丸アイコン118bを、プロンプト選択欄117cに丸アイコン118cというようにそれぞれ対応付けて設けているが、プロンプト選択欄117の増減に対応付けて、増減する。この丸アイコンの列数は、本実施形態では6列になっているが、任意に増減することができる。   The recorded / recorded data selection field 118 is a selection field for selecting data that has been recorded / recorded for the state of pronunciation by the patient. The recording / recording data selection column 118 is provided as a circle icon in each area adjacent to the prompt selection column 117 as shown in FIGS. In this embodiment, the number of lines of the circle icon is three. The circle icon 118a is displayed in the prompt selection field 117a, the circle icon 118b is displayed in the prompt selection field 117b, and the circle icon 118c is displayed in the prompt selection field 117c. They are provided in association with each other, but increase / decrease in association with increase / decrease in the prompt selection column 117. The number of columns of the round icons is 6 in this embodiment, but can be arbitrarily increased or decreased.

また、録画・録音データ選択欄118の丸アイコンは、患者が発音した様子を録画・録音したデータの有無が分かるように、録画・録音データの有無に対応して丸アイコンの色が変わるように構成されている。   In addition, the circle icon in the recording / recording data selection field 118 changes the color of the circle icon according to the presence / absence of recording / recording data so that the presence / absence of recording / recording data can be seen. It is configured.

更に、録画・録音データ選択欄118の丸アイコンは、患者が発音した様子を録画・録音したデータがあるときにおいて、患者が発音した様子を録画・録音したときの表示画面の表示モード(音声モード・動画モード)が分かるように、表示モードに対応して丸アイコンの色が変わるように構成されている。   Further, a round icon in the recording / recording data selection field 118 indicates a display mode (voice mode) of a display screen when a patient's pronunciation is recorded / recorded when there is data recorded / recorded. (Video mode) is configured so that the color of the circle icon changes in accordance with the display mode.

録画・録音データ選択欄118の丸アイコンの色が変わった丸アイコンをタップすることで、再生したい録画・録音されたデータを容易に選択することができる。   By tapping a circle icon whose color of the circle icon in the recording / recording data selection field 118 has changed, it is possible to easily select the recorded / recorded data to be reproduced.

即ち、録画・録音したデータを再生する場合には、録画・録音データ選択欄118の丸アイコンをタップすることにより、録音・録画データを選択して、プレイボタン115をタップするか、USBコントローラ2のオン・オフボタン23を押すことで録画・録音の再生を開始する。再生を停止する場合には、ストップボタン114をタップするか、USBコントローラ2のオン・オフボタン23を押すことで再生を停止する。   That is, when reproducing the recorded / recorded data, tap the circle icon in the recorded / recorded data selection field 118 to select the recorded / recorded data and tap the play button 115 or the USB controller 2. When the ON / OFF button 23 is pressed, the recording / reproduction of the recording is started. When stopping the reproduction, the reproduction is stopped by tapping the stop button 114 or pressing the on / off button 23 of the USB controller 2.

音声波形欄119は、マイク13で集音した音声を制御部10が解析することにより構成した音声波形を表示する欄である。患者が発音した様子を録画・録音しているとき、マイクで集音した音声を解析することにより構成した音声波形が音声波形欄119に表示される。音声波形は、画像データとして生成されており、音声波形欄119は、横軸が時間、縦軸がレベル(振幅)に対応している。また、音声波形欄119は時系列的に表示されており、音声波形欄119の左側から右側に向かって時間が経過しているように音声波形を表示している。音声波形を確認することにより、患者が正しく発音しているかどうかを確認することができる。   The voice waveform column 119 is a column that displays a voice waveform configured by the control unit 10 analyzing the voice collected by the microphone 13. When recording the state of the patient's pronunciation, a voice waveform constructed by analyzing the voice collected by the microphone is displayed in the voice waveform column 119. The audio waveform is generated as image data. In the audio waveform column 119, the horizontal axis corresponds to time and the vertical axis corresponds to level (amplitude). The voice waveform column 119 is displayed in time series, and the voice waveform is displayed so that time passes from the left side to the right side of the voice waveform column 119. By confirming the speech waveform, it can be confirmed whether or not the patient pronounces correctly.

次に、動画モードにおける表示画面について説明する。
図8は、動画モードにおけるディスプレイ11に表示される表示画面11bの例を示す図である。患者がタッチパネルである入力装置12を操作して、構音訓練用ソフトAPを立ち上げると、図8に示すように、ディスプレイ11に表示画面11bが表示される。
Next, a display screen in the moving image mode will be described.
FIG. 8 is a diagram illustrating an example of the display screen 11b displayed on the display 11 in the moving image mode. When the patient operates the input device 12 that is a touch panel to start the articulation training software AP, a display screen 11b is displayed on the display 11 as shown in FIG.

表示画面11bには、顔検出ランプ111、顔検出インジケータ112、レコードボタン113、ストップボタン114、プレイボタン115、プロンプト表示欄116、プロンプト選択欄117、録画・録音データ選択欄118、音声波形欄119、動画表示欄120の操作アイコンやの画像表示欄が表示される。   The display screen 11b includes a face detection lamp 111, a face detection indicator 112, a record button 113, a stop button 114, a play button 115, a prompt display field 116, a prompt selection field 117, a recording / recording data selection field 118, and an audio waveform field 119. Then, an operation icon and an image display field of the moving image display field 120 are displayed.

表示画面11bに表示される顔検出ランプ111、顔検出インジケータ112、レコードボタン113、ストップボタン114、プレイボタン115、プロンプト表示欄116、プロンプト選択欄117、録画・録音データ選択欄118、音声波形欄119は、音声モードの表示画面11aと同様であるので、ここではその説明を省略する。   Face detection lamp 111, face detection indicator 112, record button 113, stop button 114, play button 115, prompt display column 116, prompt selection column 117, recording / recording data selection column 118, audio waveform column displayed on the display screen 11b Since 119 is the same as the display screen 11a in the voice mode, description thereof is omitted here.

動画表示欄120は、図8に示すように、カメラ15で撮影した画像を表示する表示欄である。この動画表示欄120は、患者が発音した様子を録画・録音するときに、カメラ15で撮影した画像をそのまま表示したり、患者が発音した様子を録画・録音したデータを再生するときに、患者が発音した様子の画像を表示したりすることができる。   As shown in FIG. 8, the moving image display column 120 is a display column for displaying an image captured by the camera 15. This moving image display column 120 displays the image taken by the camera 15 when recording / recording the state of the patient's pronunciation, or when reproducing the data recorded / recorded of the state of the patient's pronunciation. Can be displayed.

尚、動画モードにおいて、図9に示すように、動画表示欄120を表示しつつ、動画表示欄120に動画を表示させない状態、即ち、動画表示欄120をマスクした状態にすることもできる。図9は、動画モードにおけるディスプレイ11に表示される表示画面11bの動画表示欄120をマスクした例を示す図である。   In the moving image mode, as shown in FIG. 9, the moving image display column 120 can be displayed while the moving image display column 120 does not display a moving image, that is, the moving image display column 120 can be masked. FIG. 9 is a diagram showing an example in which the moving image display column 120 of the display screen 11b displayed on the display 11 in the moving image mode is masked.

動画表示欄120をマスクさせる方法として以下の方法がある。
まず、一の方法として、設定管理画面の動画の表示/非表示の設定において、動画の非表示を選択することにより、動画表示欄120をマスクする設定をすることができる。
There are the following methods for masking the moving image display field 120.
First, as one method, the setting for masking the moving image display column 120 can be performed by selecting non-displaying of moving images in the setting of displaying / hiding moving images on the setting management screen.

他の方法として、動画表示欄120を上から下へ撫でる動作により、動画表示欄120をマスクする設定をすることができる。この動画表示欄120を撫でる動作は、マスクされた動画表示欄120を下から上へ撫でる動作をすることにより、マスクされた動画表示欄120のマスクの設定を解除することができる。   As another method, the setting for masking the moving image display field 120 can be performed by the operation of stroking the moving image display field 120 from the top to the bottom. In the operation of stroking the moving image display column 120, the setting of the mask in the masked moving image display column 120 can be canceled by performing the operation of stroking the masked moving image display column 120 from the bottom to the top.

動画表示欄120を表示した場合は、発音者が正確な発音をしているときの発音者の顔の動きを参照して、患者が構音訓練をすることができる。動画表示欄120をマスクした場合は、発音者の顔の動きという視覚情報が聴覚情報に影響を及ぼすというマガーク効果の影響を排除することができる。   When the moving image display field 120 is displayed, the patient can perform articulation training by referring to the movement of the face of the sounder when the sounder is making accurate pronunciation. When the moving image display field 120 is masked, it is possible to eliminate the influence of the Maghark effect that visual information such as the movement of the face of the pronunciation affects the auditory information.

図10は、動画モードにおけるディスプレイ11に表示される表示画面11bのプロンプト表示欄116に文字の表示を行っている例を示す図である。この様に、プロンプト表示欄116にプロンプトとして文字を表示させることもできる。   FIG. 10 is a diagram illustrating an example in which characters are displayed in the prompt display field 116 of the display screen 11b displayed on the display 11 in the moving image mode. In this way, characters can be displayed as prompts in the prompt display field 116.

前述の絵の選択と同様に、プロンプト選択欄117a〜プロンプト選択欄117cのうち、プロンプト表示欄116に表示させたい文字が表示されているプロンプト選択欄117をタップする。タップされたプロンプト選択欄117に表示されている文字がプロンプト表示欄116に表示される。そのプロンプト表示欄116に表示された文字を見て患者が想起する言葉を患者が発音することにより構音訓練を行うことができる。   Similar to the selection of the picture described above, the prompt selection field 117 in which the characters to be displayed in the prompt display field 116 are displayed among the prompt selection field 117a to the prompt selection field 117c is tapped. The characters displayed in the tapped prompt selection field 117 are displayed in the prompt display field 116. The articulation training can be performed when the patient pronounces a word recalled by the patient by looking at the characters displayed in the prompt display column 116.

次に、患者が発音した様子の録画・録音について説明する。
まず、構音訓練の初期段階においては、患者がプロンプト表示欄116に表示された絵又は文字を見て患者が想起する言葉を患者が発音するときに、マガーク効果の影響を考慮するために、患者自身が発音している様子の画像を患者が見ることなく発音する必要がある。この場合、ディスプレイ11の表示モードを音声モードに設定することで対応することができる。
Next, recording / recording of how the patient pronounced will be described.
First, in the initial stage of articulation training, in order for the patient to pronounce the words that the patient recalls by looking at the picture or character displayed in the prompt display field 116, It is necessary for the patient to pronounce the image of his / her pronunciation without seeing it. In this case, this can be dealt with by setting the display mode of the display 11 to the audio mode.

図4に示すように、患者がプロンプト表示欄116に表示された絵等を見て患者が想起する言葉を患者が発音する。そして、制御部10は、その患者が発音した様子の画像、音声、表示モード等のデータを対応する録画・録音データ選択欄118の丸アイコンを識別する情報と共にRAM19に記憶させる。   As shown in FIG. 4, the patient pronounces a word that the patient recalls by looking at a picture or the like displayed in the prompt display column 116. Then, the control unit 10 causes the RAM 19 to store data such as an image, sound, display mode, and the like that the patient pronounced, together with information for identifying the corresponding round icon in the recording / recording data selection field 118.

このように、録画・録音データ選択欄118の丸アイコンの色で、どのプロンプトに対して、どのような条件で録画・録音したデータであるか否かが判別することができる。   In this way, the color of the round icon in the recording / recording data selection field 118 can determine whether or not the data is recorded / recorded for what prompt.

また、図9に示すように、ディスプレイ11の表示モードを動画モードに設定しておき、動画表示欄120をマスクしておく設定で、患者が表示された絵又は文字を見て、患者が想起する言葉を患者が発音するときであっても、マガーク効果の影響を考慮した録画・録音とすることができる。   In addition, as shown in FIG. 9, the display mode of the display 11 is set to the moving image mode, and the moving image display column 120 is masked. Even when the patient pronounces the word to be recorded, it can be recorded / recorded in consideration of the effect of the Magark effect.

次に、構音訓練の中期段階から終期段階においては、患者がプロンプト116に表示された絵又は文字を見て患者が想起する言葉を患者が発音するときに、患者自身が発音している様子の画像を患者が見て確認しながら発音する必要がある。この場合、ディスプレイ11の表示モードを動画モードに設定することで対応することができる。   Next, from the middle stage to the final stage of articulation training, when the patient speaks a word recalled by the patient by looking at a picture or character displayed on the prompt 116, the patient himself is pronounced. It is necessary to pronounce the image while the patient sees it. In this case, this can be dealt with by setting the display mode of the display 11 to the moving image mode.

図8に示すように、患者がプロンプト表示欄116に表示された絵等を見て患者が想起する言葉を発音する。そして、制御部10は、その患者が発音した様子の画像、音声、表示モード等のデータを対応する録画・録音データ選択欄118の丸アイコンを識別する情報と共にRAM19に記憶させる。   As shown in FIG. 8, the patient looks at a picture or the like displayed in the prompt display column 116 and pronounces a word recalled by the patient. Then, the control unit 10 causes the RAM 19 to store data such as an image, sound, display mode, and the like that the patient pronounced, together with information for identifying the corresponding round icon in the recording / recording data selection field 118.

このように、録画・録音データ選択欄118の丸アイコンの色で、どのプロンプトに対して、どのような条件で録画・録音したデータであるか否かが判別することができる。   In this way, the color of the round icon in the recording / recording data selection field 118 can determine whether or not the data is recorded / recorded for what prompt.

患者が発音した様子を録画・録音した動画の再生につき説明する。
まず、再生したい録画・録音データの呼び出しを行う。再生したい録画・録音データが録画・録音された日付を指定する。日付を指定すると、制御部10は、その日付に該当する録画・録音データを検索する。
We will explain how to play a movie that has been recorded by the patient.
First, the recording / recording data to be reproduced is called up. Specify the date when the recording / recording data to be played back was recorded / recorded. When a date is designated, the control unit 10 searches for recording / recording data corresponding to the date.

検索の結果、その日付に該当する録画・録音データがあれば、録画・録音された絵又は文字の情報が表示プロンプト選択欄117に表示されて、録画・録音データの有無が分かる表示がそのプロンプト選択欄117に対応する録画・録音データ選択欄118の丸アイコンに色を変えて表示される。   As a result of the search, if there is recording / recording data corresponding to the date, the information of the picture / character recorded or recorded is displayed in the display prompt selection field 117, and a display showing the presence / absence of the recording / recording data is displayed. The color is changed to the circle icon in the recording / recording data selection column 118 corresponding to the selection column 117 and displayed.

そして、録画・録音データ選択欄118の丸アイコンをタップして再生したい録画・録音データの丸アイコンを選択状態にする。制御部10は選択された丸アイコンに該当するRAM19に保存されている動画、音声、音声波形を再生可能な状態にする。   Then, the circle icon of the recording / recording data selection field 118 is tapped to select the recording / recording data circle icon to be reproduced. The control unit 10 makes the moving image, sound, and sound waveform stored in the RAM 19 corresponding to the selected circle icon reproducible.

ここで、構音訓練の初期段階においては、患者がプロンプト116に表示された絵又は文字を見て、患者が想起する言葉を患者が発音した音声を確認するときに、マガーク効果の影響を考慮するために、患者自身が発音している様子の画像を患者が見ることなく発音の音声を確認する必要がある。この場合、ディスプレイ11の表示モードを音声モードに設定することで対応することができる。   Here, in the initial stage of articulation training, the effect of the Magark effect is taken into account when the patient looks at the picture or character displayed at the prompt 116 and confirms the voice that the patient pronounced the word recalled by the patient. Therefore, it is necessary to confirm the sound of the pronunciation without the patient seeing the image of the patient himself / herself. In this case, this can be dealt with by setting the display mode of the display 11 to the audio mode.

図11は、音声モードにおけるディスプレイ11に表示される表示画面11aの再生表示の例を示す図である。ディスプレイ11の表示モードを音声モードに設定してから、プレイボタン115又は動画表示欄120をタップすると、録画・録音データ選択欄118の丸アイコンで選択されたデータに基づいて、ディスプレイ11において、表示画面11aの音声波形欄119に音声波形が表示される。そして、スピーカ14において、録画・録音データに基づいた音声が再生される。   FIG. 11 is a diagram showing an example of reproduction display of the display screen 11a displayed on the display 11 in the audio mode. When the display mode of the display 11 is set to the audio mode and the play button 115 or the moving image display field 120 is tapped, the display 11 displays on the display 11 based on the data selected by the round icon in the recording / recording data selection field 118. A voice waveform is displayed in the voice waveform column 119 of the screen 11a. Then, the speaker 14 reproduces sound based on the recorded / recorded data.

これにより、患者がプロンプト116に表示された絵又は文字を見て患者が想起する言葉を患者が発音した音声を確認するときに、患者自身が発音している様子の画像を患者が見ることなく発音の音声を確認することができるために、マガーク効果の影響を考慮した録画・録音データの再生による音声の確認をすることができる。また、ディスプレイ11の表示モードを動画モードに設定しておき、動画表示欄120をマスクしておく設定でも、音声モードと同様の確認をすることができる。   Thus, when the patient looks at the picture or characters displayed at the prompt 116 and confirms the voice that the patient pronounced the word recalled by the patient, the patient does not see the image of the patient's own pronunciation. Since the sound of the pronunciation can be confirmed, it is possible to confirm the sound by reproducing the recording / recording data in consideration of the influence of the Magag effect. Further, the same confirmation as in the audio mode can be performed by setting the display mode of the display 11 to the moving image mode and masking the moving image display field 120.

図12は、動画モードにおけるディスプレイ11に表示される表示画面11bの再生表示において動画表示欄120をマスクした例を示す図である。   FIG. 12 is a diagram showing an example in which the moving image display column 120 is masked in the reproduction display of the display screen 11b displayed on the display 11 in the moving image mode.

患者がプロンプト116に表示された絵又は文字を見て患者が想起する言葉を患者が発音した音声を再生して確認するときに、患者自身が発音している様子の画像を患者が見ることなく発音の音声を確認することができるために、マガーク効果の影響を考慮した録画・録音データの再生による音声の確認をすることができる。   When the patient looks at the picture or character displayed at the prompt 116 and confirms the speech recalled by the patient by playing back the voice that the patient pronounced, the patient does not see the image of the patient's own pronunciation. Since the sound of the pronunciation can be confirmed, it is possible to confirm the sound by reproducing the recording / recording data in consideration of the influence of the Magag effect.

次に、構音訓練の中期段階から終期段階においては、患者がプロンプト116に表示された絵又は文字を見て患者が想起する言葉を患者が発音した音声を確認するときに、患者自身が発音している様子の画像を患者が確認する必要がある。この場合、ディスプレイ11の表示モードを動画モードに設定することで対応することができる。   Next, from the middle stage to the final stage of articulation training, the patient himself / herself pronounces when he / she confirms the voice pronounced by the patient by looking at the picture or character displayed at the prompt 116. It is necessary for the patient to check the image of the situation. In this case, this can be dealt with by setting the display mode of the display 11 to the moving image mode.

図13は、動画モードにおけるディスプレイ11に表示される表示画面11bの再生表示の例を示す図である。   FIG. 13 is a diagram illustrating an example of reproduction display of the display screen 11b displayed on the display 11 in the moving image mode.

ディスプレイ11の表示モードを動画モードに設定してから、プレイボタン115又は動画表示欄120をタップすると、録画・録音データ選択欄118の丸アイコンで選択されたデータに基づいて、ディスプレイ11において、表示画面11aの音声波形欄119に音声波形が表示されて、表示画面11aにおける動画表示欄120に動画が再生される。そして、スピーカ14において、録画・録音データに基づいた音声が再生される。   When the play mode 115 or the moving image display field 120 is tapped after setting the display mode of the display 11 to the moving image mode, the display 11 displays on the display 11 based on the data selected by the circle icon in the recording / recording data selection field 118. The audio waveform is displayed in the audio waveform column 119 of the screen 11a, and the moving image is reproduced in the moving image display column 120 of the display screen 11a. Then, the speaker 14 reproduces sound based on the recorded / recorded data.

これにより、患者がプロンプト表示欄116に表示された絵又は文字を見て、患者が想起する言葉を患者が発音した音声を確認するときに、患者自身が発音している様子の画像を患者が見なから発音の音声を確認することができるために、患者が正確な発音ができたときの発音の様子を確認することができる。   Thus, when the patient looks at the picture or character displayed in the prompt display field 116 and confirms the voice that the patient pronounced the word recalled by the patient, the patient can see an image of the patient himself / herself. Since the sound of the pronunciation can be confirmed from the viewpoint, it is possible to confirm the state of the pronunciation when the patient has made an accurate pronunciation.

ここで、図11ないし図13において、音声波形欄119に掛かるように設定されている再生領域選択ボタン121について説明する。   Here, in FIG. 11 to FIG. 13, the reproduction area selection button 121 set to be applied to the audio waveform field 119 will be described.

再生領域選択ボタン121は、患者が発音した様子を録画・録音したデータを再生するときにおいて、再生したい範囲を選択することができるボタンである。再生したい範囲を右から左又は左から右に再生領域選択ボタン121をそれぞれなぞることにより、選択範囲を指定することができて、再生したい範囲の部分再生の選択を行うことができる。再生領域選択ボタン121をなぞることにより、部分再生する場所を特定して、プレイボタン115又は動画表示欄120をタップすることで制御部10は該当部分の動画や音声を再生することができる。   The playback area selection button 121 is a button for selecting a range to be played back when playing back data recorded / recorded as a patient sounds. By tracing the playback area selection button 121 from right to left or from left to right, the selection range can be specified, and partial playback of the range to be played can be selected. By tracing the reproduction area selection button 121, the part to be partially reproduced is specified, and the play button 115 or the moving image display column 120 is tapped, so that the control unit 10 can reproduce the moving image and the sound of the corresponding portion.

次に、図14を参照してこの発明の制御部10の動作を説明する。図14は、制御部10の動作を説明するフローチャートである。   Next, the operation of the control unit 10 of the present invention will be described with reference to FIG. FIG. 14 is a flowchart for explaining the operation of the control unit 10.

まず、患者がタッチパネルである入力装置12を操作すると、制御部10は、構音訓練ソフトAPを立ち上げる。制御部10は、音声モードが設定されていれば、図4に示すように、ディスプレイ11に表示画面11aを表示する。
制御部10は、動画モードが設定されていれば、図8に示すように、ディスプレイ11に表示画面11bを表示する。この表示画面11a又は表示画面11bにおいて、患者による構音訓練の対象となるプロンプトの患者による選択を受け付ける(ステップS1)。
First, when the patient operates the input device 12 as a touch panel, the control unit 10 starts up the articulation training software AP. If the audio mode is set, the control unit 10 displays the display screen 11a on the display 11 as shown in FIG.
If the moving image mode is set, the control unit 10 displays a display screen 11b on the display 11 as shown in FIG. On this display screen 11a or display screen 11b, the selection by the patient of the prompt that is the subject of articulation training by the patient is accepted (step S1).

制御部10は、プロンプト選択欄117の中から患者が選択したプロンプトに関するデータをROM18又はRAM19から読み出して、表示画面11a又は表示画面11bのプロンプト表示欄116に、文字又は文字に対応する絵を表示する(ステップS2)。   The control unit 10 reads out data related to the prompt selected by the patient from the prompt selection column 117 from the ROM 18 or the RAM 19 and displays a character or a picture corresponding to the character in the prompt display column 116 of the display screen 11a or the display screen 11b. (Step S2).

ここでは、音声モードと動画モードの切り替えや、動画モードにおける動画表示欄120の表示と非表示(マスク)の切り替えの動作について、適宜行われるものとして、フローチャートの内での説明は行わない。   Here, the switching between the audio mode and the moving image mode, and the switching operation between the display and non-display (masking) of the moving image display field 120 in the moving image mode are performed as appropriate and will not be described in the flowchart.

続いて、制御部10は、レコードボタン113をタップするか、USBコントローラ2のオン・オフボタン23を押すことで録画・録音開始を指示されたかを確認する(ステップS3)。   Subsequently, the control unit 10 confirms whether recording or recording start is instructed by tapping the record button 113 or pressing the on / off button 23 of the USB controller 2 (step S3).

制御部10は、録画・録音開始が指示されたと判断すると、マイク13で集音した音声を録音する録音処理を行うと共に、当該集音した音声の波形を取得する処理を行い、カメラ15による患者の動画をRAM19に記憶する(ステップS4)。   When the control unit 10 determines that the recording / recording start is instructed, the control unit 10 performs a recording process for recording the voice collected by the microphone 13 and performs a process for obtaining a waveform of the collected voice, and the patient by the camera 15 Are stored in the RAM 19 (step S4).

ストップボタン114又はUSBコントローラ2のオン・オフボタン23が押されるまで、上記動作を繰り返す(ステップS5)。録画・録音終了が指示されたと制御部10が判断すると、制御部10は、録画・録音動作を終了させる。 The above operation is repeated until the stop button 114 or the on / off button 23 of the USB controller 2 is pressed (step S5). When the control unit 10 determines that the recording / ending of recording has been instructed, the control unit 10 ends the recording / recording operation.

ステップS3で、録画・録音開始以外の指示を指示されたと制御部10が判断すると、ステップS6に進み、制御部10が再生開始指示を指示されたか否かを判断する。制御部10が再生開始指示を指示されたと判断した場合は、ステップS7に進み、制御部10が再生開始指示以外の指示を指示されたと判断した場合には、ステップS1に戻る。   If the control unit 10 determines that an instruction other than recording / recording start is instructed in step S3, the process proceeds to step S6, and the control unit 10 determines whether or not an instruction to start reproduction is instructed. If the control unit 10 determines that an instruction to start reproduction is instructed, the process proceeds to step S7. If the control unit 10 determines that an instruction other than an instruction to start reproduction is instructed, the process returns to step S1.

再生したい録音・録画データを選択するために、録画・録音データ選択欄118の色が変わっている丸アイコンをタップする。その丸アイコンをタップすることによって、制御部10が再生開始指示を指示されたと判断すると、制御部10は録画・録音データの再生を行う。   In order to select the recording / recording data to be reproduced, the circle icon whose color is changed in the recording / recording data selection field 118 is tapped. When the control unit 10 determines that a playback start instruction has been instructed by tapping the circle icon, the control unit 10 plays back the recorded / recorded data.

このとき、音声モードが選択されていれば、表示画面11aの音声波形表示欄119に音声波形を表示して、スピーカ14から音声を再生する(ステップS7)。また、動画モードが選択されていれば、表示画面11bの音声波形表示欄119に音声波形を表示して、ディスプレイ11の表示画面11bの動画表示欄120に動画を再生して、スピーカ14から音声を再生する(ステップS7)。   At this time, if the audio mode is selected, the audio waveform is displayed in the audio waveform display field 119 of the display screen 11a, and the audio is reproduced from the speaker 14 (step S7). If the video mode is selected, the audio waveform is displayed in the audio waveform display field 119 of the display screen 11b, the video is reproduced in the video display field 120 of the display screen 11b of the display 11, and the audio is output from the speaker 14. Is reproduced (step S7).

ただし、動画モードが選択されていて、動画表示欄120がマスクされていれば、表示画面11bの音声波形表示欄119に音声波形を表示して、スピーカ14から音声を再生する(ステップS7)。再生処理動作が終了すると動作が終了する。   However, if the moving image mode is selected and the moving image display field 120 is masked, the sound waveform is displayed in the sound waveform display field 119 of the display screen 11b and the sound is reproduced from the speaker 14 (step S7). When the reproduction processing operation ends, the operation ends.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。この発明の範囲は、上記した実施の形態の説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is shown not by the above description of the embodiment but by the scope of claims for patent, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims for patent.

1 タブレット型パーソナルコンピュータ装置
2 USBコントローラ
10 制御部
11 ディスプレイ
11a 表示画面
12 入力装置
13 マイク
14 スピーカ
15 カメラ
16 通信I/F
17 USBI/F
18 ROM
19 RAM
21 上ボタン
22 下ボタン
23 オン・オフボタン
116 プロンプト表示欄
117 プロンプト選択欄
117a〜117c プロンプト選択欄
118 録画・録音データ選択欄
118a〜118c 丸アイコン
DESCRIPTION OF SYMBOLS 1 Tablet type personal computer apparatus 2 USB controller 10 Control part 11 Display 11a Display screen 12 Input device 13 Microphone 14 Speaker 15 Camera 16 Communication I / F
17 USB I / F
18 ROM
19 RAM
21 Up button 22 Down button 23 On / off button 116 Prompt display field 117 Prompt selection field 117a to 117c Prompt selection field 118 Recording / recording data selection field 118a to 118c Circle icon

Claims (3)

音声を集音する集音手段と、
訓練用の構音対象となる文字又は絵を記憶する記憶手段と、
画像を表示する表示手段と、
患者を撮影する撮影手段と、
前記表示手段に前記記憶手段から読み出した文字又は絵を表示させるとともに、前記撮影手段で撮影している患者の画像の表示を行わないように制御して、前記集音手段で音声を集音するように制御する制御手段と、
を備えたことを特徴とする構音訓練用録画・録音装置。
Sound collecting means for collecting sound;
Storage means for storing letters or pictures to be trained for training;
Display means for displaying an image;
Imaging means for imaging the patient;
The display means displays the characters or pictures read from the storage means, and controls to not display the image of the patient imaged by the imaging means, and collects the sound by the sound collection means. Control means for controlling
A recording / recording device for articulation training, characterized by comprising:
選択可能な訓練の構音対象を表示する表示欄と、
録画・録音されたデータの有無を表示する録画・録音データ選択欄と、を備え、
選択した訓練用の構音対象の文字を又は絵を表示させた状態で、録画・録音すると、該当する録画・録音データ選択欄の表示を変更させることを特徴とする請求項1に記載の構音訓練用録画・録音装置。
A display field that displays the compositional subjects of training that can be selected;
A recording / recording data selection field for displaying the presence / absence of recorded / recorded data, and
2. The articulation training according to claim 1, wherein when recording / recording in a state where the selected training target character or picture is displayed, the display of the corresponding recording / recording data selection column is changed. Recording and recording equipment.
音声を再生する拡声手段を備え、
前記集音した音声が所望の構音である場合に、口形を含む患者の画像を表示させると共に集音した音声を拡声手段から再生することを特徴とする請求項1又は請求項2に記載の構音訓練用録画・録音装置。
It has a loudspeaker to play audio,
3. The articulation according to claim 1, wherein when the collected voice is a desired articulation, an image of a patient including a mouth shape is displayed and the collected voice is reproduced from a loudspeaker. Recording and recording device for training.
JP2014018314A 2014-02-03 2014-02-03 Recording and recording equipment for articulation training Active JP5805804B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014018314A JP5805804B2 (en) 2014-02-03 2014-02-03 Recording and recording equipment for articulation training

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014018314A JP5805804B2 (en) 2014-02-03 2014-02-03 Recording and recording equipment for articulation training

Publications (2)

Publication Number Publication Date
JP2015145939A true JP2015145939A (en) 2015-08-13
JP5805804B2 JP5805804B2 (en) 2015-11-10

Family

ID=53890193

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014018314A Active JP5805804B2 (en) 2014-02-03 2014-02-03 Recording and recording equipment for articulation training

Country Status (1)

Country Link
JP (1) JP5805804B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113115074A (en) * 2021-04-30 2021-07-13 北京字节跳动网络技术有限公司 Video jamming processing method and device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000010450A1 (en) * 1998-08-19 2000-03-02 Atr Human Information Processing Research Laboratories System for measuring tongue pressure
JP2005321443A (en) * 2004-05-06 2005-11-17 Ace:Kk Pronunciation learning support method, learner terminal, processing program, and recording medium with the program recorded thereon
JP2007122004A (en) * 2005-09-29 2007-05-17 National Institute Of Advanced Industrial & Technology Pronunciation diagnostic device, pronunciation diagnostic method, recording medium, and pronunciation diagnostic program
JP2011510349A (en) * 2008-01-17 2011-03-31 アーティキュレイト テクノロジーズ インコーポレーティッド Method and apparatus for intraoral tactile feedback
JP2012047998A (en) * 2010-08-27 2012-03-08 Tokai Univ Utterance learning support device and program thereof
JP2013061369A (en) * 2011-09-12 2013-04-04 Kyoto Univ Information processing device, information processing system, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000010450A1 (en) * 1998-08-19 2000-03-02 Atr Human Information Processing Research Laboratories System for measuring tongue pressure
JP2005321443A (en) * 2004-05-06 2005-11-17 Ace:Kk Pronunciation learning support method, learner terminal, processing program, and recording medium with the program recorded thereon
JP2007122004A (en) * 2005-09-29 2007-05-17 National Institute Of Advanced Industrial & Technology Pronunciation diagnostic device, pronunciation diagnostic method, recording medium, and pronunciation diagnostic program
JP2011510349A (en) * 2008-01-17 2011-03-31 アーティキュレイト テクノロジーズ インコーポレーティッド Method and apparatus for intraoral tactile feedback
JP2012047998A (en) * 2010-08-27 2012-03-08 Tokai Univ Utterance learning support device and program thereof
JP2013061369A (en) * 2011-09-12 2013-04-04 Kyoto Univ Information processing device, information processing system, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113115074A (en) * 2021-04-30 2021-07-13 北京字节跳动网络技术有限公司 Video jamming processing method and device
CN113115074B (en) * 2021-04-30 2022-11-22 北京字节跳动网络技术有限公司 Video jamming processing method and device

Also Published As

Publication number Publication date
JP5805804B2 (en) 2015-11-10

Similar Documents

Publication Publication Date Title
US10130287B2 (en) Hearing test system
CN104038827B (en) Multi-medium play method and device
KR102078136B1 (en) Apparatus and method for photographing image having audio data
CN106559696A (en) Method for sending information and device
JP2004007539A (en) Method for recording/reproducing visual information and its device and communication system
JP2013061369A (en) Information processing device, information processing system, and program
RU2017102479A (en) CREATION OF ELECTRONIC IMAGES, EDITING IMAGES AND SIMPLIFIED DEVICE FOR EDITING AUDIO / VIDEO, METHOD OF FILM PRODUCTION BEGINNING FROM STILL IMAGES AND FRAMEWORKS
JP6613560B2 (en) Electronic device, learning support method and program
KR20150081750A (en) System and method for analyzing a golf swing
JP7082384B1 (en) Learning system and learning method
JP5805804B2 (en) Recording and recording equipment for articulation training
JP5111343B2 (en) Playback device
JP5843894B2 (en) Recording and recording equipment for articulation training
JP2016212169A (en) Education support system and terminal
JP2006208784A (en) Education system and device control method
JP4659756B2 (en) Individual test execution device
WO2020039593A1 (en) Image record playback device and endoscopic system
JP2013109168A (en) Electronic textbook device, classroom system, and program
KR20120031373A (en) Learning service system and method thereof
JP2007258934A (en) Information processing apparatus and information processing method
JP2014059452A (en) Learning device, control method of the same, learning program, and learning system
TW201737219A (en) Education learning method and computer program thereof
KR20040013167A (en) An apparatus for studying foreign language and the method thereof
JP6096829B2 (en) Digital content playback and display device for learning
JP5447930B2 (en) Game system and game device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150811

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150902

R150 Certificate of patent or registration of utility model

Ref document number: 5805804

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250