JP2016114882A - データ構造及び育児語使用傾向測定装置 - Google Patents
データ構造及び育児語使用傾向測定装置 Download PDFInfo
- Publication number
- JP2016114882A JP2016114882A JP2014254970A JP2014254970A JP2016114882A JP 2016114882 A JP2016114882 A JP 2016114882A JP 2014254970 A JP2014254970 A JP 2014254970A JP 2014254970 A JP2014254970 A JP 2014254970A JP 2016114882 A JP2016114882 A JP 2016114882A
- Authority
- JP
- Japan
- Prior art keywords
- action
- subject
- words
- video
- childcare
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Electrically Operated Instructional Devices (AREA)
- Machine Translation (AREA)
Abstract
Description
本実施形態では、まずタブレットPCのような情報端末を用いてその画面上に動画を提示し、被調査者(以下「養育者」ともいう)に見てもらう。このときに動画の内容を子どもに説明する(語りかける)ように、養育者に指示し、その様子をタブレットやPCに備わる(もしくは接続した)ビデオカメラとマイクロフォンで、収録(録画及び録音)し、記憶媒体に記録する。記録された発話は、計算機上で既存の音声認識アプリケーション等を利用することにより自動的にテキスト化する。動画ごとにあらかじめ決めておいた得点化方式に基づいてアルゴリズムを実行し、育児語使用傾向の推定を計算機上で実行する。
映像内容1:ブタが 坂を ゴロゴロっと 転がっていく(図2参照)
述語:転がる(成人語)、ゴロゴロ(育児語)
動作主体:豚(成人語)、ブーブー(育児語)
受動対象:なし
映像内容8:男の子がライオン をコチョコチョしてくすぐっている(図3参照)
述語:くすぐる(成人語)、こちょこちょ(育児語)
動作主体:男の子(成人語)、にーに(育児語)
受動対象:ライオン(成人語)、 がおー(育児語)
映像内容9:男の子がトゲトゲの栗を素手で拾って落とす(図4参照)
述語:痛い(成人語)、ちくちく(育児語)
動作主体:男の子(成人語)、 にーに(育児語)
受動対象:くり(成人語)、とげとげ(育児語)
映像内容15:ウサギさんが 転んで エンエンと 泣いている(図5参照)
述語:泣く(成人語)、えんえん(育児語)
動作主体:うさぎ(成人語)、 ぴょんさん(育児語)
映像内容18:納豆を混ぜて箸を上に持ち上げてネバネバをアピール(図6参照)
述語:混ぜる(成人語)、ぐるぐる(育児語)
動作主体:箸(成人語)
受動対象:納豆(成人語)、ねばねば(育児語)
このように、述語と動作主体、受動対象などに対して成人語と育児語が併存する映像を設定するところが本実施形態の重要な点であり、今回の提案ではより具体的に詳細な映像デザインを考慮している。
図7は第一実施形態に係る育児語使用傾向測定装置100の機能ブロック図を、図8はその処理フローを示す。
動画刺激提示部24は、動画データセット記憶部22に記憶されている動画を一つずつ選択し、表示部40により、選択した動画を表示させ、被調査者に提示する(S1)。また、動画刺激提示部24は、選択した動画に付加されている識別情報を対応付け部25に出力する。例えば、動画刺激提示部24は別途入力される、動画の指定情報により、指定された動画を選択する。例えば、動画刺激提示部24は動画データセット記憶部22に記憶されている動画を、所定の個数分ランダムに選択する。
予め、被調査者に対して、提示された動画の説明を子ども向けに行うように指示しておく。
音声認識部28は、発話記録部26に記録されている動画の識別情報が付加されたユーザ発話の各々の音声発話ディジタル信号を取得し、音声認識処理を行って(S4)、音声発話ディジタル信号の各々をテキスト化し、動画の識別情報が付加された、テキスト化されたユーザ発話である発話テキストを出力する。
ターゲット文抽出部34は、形態素解析部30からの形態素解析結果を入力とし、動画刺激提示部24により選択され表示部40で被測定者に実際に提示した動画に関連する発話を抽出する処理を計算機上で実行する。これは、計算機上にあらかじめ記憶したターゲット語リストを参照してそれとのマッチングを取ることにより、リストと同じ語があれば、評価対象としてその文にタグを付ける。このタグをつけた文を「ターゲット文」として設定し、計算機上で処理を進める。具体的には以下のように処理を行う。
育児語発話解析部36は、一連の得点化方式に基づくアルゴリズムを実行することにより、ターゲット文に対する育児語使用傾向を数値化し、推定する。具体的には以下のように処理を行う。
ここで、動作主体を指し示す主語の育児語の存在を検出する方法及びポイント付与について説明する。動画ごとのターゲット語リストの下位レイヤーにリスト化された動作主体リストとのマッチングを取ることにより決定する。具体的には、まず、ターゲット文に含まれる語の各々について、ターゲット語リストに含まれる動作主体リストのうち、当該ターゲット文に付加されている動画の識別情報と一致する「No.」の動画に対応する主語の育児語及び成人語の少なくとも1つと一致するかを判定し、ターゲット文に含まれる語の少なくとも1つについて一致すると判定された場合には、当該ターゲット文に動作主体を指し示す主語が有ると判定し(S7a)、以下のS7b〜S7eの処理を行う。一方、ターゲット文に含まれる語の全てについて一致しない場合には、当該ターゲット文に動作主体を指し示す主語が無いと判定し、以下のS7b〜S7eの処理を省略する。
次に、動作に対応する述語の育児語の存在、及び述部語尾が付随されていないことを検出する方法及びポイント付与について説明する。本実施形態では、述語は、動詞及び形容詞とする。ターゲット文の中から、動作に対応する述語の有無を決定し、述語がある場合は、次のステップで述語の育児語化を決定する。具体的には、まず、ターゲット文に含まれる語の各々について、ターゲット語リストに含まれる述語の育児語成人語リストのうち、当該ターゲット文に付加されている動画の識別情報と一致する「No.」の動画に対応する述語の育児語及び成人語の少なくとも1つの語と一致するかを判定し、ターゲット文に含まれる語の少なくとも1つについて一致すると判定された場合には、当該ターゲット文に動作に対応する述語が有ると判定し(S7h)、以下のS7i〜S7l(ローマ字のエル)の処理を行う。一方、ターゲット文に含まれる語の全てについて一致しないと判定された場合には、当該ターゲット文に動作に対応する述語が無いと判定し、以下のS7i〜S7lの処理を省略する。
ここで、受動対象を指し示す目的語の育児語の存在を検出する方法及びポイント付与について説明する。具体的には、まず、ターゲット文に含まれる語の各々について、ターゲット語リストに含まれる受動対象の育児語成人語リストのうち、当該ターゲット文に付加されている動画の識別番号情報と一致する「No.」の動画に対応する目的語の育児語及び成人語の少なくとも1つと一致するかを判定し、ターゲット文に含まれる語の少なくとも1つについて一致すると判定された場合には、当該ターゲット文に、受動対象を指し示す目的語が有ると判定し(S7o)、以下のS7p〜S7sの処理を行う。一方、ターゲット文に含まれる語の全てについて一致しない場合には、当該ターゲット文に、受動対象を指し示す目的語が無いと判定し、以下のS7p〜S7sの処理を省略する。
測定値生成部38は、提示した動画の各々について、スコア算出部364から入力された当該動画に対応するターゲット文のポイントに基づいて、当該動画に対する育児語使用傾向スコアを算出する(S8)。具体的には、動画に対応するターゲット文が1文である場合には、スコア算出部364により算出されたポイントを合算して、当該動画に対する育児語使用傾向スコアとする。動画に対応するターゲット文が複数の文である場合には、スコア算出部364により算出された各ターゲット文のポイントを合算したものの平均を、当該動画に対する育児語使用傾向スコアとして算出する。また、測定値生成部38は、提示した動画の各々に対して算出された育児語使用傾向スコアの合計を、測定値として算出する。被測定者について算出された動画の各々に対する育児語使用傾向スコア、及び測定値が、出力部50により出力される。出力部50は、例えば、ディスプレイやタッチパネル、プリンタ等からなる。
本実施形態で説明した映像のデータ構造を利用すれば、被調査者の発する育児語をコントロールすることができ、客観的育児語使用傾向測定方法の確実な発展に寄与することができる。養育者などの大人の育児語使用傾向を容易に且つ高精度に測定することが可能となる。これにより、例えば、地方自治体や医療機関(産婦人科や小児科)などでの養育者向けの育児教室などで、子どもへの語りかけをレクチャーする場合に、その個人ごとの特徴分析が、物理的及び時間的拘束条件もなく容易に実施可能になる。また言語発達に遅れのある子どもに対して養育者がどのような点を意識して発話すればよいかに関して気づきの情報を与えることも可能になる。さらに、幼稚園教諭や保育士、及びそれらを目指す学生などの人材育成及びスキルアップ指導場面においても、発話の質に関する定量的評価は有用であり、本発明を利用することができる。母子間コミュニケーションを実証的に研究している発達心理学の分野では、参考文献1にあるように、養育者のコミュニケーションの質が幼児の語彙発達に影響を及ぼすことを実証しており、この点を考慮すると、本発明による養育者発話傾向の測定技術は、育児支援及び発達支援という点で重要な意義を持つ。また本発明で注目している育児語使用傾向については子どもの成長に応じて変化していくものであり、成長に応じた育児語使用及びバランスが重要となる。その際に、その時点での発話の仕方が養育者ごとに客観的に分析できる。
(参考文献1) Carpenter, M., Nagel, K., & Tomasello, M.(1998). Social cognition, joint attention, and communicative competence from 9 to 15 months of age. Monograph of the Society for Research in Child Development, 63 (4, No.255).
本実施形態では、映像のタイプを5つのタイプに分類しているが、上述のタイプ分けとは異なる基準で映像のタイプを分けてもよい。例えば、以下の3つのタイプに分けてもよい。
この場合、動作主体は、(1)動作(自動詞)タイプ、(3)質感タイプ、(4)感情タイプ、若しくは(5)感覚タイプで説明した動作主体と同様の特徴を持つ。例えば、図2の豚や図5のうさぎ等である。
この場合、動作主体は、(1)動作(自動詞)タイプ、(3)質感タイプ、(4)感情タイプ、または、(5)感覚タイプで説明した動作主体と同様の特徴を持つ。また、受動対象は、(2)動作(他動詞)タイプ、(3)質感タイプ、または、(5)感覚タイプで説明した受動対象と同様の特徴を持つ。例えば、図3の男の子(動作主体)とライオン(受動対象)等である。
また、上記の実施形態及び変形例で説明した各装置における各種の処理機能をコンピュータによって実現してもよい。その場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
Claims (9)
- 被調査者の育児語の使用傾向を測定するために、映像を提示する映像提示装置により提示される映像のデータ構造であって、
少なくとも1個かつ1種類の動作主体と、前記動作主体の少なくとも1個かつ1種類の動作とを前記映像提示装置を介して提示するための1つ以上の映像データと、
映像データの識別情報と、前記識別情報が示す映像データに含まれる動作主体を育児語で表したものと、前記識別情報が示す映像データに含まれる動作主体の動作を育児語で表したものとの組合せを含むターゲット語リストとを含む、
データ構造。 - 被調査者の育児語の使用傾向を測定するために、映像を提示する映像提示装置により提示される映像のデータ構造であって、
少なくとも1個かつ1種類の動作主体と、前記動作主体の少なくとも1個かつ1種類の動作とを前記映像提示装置を介して提示するための映像データを含み、
前記動作主体の動作は自動詞であり、
前記動作主体及び前記動作主体の動作は育児語で表されるものである、
データ構造。 - 被調査者の育児語の使用傾向を測定するために、映像を提示する映像提示装置により提示される映像のデータ構造であって、
少なくとも1個かつ1種類の動作主体と、前記動作主体の少なくとも1個かつ1種類の動作とを前記映像提示装置を介して提示するための映像データを含み、
前記動作主体の動作は他動詞であり、
前記映像データは、前記動作主体の動作の対象となる少なくとも1個かつ1種類の受動対象を前記映像提示装置を介して提示するためのものであり、
前記動作主体、前記動作主体の動作及び受動対象は育児語で表されるものである、
データ構造。 - 被調査者の育児語の使用傾向を測定するために、映像を提示する映像提示装置により提示される映像のデータ構造であって、
少なくとも1個かつ1種類の受動対象と、前記受動対象に対する少なくとも1個かつ1種類の動作とを前記映像提示装置を介して提示するための映像データを含み、
前記受動対象の質感は育児語で表されるものであり、前記受動対象に対する動作は前記受動対象の質感を際立たせるものである、
データ構造。 - 被調査者の育児語の使用傾向を測定するために、映像を提示する映像提示装置により提示される映像のデータ構造であって、
少なくとも1個かつ1種類の動作主体と、前記動作主体の少なくとも1個かつ1種類の動作とを前記映像提示装置を介して提示するための映像データを含み、
前記動作主体の表情は育児語で表されるものであり、前記動作主体の動作は育児語で表されるものであって感情表現である、
データ構造。 - 請求項1から請求項3及び請求項5の何れかのデータ構造であって、
前記動作主体の動作は、育児語で表される1種類の動作のみである、
データ構造。 - 少なくとも1個かつ1種類の動作主体と、前記動作主体の少なくとも1個かつ1種類の動作とを提示するための1つ以上の映像データを記憶した動画データセット記憶部と、
映像データの識別情報と、前記識別情報が示す映像データに含まれる動作主体を育児語で表したものと、前記識別情報が示す映像データに含まれる動作主体の動作を育児語で表したものとの組合せを含むターゲット語リストを記憶したターゲット語リスト記憶部と、
前記動画データセット記憶部に記憶された映像データに対応して発せられる被調査者の発話から得られる発話文と、その映像データに対応するターゲット語リストとから、前記発話文に含まれる育児語に特有の特徴に基づいて育児語の使用傾向を求める育児語発話解析部と、を含む、
育児語使用傾向測定装置。 - 請求項1のデータ構造であって、
前記ターゲット語リストは、前記映像データの識別情報と、前記動作主体を育児語で表したものと、前記動作主体を成人語で表したものと、前記動作主体の動作を育児語で表したものと、前記動作主体の動作を成人語で表したものとの組合せを含む、
データ構造。 - 請求項7の育児語使用傾向測定装置であって、
前記ターゲット語リストは、前記映像データの識別情報と、前記動作主体を育児語で表したものと、前記動作主体を成人語で表したものと、前記動作主体の動作を育児語で表したものと、前記動作主体の動作を成人語で表したものとの組合せを含む、
育児語使用傾向測定装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014254970A JP6124306B2 (ja) | 2014-12-17 | 2014-12-17 | データ構造及び育児語使用傾向測定装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014254970A JP6124306B2 (ja) | 2014-12-17 | 2014-12-17 | データ構造及び育児語使用傾向測定装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016114882A true JP2016114882A (ja) | 2016-06-23 |
JP6124306B2 JP6124306B2 (ja) | 2017-05-10 |
Family
ID=56141749
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014254970A Active JP6124306B2 (ja) | 2014-12-17 | 2014-12-17 | データ構造及び育児語使用傾向測定装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6124306B2 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1113417A2 (en) * | 1999-12-28 | 2001-07-04 | Sony Corporation | Apparatus, method and recording medium for speech synthesis |
JP2009208727A (ja) * | 2008-03-06 | 2009-09-17 | Denso Corp | 自動車用ユーザーもてなしシステム |
JP2015129849A (ja) * | 2014-01-07 | 2015-07-16 | 日本電信電話株式会社 | 育児語使用傾向測定装置、方法、及びプログラム |
-
2014
- 2014-12-17 JP JP2014254970A patent/JP6124306B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1113417A2 (en) * | 1999-12-28 | 2001-07-04 | Sony Corporation | Apparatus, method and recording medium for speech synthesis |
JP2009208727A (ja) * | 2008-03-06 | 2009-09-17 | Denso Corp | 自動車用ユーザーもてなしシステム |
JP2015129849A (ja) * | 2014-01-07 | 2015-07-16 | 日本電信電話株式会社 | 育児語使用傾向測定装置、方法、及びプログラム |
Non-Patent Citations (3)
Title |
---|
内田 ゆず YUZU UCHIDA: "画像に対する発話からの名詞概念獲得システムにおける音素認識の導入について", 言語処理学会第13回年次大会発表論文集 PROCEEDINGS OF THE THIRTEENTH ANNUAL MEETING OF THE ASSOCIAT, JPN6016008028, 19 March 2007 (2007-03-19), JP, pages 994 - 997, ISSN: 0003267788 * |
南 泰浩 YASUHIRO MINAMI: "幼児の発達に応じた語彙検索システム Developmentally-Appropriate Vocabulary Search System", 電子情報通信学会論文誌 (J96−D) 第10号 THE IEICE TRANSACTIONS ON INFORMATION AND SYSTEMS, vol. 第J96-D巻, JPN6016008035, 1 October 2013 (2013-10-01), JP, ISSN: 0003525090 * |
橋本 智也: "子どもに対する大人の助詞「ハ」の使用:言語獲得研究用コーパスCHILDESを用いた検討", 言語処理学会第13回年次大会発表論文集 PROCEEDINGS OF THE THIRTEENTH ANNUAL MEETING OF THE ASSOCIAT, JPN6016008031, 19 March 2007 (2007-03-19), JP, pages 732 - 735, ISSN: 0003267789 * |
Also Published As
Publication number | Publication date |
---|---|
JP6124306B2 (ja) | 2017-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Nielsen et al. | Iconicity in word learning and beyond: A critical review | |
Simonsen et al. | The Norwegian Communicative Development Inventories: Reliability, main developmental trends and gender differences | |
Tamis-LeMonda et al. | Parent–child conversations during play | |
Cochet et al. | Communication in the second and third year of life: Relationships between nonverbal social skills and language | |
Brysbaert | Age of acquisition ratings score better on criterion validity than frequency trajectory or ratings “corrected” for frequency | |
Olson et al. | Mothers respond differently to infants’ gestural versus nongestural communicative bids | |
Garcia-Garcia et al. | Multimodal affective computing to enhance the user experience of educational software applications | |
Towell et al. | Reading to babies: Exploring the beginnings of literacy | |
Chojnicka et al. | Social language in autism spectrum disorder: A computational analysis of sentiment and linguistic abstraction | |
Nagpal et al. | Predicting individual differences in L2 speakers’ gestures | |
Arunachalam et al. | Let’s see a boy and a balloon: Argument labels and syntactic frame in verb learning | |
Cartmill | Mind the gap: Assessing and addressing the word gap in early education | |
Novogrodsky et al. | Age, frequency, and iconicity in early sign language acquisition: Evidence from the Israeli Sign Language MacArthur–Bates Communicative Developmental Inventory | |
Bonoti et al. | Social emotions in children's human figure drawings: Drawing shame, pride and jealousy | |
Streri et al. | The foundations of social cognition: Studies on face/voice integration in newborn infants | |
Asli-Badarneh et al. | Morphological ability among monolingual and bilingual speakers in early childhood: The case of two Semitic languages | |
He | Transitivity of kinetic typography: Theory and application to a case study of a public service advertisement | |
Lin | Gestures as scaffolding for L2 narrative recall: The role of gesture type, task complexity, and working memory | |
Veena et al. | Development of communicative gestures in normally developing children between 8 and 18 months: An exploratory study | |
Hodges et al. | The monosyllable imitation test for toddlers: influence of stimulus characteristics on imitation, compliance and diagnostic accuracy | |
Isabella et al. | Emotional contagion and socialization: Reflection on virtual interaction | |
Soukup | Nonverbal Communication. | |
Reese et al. | Estimating language skills in Samoan-and Tongan-speaking children growing up in New Zealand | |
CN112005286A (zh) | 一种教学测试项目匹配方法、装置和设备 | |
JP6124306B2 (ja) | データ構造及び育児語使用傾向測定装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160422 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160830 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161007 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170328 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170329 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6124306 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |