JP2016114882A - データ構造及び育児語使用傾向測定装置 - Google Patents

データ構造及び育児語使用傾向測定装置 Download PDF

Info

Publication number
JP2016114882A
JP2016114882A JP2014254970A JP2014254970A JP2016114882A JP 2016114882 A JP2016114882 A JP 2016114882A JP 2014254970 A JP2014254970 A JP 2014254970A JP 2014254970 A JP2014254970 A JP 2014254970A JP 2016114882 A JP2016114882 A JP 2016114882A
Authority
JP
Japan
Prior art keywords
action
subject
words
video
childcare
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014254970A
Other languages
English (en)
Other versions
JP6124306B2 (ja
Inventor
哲生 小林
Tetsuo Kobayashi
哲生 小林
昭二 板倉
Shoji Itakura
昭二 板倉
彩夏 池田
Ayaka Ikeda
彩夏 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyoto University
Nippon Telegraph and Telephone Corp
Original Assignee
Kyoto University
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyoto University, Nippon Telegraph and Telephone Corp filed Critical Kyoto University
Priority to JP2014254970A priority Critical patent/JP6124306B2/ja
Publication of JP2016114882A publication Critical patent/JP2016114882A/ja
Application granted granted Critical
Publication of JP6124306B2 publication Critical patent/JP6124306B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Machine Translation (AREA)

Abstract

【課題】客観的育児語使用傾向測定方法の確実な発展に寄与する映像のデータ構造、映像を見た人の発話文を用いて育児語の使用傾向を測定する育児語使用傾向測定装置を提供する。【解決手段】映像のデータ構造は、被調査者の育児語の使用傾向を測定するために、映像を提示する映像提示装置により提示される。データ構造は、少なくとも1個かつ1種類の動作主体と、動作主体の少なくとも1個かつ1種類の動作とを映像提示装置を介して提示するための1つ以上の映像データと、映像データの識別情報と、識別情報が示す映像データに含まれる動作主体を育児語で表したものと、識別情報が示す映像データに含まれる動作主体の動作を育児語で表したものとの組合せを含むターゲット語リストとを含む。【選択図】図1

Description

本発明は、被調査者の育児語の使用傾向を測定するために、映像を提示する映像提示装置により提示される映像のデータ構造、及び、映像を見た人の発話文を用いて育児語の使用傾向を測定する育児語使用傾向測定装置に関する。
育児語とは、養育者などが幼い子どもに向けて発する特別な語彙形式のことを言い、擬音語、擬態語、音韻反復、接尾辞付加(さん、ちゃん)などの形態的特徴を持った語がある。例えば、犬に対する「ワンワン」や、車に対する「ブッブー」は育児語の代表例である。従来、こうした育児語の使用傾向は、質問紙にある語彙リストに対しどんな語を子どもに与えているかを、養育者が1つずつ回答するという形式で測定されていた(非特許文献1)。
村瀬俊樹、小椋たみ子、山下由紀恵、「養育者における育児語使用傾向の構造と育児語使用を規定する要因」、島根大学法文学部紀要社会文化学科編、2007年、Vol.4、pp.17-30
しかし、非特許文献1の方法では、リストにある語彙に対し自分が普段どんな語彙を使用しているか(つまり育児語の有無)を振り返って回答するため、(1)実際にそのような発話がなされているか確認がとれない点、(2)回答者によってその判断が揺らぐ可能性が高い点、(3)項や助詞の脱落による語彙以外の側面からの育児語使用傾向が測定できない点などが、問題点として挙げられる。
これらの問題点を解決する方法として以下のような方法が考えられる。子どもに語りかける状況を実際に作り出し、その際に発話される内容を解析して得点化する。この方法では、タブレットPCなどの情報端末を用いてその画面上に動画(以下「映像」ともいう)を提示する。動画には、育児語で表される動物や乗り物(以下「動作主体」ともいう)などを登場させて、育児語で表される動作を動作主体に演じさせる。ここで重要なポイントとなるのは、画面上に動作を動画として提示することにより、育児語が発話されやすくなり、紙の絵本のような静止画を使うより、育児語の発話を促進する環境を提供できる点である。こうした動画を提示しながら動画内容を子どもに説明するように養育者などに指示すると、彼らは考える間もなく発話が促される。その結果、日常生活で語りかける場面とよく似たスタイルで子どもに語りかける可能性が高くなり、現実の発話に近いスタイルを測定することができる。このようにして発話された内容に対し、動画ごとにあらかじめ決めておいた得点化方式(1.物体に対する育児語の有無、2.動作に対する育児語の有無、3.ガ格やヲ格の有無など)に基づいて育児語の使用傾向の推定を行う。こうした動画を約10種類ほど提示し、様々なアクション事象に対する発話を記録し、推定することにより、被調査者ごとの育児語の使用傾向を包括的に且つ高精度で測定することが可能となる。
上述の手法(以下、「客観的育児語使用傾向測定方法」ともいう)は、育児語の使用傾向を測定するものの中で最もよい技術と考えられるが、こうした手法を更に洗練させて高精度な測定を可能にし、確実な技術としていくためには、どんなタイプの映像が育児語を使用する能力を高精度に測定できるかを正確に把握し、映像デザインの構成要素(例えば、動作主体/述語/受動対象など)をどう設計するかが重要となってくる。
本発明は、客観的育児語使用傾向測定方法の確実な発展に寄与する映像のデータ構造、映像を見た人の発話文を用いて育児語の使用傾向を測定する育児語使用傾向測定装置を提供することを目的とする。
上記の課題を解決するために、本発明の一態様によれば、映像のデータ構造は、被調査者の育児語の使用傾向を測定するために、映像を提示する映像提示装置により提示される。データ構造は、少なくとも1個かつ1種類の動作主体と、動作主体の少なくとも1個かつ1種類の動作とを映像提示装置を介して提示するための1つ以上の映像データと、映像データの識別情報と、識別情報が示す映像データに含まれる動作主体を育児語で表したものと、識別情報が示す映像データに含まれる動作主体の動作を育児語で表したものとの組合せを含むターゲット語リストとを含む。
上記の課題を解決するために、本発明の他の態様によれば、映像のデータ構造は、被調査者の育児語の使用傾向を測定するために、映像を提示する映像提示装置により提示される。映像のデータ構造は、少なくとも1個かつ1種類の動作主体と、動作主体の少なくとも1個かつ1種類の動作とを映像提示装置を介して提示するための映像データを含み、動作主体の動作は自動詞であり、動作主体及び動作主体の動作は育児語で表されるものである。
上記の課題を解決するために、本発明の他の態様によれば、映像のデータ構造は、被調査者の育児語の使用傾向を測定するために、映像を提示する映像提示装置により提示される。映像のデータ構造は、少なくとも1個かつ1種類の動作主体と、動作主体の少なくとも1個かつ1種類の動作とを映像提示装置を介して提示するための映像データを含み、動作主体の動作は他動詞であり、映像データは、動作主体の動作の対象となる少なくとも1個かつ1種類の受動対象を映像提示装置を介して提示するためのものであり、動作主体、動作主体の動作及び受動対象は育児語で表されるものである。
上記の課題を解決するために、本発明の他の態様によれば、映像のデータ構造は、被調査者の育児語の使用傾向を測定するために、映像を提示する映像提示装置により提示される。映像のデータ構造は、少なくとも1個かつ1種類の受動対象と、受動対象に対する少なくとも1個かつ1種類の動作とを映像提示装置を介して提示するための映像データを含み、受動対象の質感は育児語で表されるものであり、受動対象に対する動作は受動対象の質感を際立たせるものである。
上記の課題を解決するために、本発明の他の態様によれば、映像のデータ構造は、被調査者の育児語の使用傾向を測定するために、映像を提示する映像提示装置により提示される。映像のデータ構造は、少なくとも1個かつ1種類の動作主体と、動作主体の少なくとも1個かつ1種類の動作とを映像提示装置を介して提示するための映像データを含み、動作主体の表情は育児語で表されるものであり、動作主体の動作は育児語で表されるものであって感情表現である。
上記の課題を解決するために、本発明の他の態様によれば、育児語使用傾向測定装置は、少なくとも1個かつ1種類の動作主体と、動作主体の少なくとも1個かつ1種類の動作とを提示するための1つ以上の映像データを記憶した動画データセット記憶部と、映像データの識別情報と、識別情報が示す映像データに含まれる動作主体を育児語で表したものと、識別情報が示す映像データに含まれる動作主体の動作を育児語で表したものとの組合せを含むターゲット語リストを記憶したターゲット語リスト記憶部と、映像データに対応して発せられる被調査者の発話から得られる発話文と、その映像データに対応するターゲット語リストとから、発話文に含まれる育児語に特有の特徴に基づいて育児語の使用傾向を求める育児語発話解析部と、を含む。
本発明の映像のデータ構造によれば、被調査者の発する育児語をコントロールすることができ、客観的育児語使用傾向測定方法の確実な発展に寄与することができるという効果を奏する。
育児語の使用傾向を測定する際に提示する映像の構成要素の例を示す図。 動作(自動詞)タイプの映像の例を示す図。 動作(他動詞)タイプの映像の例を示す図。 質感タイプの映像の例を示す図。 感情タイプの映像の例を示す図。 感覚タイプの映像の例を示す図。 第一実施形態に係る育児語使用傾向測定装置の機能ブロック図。 第一実施形態に係る育児語使用傾向測定装置の処理フローの例を示す図。 ターゲット語リストの例を示す図。 育児語発話解析部の処理フローの例を示す図。
以下、本発明の実施形態について、説明する。なお、以下の説明に用いる図面では、同じ機能を持つ構成部や同じ処理を行うステップには同一の符号を記し、重複説明を省略する。
<第一実施形態のポイント>
本実施形態では、まずタブレットPCのような情報端末を用いてその画面上に動画を提示し、被調査者(以下「養育者」ともいう)に見てもらう。このときに動画の内容を子どもに説明する(語りかける)ように、養育者に指示し、その様子をタブレットやPCに備わる(もしくは接続した)ビデオカメラとマイクロフォンで、収録(録画及び録音)し、記憶媒体に記録する。記録された発話は、計算機上で既存の音声認識アプリケーション等を利用することにより自動的にテキスト化する。動画ごとにあらかじめ決めておいた得点化方式に基づいてアルゴリズムを実行し、育児語使用傾向の推定を計算機上で実行する。
上記の育児語使用傾向測定装置で実行する際の動画については、図1にある映像の構成要素を考慮し設計した。この映像のデータ構造が本実施形態のポイントである。映像は、幅広い育児語使用傾向を測定するために、(1)動作(自動詞)、(2)動作(他動詞)、(3)質感、(4)感情、(5)感覚の5タイプを設定した。それらのタイプごとに複数個の動画を設定した。図1の例では、タイプごとに3個〜5個の動画を設定した。こうした動画セットは、育児語になりやすい語彙を考慮して設計され、測定を実施する際には、一人の被調査者に対して、これらの各タイプから複数個抽出して実施するとよい。これは、各個人の育児語使用傾向が、事物や動作のタイプによって大きく左右される傾向にあるので、異なるタイプの動画を使用する方が望ましいからである。
各動画に対する発話は、育児語の有無などによって得点化する。自動詞系の動画は、行為者(以下「動作主体」ともいう)と述語とのそれぞれに対し、育児語あるいは成人語を使用したかにより集計する。一方、他動詞系の動画は、動作主体と受動者(以下「受動対象」ともいう)、述語の3要素それぞれに対し、育児語あるいは成人語を使用したかにより集計する。述語としては、動詞(自動詞、他動詞)、形容詞、形容動詞等を用いることができる。以下、タイプごとに一例をあげる。
(1)動作(自動詞)タイプ
映像内容1:ブタが 坂を ゴロゴロっと 転がっていく(図2参照)
述語:転がる(成人語)、ゴロゴロ(育児語)
動作主体:豚(成人語)、ブーブー(育児語)
受動対象:なし
なお、動作主体は、少なくとも1個、かつ、少なくとも1種類の物体(人を含む動物や植物、無生物など)からなる。ただし、動作主体として育児語で表されるものを用いる。養育者の発する育児語をある程度絞り込むために、動作主体は1種類の物体からなるものとすることが望ましい。また、養育者の発する育児語を絞り込むという観点から、養育者に対してこちらの意図しない特徴に目がいかないようにコントロールすることが望ましい。この観点から物体の表情や形状は変化しないものとし、物体を分かりやすく単純化、デフォルメすることが望ましい。
述語は、動作主体の動作を表し、自動詞である。少なくとも1個、かつ、少なくとも1種類の動作からなる。ただし、述語として育児語で表されるものを用いる。養育者の発する育児語をある程度絞り込むために、述語は1種類の動作からなるもの(その他の動作を含まないもの)とすることが望ましい。
また、動きに伴う背景の動きがあってもよいが、養育者の発する育児語を絞り込むという観点から、背景は、動作主体や、動作主体の動作への注目を妨げない単純化したものが望ましい。例えば、ありきたりな単一の色で配色する等とする。なお、動作主体や、動作主体の動作を認識しやくするための背景が存在する場合には、そのような背景とすることが望ましい。例えば、図2では、豚が転がっていることを分かりやすくするために、二色の単純な配色で坂を表している。背景の特徴に関しては、以下のタイプにおいても同様のである。
(2)動作(他動詞)タイプ
映像内容8:男の子がライオン をコチョコチョしてくすぐっている(図3参照)
述語:くすぐる(成人語)、こちょこちょ(育児語)
動作主体:男の子(成人語)、にーに(育児語)
受動対象:ライオン(成人語)、 がおー(育児語)
動作主体は、(1)動作(自動詞)タイプで説明した特徴を備える。
述語は、動作主体の動作を表し、他動詞である。少なくとも1個、かつ、少なくとも1種類の動作からなる。ただし、述語として育児語で表されるものを用いる。養育者の発する育児語をある程度絞り込むために、述語は1種類の動作からなるもの(その他の動作を含まないもの)とすることが望ましい。
受動対象は、少なくとも1個、かつ、少なくとも1種類の物体(人を含む動物や植物、無生物など)からなる。ただし、受動対象として育児語で表されるものを用いる。養育者の発する育児語をある程度絞り込むために、受動対象は1種類の物体からなるものとすることが望ましい。また、養育者の発する育児語を絞り込むという観点から、養育者に対してこちらの意図しない特徴に目がいかないようにコントロールすることが望ましい。この観点から物体の表情や形状は変化しないものとし、物体を分かりやすく単純化、デフォルメすることが望ましい。ただし、受動対象は、他動詞を認識しやすくするための動きや変化があってもよい。
(3)質感タイプ
映像内容9:男の子がトゲトゲの栗を素手で拾って落とす(図4参照)
述語:痛い(成人語)、ちくちく(育児語)
動作主体:男の子(成人語)、 にーに(育児語)
受動対象:くり(成人語)、とげとげ(育児語)
受動対象は、少なくとも1個、かつ、少なくとも1種類の物体(人を含む動物や植物、無生物など)からなり、育児語で表される質感を持つ。育児語で表される質感とは、例えば、オノマトペ(擬音語、擬声語、擬態語を含む)で表されるものなどである。質感タイプの場合、受動対象自体が育児語化されているか否かをターゲットとせず、受動対象の持つ質感が育児語化されているか否かをターゲットとしている。養育者の発する育児語をある程度絞り込むために、受動対象は1種類の質感を持つものとすることが望ましい。また、養育者の発する育児語を絞り込むという観点から、養育者に対してこちらの意図しない特徴に目がいかないようにコントロールすることが望ましい。この観点から、物体を分かりやすく単純化、デフォルメすることが望ましい。
動作主体は、少なくとも1個、かつ、少なくとも1種類の物体(人を含む動物や植物、無生物など)からなる。動作主体として育児語で表されるものであることが望ましい。動作主体として育児語で表されるものを用いた場合(動作主体が育児語化されているか否かをターゲットとする場合)には、養育者の発する育児語をある程度絞り込むために、動作主体は1種類の物体からなるものとすることが望ましい。また、養育者の発する育児語を絞り込むという観点から、養育者に対してこちらの意図しない特徴に目がいかないように、物体を分かりやすく単純化、デフォルメすることが望ましい。
述語は、動作主体の動作を表し、受動対象に対する動作であって、受動対象の質感を際立たせる動き/表情である。質感タイプの場合、述語自体は育児語で表される必要はない。
(4)感情タイプ
映像内容15:ウサギさんが 転んで エンエンと 泣いている(図5参照)
述語:泣く(成人語)、えんえん(育児語)
動作主体:うさぎ(成人語)、 ぴょんさん(育児語)
なお、動作主体は、少なくとも1個、かつ、少なくとも1種類の物体(人を含む動物や植物、無生物など)からなる。ただし、動作主体として育児語で表される表情を持つものを用いる。養育者の発する育児語をある程度絞り込むために、動作主体は1種類の物体からなるものとすることが望ましい。
述語は、行為者の動作である感情表現を表す。少なくとも1個、かつ、少なくとも1種類の感情表現からなる。ただし、述語として育児語で表されるものを用いる。養育者の発する育児語をある程度絞り込むために、述語は1種類の感情表現からなるもの(育児語化されているか否かをターゲットとする、1種類の感情表現以外を含まないもの)とすることが望ましい。ただし、感情表現の要因となる動きや感情表現に伴う動きがあってもよい。例えば、図5では、ウサギが泣くという動作(感情表現)に注意を引くために、その要因となる転ぶという動作を、感情表現の前に提示している。
(5)感覚タイプ
映像内容18:納豆を混ぜて箸を上に持ち上げてネバネバをアピール(図6参照)
述語:混ぜる(成人語)、ぐるぐる(育児語)
動作主体:箸(成人語)
受動対象:納豆(成人語)、ねばねば(育児語)
感覚タイプにおける「感覚」とは、動作主体若しくは動作主体の動作、または、受動対象若しくは受動対象に対する動作に対して、映像の視聴者が抱く感覚であって、その感覚が育児語で表されるものである。
動作主体または受動対象は、少なくとも1個、かつ、少なくとも1種類の物体(人を含む動物や植物、無生物など)からなり、映像の視聴者に対して、育児語で表される感覚を想起させるものである。育児語で表される感覚とは、例えば、オノマトペ(擬音語、擬声語、擬態語を含む)で表されるものなどである。
感覚タイプの場合、動作主体自体または受動対象自体が育児語化されているか否かをターゲットとせず、動作主体または受動対象の想起させる感覚が育児語化されているか否かをターゲットとしている。養育者の発する育児語をある程度絞り込むために、想起させる感覚は1種類の感覚であることが望ましい。また、養育者の発する育児語を絞り込むという観点から、養育者に対してこちらの意図しない特徴に目がいかないようにコントロールすることが望ましい。この観点から物体を分かりやすく単純化、デフォルメすることが望ましい。
図6の例では、動作主体は箸(成人語)であり、「お箸さん」等を育児語と想定することはできるが、必ずしも動作主体を育児語で表す必要はない。同様に、必ずしも受動対象を育児語で表す必要はない。
述語は、動作主体の動作を表し、受動対象に対する動作であって、動作主体または受動対象の想起させる感覚を際立たせるものである。感覚タイプの場合、述語自体は育児語で表される必要はない。
(6)映像のポイント
このように、述語と動作主体、受動対象などに対して成人語と育児語が併存する映像を設定するところが本実施形態の重要な点であり、今回の提案ではより具体的に詳細な映像デザインを考慮している。
なお、映像は、必ずしも上述の5つのタイプのうちの1つに分類される必要はなく、1つの映像が2つのタイプに分類されてもよい。例えば、図6の映像(映像内容18:納豆を混ぜて箸を上に持ち上げてネバネバをアピール)を感覚タイプに分類するとともに、質感タイプに分類してもよい。
<第一実施形態に係る育児語使用傾向測定装置100>
図7は第一実施形態に係る育児語使用傾向測定装置100の機能ブロック図を、図8はその処理フローを示す。
本発明の第一実施形態に係る育児語使用傾向測定装置100は、CPUとRAMと後述する育児語使用傾向測定処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。例えば、育児語使用傾向測定装置100は、動画をインターフェースに提示できる装置と、音声及び映像の記録が可能な装置を同時に備えるデバイス(タブレットやラップトップPCと、その関連機器)である。この育児語使用傾向測定装置100は、入力部10と、演算部20と、表示部40と、出力部50とを含む。演算部20は、動画データセット記憶部22と、動画刺激提示部24と、対応付け部25と、発話記録部26と、音声認識部28と、形態素解析部30と、ターゲット文抽出部34と、ターゲット語リスト記憶部32と、育児語発話解析部36と、測定値生成部38とを含む。
<動画データセット記憶部22、動画刺激提示部24及び表示部40>
動画刺激提示部24は、動画データセット記憶部22に記憶されている動画を一つずつ選択し、表示部40により、選択した動画を表示させ、被調査者に提示する(S1)。また、動画刺激提示部24は、選択した動画に付加されている識別情報を対応付け部25に出力する。例えば、動画刺激提示部24は別途入力される、動画の指定情報により、指定された動画を選択する。例えば、動画刺激提示部24は動画データセット記憶部22に記憶されている動画を、所定の個数分ランダムに選択する。
また、例えば、表示部40はディスプレイやタッチパネルからなる。
動画データセット記憶部22には、複数の動画が記憶されている。なお、動画を識別するために、動画の各々には識別情報(例えば「No.○○」といった番号)が付加されている。動画データセット記憶部22に記憶されている動画は、上述の(1)動作(自動詞)、(2)動作(他動詞)、(3)質感、(4)感情、(5)感覚の5タイプの動画である。
<入力部10、対応付け部25及び発話記録部26>
予め、被調査者に対して、提示された動画の説明を子ども向けに行うように指示しておく。
入力部10は、動画刺激提示部24により選択され表示部40で被測定者に提示される動画の各々に対応して発せられる被調査者の音声発話信号(以下「ユーザ発話」ともいう)を取得し(S2)、当該音声発話信号をアナログ−ディジタル変換により、音声発話ディジタル信号に変換して対応付け部25に出力する。例えば、入力部10はマイクロホンからなる。なお、子どもがそばにいる状況であれば、膝に座らせ、一緒に動画を見ながら発話してもらう方が育児向けの自然な発話がより期待できるので良い。ただし、子どもがそばにいなくても実施は十分可能であることは、本方式の強みでもある。
対応付け部25は、入力部10から入力されたユーザ発話の各々と、入力部10から入力されたユーザ発話に対応する動画について動画刺激提示部24から入力された識別情報の各々とを対応付け(S3)、発話記録部26に記録する。ユーザ発話に識別情報を付加することで、動画データセット記憶部22に記録されたどの動画に対して発話されたユーザ発話であるかを特定することができる。
発話記録部26は、対応付け部25から入力された動画の識別情報が付加されたユーザ発話の各々の音声情報を記録している。
<音声認識部28及び形態素解析部30>
音声認識部28は、発話記録部26に記録されている動画の識別情報が付加されたユーザ発話の各々の音声発話ディジタル信号を取得し、音声認識処理を行って(S4)、音声発話ディジタル信号の各々をテキスト化し、動画の識別情報が付加された、テキスト化されたユーザ発話である発話テキストを出力する。
形態素解析部30は、音声認識部28から入力される発話テキストの各々について品詞単位での分割、品詞付与、及び、文分割の形態素解析処理をし(S5)、形態素解析結果をターゲット文抽出部34に出力する。なお、推定の厳密化を伴う場合は、形態素解析部30のプロセスの後に、人による音声認識及び品詞付与の確認・修正を行うフェーズを入れても良い。
<ターゲット文抽出部34及びターゲット語リスト記憶部32>
ターゲット文抽出部34は、形態素解析部30からの形態素解析結果を入力とし、動画刺激提示部24により選択され表示部40で被測定者に実際に提示した動画に関連する発話を抽出する処理を計算機上で実行する。これは、計算機上にあらかじめ記憶したターゲット語リストを参照してそれとのマッチングを取ることにより、リストと同じ語があれば、評価対象としてその文にタグを付ける。このタグをつけた文を「ターゲット文」として設定し、計算機上で処理を進める。具体的には以下のように処理を行う。
ターゲット文抽出部34は、発話テキストの各々の形態素解析処理結果と、ターゲット語リスト記憶部32に記憶されているターゲット語リストとに基づいて、発話テキストから、ターゲット文を抽出し(S6)、育児語発話解析部36に出力する。具体的には、発話テキストの各々について、当該発話テキストに含まれる語のうち少なくとも1つの語と、ターゲット語リスト記憶部32に記憶されているターゲット語リストのうち、当該発話テキストに付加されている動画の識別情報と一致する「No.」の動画に対応する主語、述語、及び目的語の育児語及び成人語の少なくとも1つの語とが一致する場合、当該発話テキストに評価対象とするタグ付けを行うと共に、当該一致する語を含む文を、ターゲット文として抽出する。
ターゲット語リスト記憶部32は、例えば図9に示すように、提示される1つ以上の動画の各々について、動画の識別情報と、当該動画が表す動作主体を示す主語の育児語及び成人語と、当該動画が表す動作を示す述語の育児語及び成人語と、当該動画が表す動作の対象である受動対象を示す目的語の育児語及び成人語とを対応付けたターゲット語リストを記憶している。また、ターゲット語リスト記憶部32は、ターゲット語リストのうち、主語の育児語及び成人語に対応するリストを動作主体リストとして記憶し、述語の育児語及び成人語に対応するリストを述語の育児語成人語リストとして記憶し、目的語の育児語及び成人語に対応するリストを受動対象の育児語成人語リストとして記憶している。なお、ターゲット語リストの「No.」は、動画の識別情報の番号と同一の番号とする。別の言い方をすると、ターゲット語リストは、映像データの識別情報と、動作主体を成人語で表したものと育児語で表したものと、動作主体の動作を成人語で表したものと育児語で表したものと、受動対象を成人語で表したものと育児語で表したものの組合せを含む。
また、第一実施形態において、述語は、動詞(自動詞、他動詞)及び形容詞、形容動詞とする。
なお、動画には、必ずしも目的語が存在しない場合(述語が自動詞の場合等、図9のNo.1やNo.5参照)がある。また、主語に対応する育児語が存在しない場合(図9のNo.18参照)がある。その場合には、空欄としておけばよい。
ターゲット語リストは、動画ごとにあらかじめ発話される可能性の高い動作主体、述語、受動対象をリスト化し、記憶しておけばよい。また、実際に被調査者に動画を見せて、収録した発話から育児語を抽出してリスト化してもよい。映像のデータ構造は、前述のように、(1)動作(自動詞)、(2)動作(他動詞)、(3)質感、(4)感情、(5)感覚の5タイプに分類されるように構成するため、動作主体、述語、受動対象に対して育児語が想定されているが、実際の発話データを元にターゲット語リストを設計することで、より精度の高いものとなる。前述の通り、本実施形態のポイントは、映像のデータ構造そのものであるが、このターゲット語リストをその一部として含んでもよい。
<育児語発話解析部36>
育児語発話解析部36は、一連の得点化方式に基づくアルゴリズムを実行することにより、ターゲット文に対する育児語使用傾向を数値化し、推定する。具体的には以下のように処理を行う。
育児語発話解析部36は、入力された発話テキスト(より詳しく言うと、入力部10を介して入力された音声発話信号から得られる発話テキストから抽出されたターゲット文)と、その形態素解析処理結果と、表示部40で表示される動画に対応するターゲット語リストとから、発話テキストに含まれる育児語に特有の特徴に基づいて、育児語の使用傾向を求め(S7)、測定値生成部38に出力する。
育児語発話解析部36は、特徴検出部362と、スコア算出部364とを含んで構成される。育児語発話解析部36の処理内容を図10を用いて説明する。
特徴検出部362は、ターゲット文抽出部34において抽出されたターゲット文を入力とし、ターゲット文の各々について、当該ターゲット文の形態素解析処理結果と、ターゲット語リスト記憶部32に記憶されているターゲット語リストとに基づいて、育児語に特有の特徴の有無を検出する。育児語に特有の特徴とは、動作主体を指し示す主語の育児語の存在と、動作主体を指し示す主語に助詞が付随されていないことと、動作に対応する述語の育児語の存在と、動作に対応する述語の育児語に述部語尾が付随されていないことと、受動対象を指し示す目的語の育児語の存在と、受動対象を指し示す目的語に助詞が付随されていないこと、などである。特徴検出部362で、これら全ての育児語に特有の特徴の有無を検出してもよいが、これら特徴のうち、当該発話テキストに付加されている動画の識別情報と一致する「No.」の動画に対応する特徴の有無を判定する方がのぞましい。例えば、(1)動作(自動詞)の動画に対応する特徴であれば、動作主体を指し示す主語の育児語の存在と、動作主体を指し示す主語に助詞が付随されていないことと、動作に対応する述語の育児語の存在と、動作に対応する述語の育児語に述部語尾が付随されていないこと、が該当する。対応する特徴については、動画や動画のタイプごとに予め定めて識別番号と紐づけておくものとする。
スコア算出部364は、ターゲット文の各々について、特徴検出部362における検出結果に基づいて、育児語の使用傾向を表すスコアを算出する。具体的には、動作主体を指し示す主語の育児語の存在が検出された場合、主語に助詞が付随されていないことが検出された場合、動作に対応する述語の育児語の存在が検出された場合、及び述部語尾が付随されていないことが検出された場合、受動対象を指し示す目的語の育児語の存在が検出された場合、受動対象を指し示す目的語に助詞が付随されていないことが検出された場合の各々を、1点の加算対象とし、ターゲット文についてポイントを付与することにより、当該ターゲット文に対するスコアが算出される。
(動作主体に関する特徴)
ここで、動作主体を指し示す主語の育児語の存在を検出する方法及びポイント付与について説明する。動画ごとのターゲット語リストの下位レイヤーにリスト化された動作主体リストとのマッチングを取ることにより決定する。具体的には、まず、ターゲット文に含まれる語の各々について、ターゲット語リストに含まれる動作主体リストのうち、当該ターゲット文に付加されている動画の識別情報と一致する「No.」の動画に対応する主語の育児語及び成人語の少なくとも1つと一致するかを判定し、ターゲット文に含まれる語の少なくとも1つについて一致すると判定された場合には、当該ターゲット文に動作主体を指し示す主語が有ると判定し(S7a)、以下のS7b〜S7eの処理を行う。一方、ターゲット文に含まれる語の全てについて一致しない場合には、当該ターゲット文に動作主体を指し示す主語が無いと判定し、以下のS7b〜S7eの処理を省略する。
なお、ターゲット文に含まれる語の複数について一致すると判定された場合、一致した語の各々をターゲット文の主語と認定する。また、主語の育児語又は成人語と一致する語が連続して繰り返して出現している場合には、当該連続する範囲を1つの動作主体を指し示す主語とする。例えば、「ブーブーブーブー」は育児語「ブーブー」が連続して出現しているため、当該「ブーブーブーブー」を1つの動作主体を指し示す主語とする。また、「ワンワンだよ」、「にゃんにゃんや」などの「だ」や「や」などのコピュラが育児語又は成人語に付加されている場合は、例外的に動作主体を指し示す主語としない。
次に、動作主体リストに該当する語があった場合、それが育児語化しているかどうかを「動画ごとのターゲット語リスト」の下位レイヤーにある「動作主体リスト」とのマッチングをとることにより決定する。具体的には、動作主体を指し示す主語があると判定されたターゲット文について、当該ターゲット文の動作主体を指し示す主語の各々が、当該動作主体を指し示す主語と、ターゲット語リストに含まれる動作主体リストのうち、当該ターゲット文に付加されている動画の識別情報と一致する「No.」の動画に対応する主語の育児語のうち少なくとも1つと一致するか判定する(S7b)。一致する場合には、当該ターゲット文の動作主体を指し示す主語の育児語が存在することを検出する。ここで、育児語化している場合はポイントを付与(例えば1点を付与)し(S7c)、育児語化していない場合(つまり成人語が発話されている場合)はポイントを付与しない(例えば0点とする)。例えば、犬という対象に対し「ワンワン」「ワンちゃん」は育児語とする。接頭辞、接尾辞などの付加による部分的な育児語化(「イヌさん」「お犬」など)は、成人語とみなす場合が多い。但し、場合によっては重み付けをし、0.5前後の中間的な値を付与してもよい。なお、「ワンワンだよ」「にゅんにゃんや」などの「だ」や「や」などのコピュラが付く場合は、例外的に動作主体を指し示す主語としないので、ポイントを付与せず0点とする。
次に、動作主体の育児語化の有無に関係なく次の段階では、主語への助詞の付随があるかどうかを決定する。動作主体を指し示す主語に助詞が付随していないことを検出する方法について説明する。動作主体を指し示す主語があると判定されたターゲット文について、当該ターゲット文の動作主体を指し示す主語に助詞が付随しているかを判定し(S7d)、助詞が付随していない場合には、ポイントを付与(例えば1点を付与)し(S7e)、助詞が付随している場合には、ポイントを付与しない(例えば0点とする)。第一実施形態においては、ガ格の有無を判定し、ガ格が有る場合は助詞が付随していると判定し、ガ格がない場合は助詞が付随していないと判定する。場合によっては、トピックを示すハ格がない場合にも0.5前後の中間的な値でポイントを付与してもよい。日本語では、発話が育児語化及び口語化する場合に助詞が脱落する場合が多いので、文法的な点からも育児語使用を考慮できる工夫をした方がのぞましい。
(述語に関する特徴)
次に、動作に対応する述語の育児語の存在、及び述部語尾が付随されていないことを検出する方法及びポイント付与について説明する。本実施形態では、述語は、動詞及び形容詞とする。ターゲット文の中から、動作に対応する述語の有無を決定し、述語がある場合は、次のステップで述語の育児語化を決定する。具体的には、まず、ターゲット文に含まれる語の各々について、ターゲット語リストに含まれる述語の育児語成人語リストのうち、当該ターゲット文に付加されている動画の識別情報と一致する「No.」の動画に対応する述語の育児語及び成人語の少なくとも1つの語と一致するかを判定し、ターゲット文に含まれる語の少なくとも1つについて一致すると判定された場合には、当該ターゲット文に動作に対応する述語が有ると判定し(S7h)、以下のS7i〜S7l(ローマ字のエル)の処理を行う。一方、ターゲット文に含まれる語の全てについて一致しないと判定された場合には、当該ターゲット文に動作に対応する述語が無いと判定し、以下のS7i〜S7lの処理を省略する。
なお、ターゲット文に含まれる語の複数について一致すると判定された場合、一致した語の各々をターゲット文の述語と認定する。また、述語の育児語又は成人語と一致する語が連続して繰り返して出現している場合には、当該連続する範囲を1つの動作に対応する述語とする。例えば、「ゴロゴロゴロゴロ」は育児語「ゴロゴロ」が連続して出現しているため、当該「ゴロゴロゴロゴロ」を1つの動作に対応する述語とする。
次に、動作に対応する述語が有ると判定されたターゲット文について、当該ターゲット文の述語の各々が、述語の育児語成人語リストのうち、当該ターゲット文に付加されている動画の識別情報と一致する「No.」の動画に対応する述語の育児語の少なくとも1つとが一致するかを判定し(S7i)、一致する場合には、当該ターゲット文に育児語の述語が含まれているとし、当該ターゲット文の動作に対応する述語の育児語の存在を検出する。ここで、述語が育児語化している場合はポイントを付与(例えば1点を付与)し(S7j)、育児語化していない場合(つまり成人語が発話されている場合)はポイントを付与しない(例えば0点とする)。例えば、跳躍に関する事象の場合は、「ピョンピョンしてる」なら1点、「跳んでいる」「跳ねている」なら0点とすればよい。なお、当該ターゲット文に育児語の述語が含まれていない場合、以下のS7j〜S7lの処理を省略する。
さらに、述語が育児語化している場合、当該ターゲット文に含まれている述語の育児語に、「してる」、「する」、「だ」、「や」、「だよ」などの述部語尾が付随しているか否か判定し(S7k)、述部語尾が付随していない場合には、当該ターゲット文の動作に対応する述語の育児語に述部語尾が付随していないことを検出する。述語語尾が付随していない場合には、ポイントを付与(例えば1点を付与)し(S7l)、述語語尾が付随している場合には、ポイントを付与しない(例えば0点とする)。例えば、「ピョンピョン」だけなら更に1点追加し、「ピョンピョンする」「ピョンピョンや」の場合は0点とする。
(受動対象に関する特徴)
ここで、受動対象を指し示す目的語の育児語の存在を検出する方法及びポイント付与について説明する。具体的には、まず、ターゲット文に含まれる語の各々について、ターゲット語リストに含まれる受動対象の育児語成人語リストのうち、当該ターゲット文に付加されている動画の識別番号情報と一致する「No.」の動画に対応する目的語の育児語及び成人語の少なくとも1つと一致するかを判定し、ターゲット文に含まれる語の少なくとも1つについて一致すると判定された場合には、当該ターゲット文に、受動対象を指し示す目的語が有ると判定し(S7o)、以下のS7p〜S7sの処理を行う。一方、ターゲット文に含まれる語の全てについて一致しない場合には、当該ターゲット文に、受動対象を指し示す目的語が無いと判定し、以下のS7p〜S7sの処理を省略する。
なお、ターゲット語リストのうち、当該ターゲット文に付加されている動画の識別情報と一致する「No.」の動画に対応する目的語の育児語及び成人語が空欄となっている場合には、当該ターゲット文に受動対象を指し示す目的語が無いと判定し、以下のS7p〜S7sの処理を省略する。
なお、ターゲット文に含まれる語の複数について一致すると判定された場合、一致した語の各々をターゲット文の目的語と認定する。また、目的語の育児語又は成人語と一致する語が連続して繰り返して出現している場合には、当該連続する範囲を1つの目的語とする。
次に、受動対象を指し示す目的語があると決定されたターゲット文について、当該ターゲット文の目的語の各々が、当該目的語と、ターゲット語リストに含まれる受動対象の育児語成人語リストのうち、当該ターゲット文に付加されている動画の識別番号情報と一致する「No.」の動画に対応する目的語の育児語のうち少なくとも1つと一致するか判定する(S7p)。一致する場合には、当該ターゲット文の目的語の育児語が存在することを検出する。ここで、育児語化している場合はポイントを付与(例えば1点を付与)し(S7q)、育児語化していない場合(つまり成人語が発話されている場合)はポイントを付与しない(例えば0点とする)。接頭辞、接尾辞などの付加による部分的な育児語化については、動作主体の場合と同様とすればよい。
次に、目的語に助詞が付随していないことを検出する方法について説明する。目的語があると判定されたターゲット文について、当該ターゲット文の目的語に助詞が付随しているか判定し(S7r)、助詞が付随していない場合には、ポイントを付与(例えば1点を付与)し(S7s)、助詞が付随している場合には、ポイントを付与しない(例えば0点とする)。本実施形態においては、ヲ格の有無を判定し、ヲ格が有る場合は助詞が付随していると判定し、ヲ格がない場合は助詞が付随していないと判定する。動作主体の場合と同様に、日本語では、発話が育児語化及び口語化する場合に助詞が脱落する場合が多いので、文法的な点からも育児語使用を考慮できる工夫をした方がのぞましい。
<測定値生成部38及び出力部50>
測定値生成部38は、提示した動画の各々について、スコア算出部364から入力された当該動画に対応するターゲット文のポイントに基づいて、当該動画に対する育児語使用傾向スコアを算出する(S8)。具体的には、動画に対応するターゲット文が1文である場合には、スコア算出部364により算出されたポイントを合算して、当該動画に対する育児語使用傾向スコアとする。動画に対応するターゲット文が複数の文である場合には、スコア算出部364により算出された各ターゲット文のポイントを合算したものの平均を、当該動画に対する育児語使用傾向スコアとして算出する。また、測定値生成部38は、提示した動画の各々に対して算出された育児語使用傾向スコアの合計を、測定値として算出する。被測定者について算出された動画の各々に対する育児語使用傾向スコア、及び測定値が、出力部50により出力される。出力部50は、例えば、ディスプレイやタッチパネル、プリンタ等からなる。
実際に実施する場合には、一人の被調査者に対して、1つの動画ではなく、複数の動画を提示する。これは、各個人の育児語使用傾向が、事物や動作のタイプによって大きく左右される傾向にあるので、異なるタイプの動画を使用する方が望ましい。また、上で紹介した得点の重みは、0および1に設定するだけでなく、実際の発話頻度データなどに基づいて任意に設定してもよい。いずれにせよ、こうした得点化方式により、各個人の育児語使用傾向が簡易的に且つ高精度で測定できる。
<効果>
本実施形態で説明した映像のデータ構造を利用すれば、被調査者の発する育児語をコントロールすることができ、客観的育児語使用傾向測定方法の確実な発展に寄与することができる。養育者などの大人の育児語使用傾向を容易に且つ高精度に測定することが可能となる。これにより、例えば、地方自治体や医療機関(産婦人科や小児科)などでの養育者向けの育児教室などで、子どもへの語りかけをレクチャーする場合に、その個人ごとの特徴分析が、物理的及び時間的拘束条件もなく容易に実施可能になる。また言語発達に遅れのある子どもに対して養育者がどのような点を意識して発話すればよいかに関して気づきの情報を与えることも可能になる。さらに、幼稚園教諭や保育士、及びそれらを目指す学生などの人材育成及びスキルアップ指導場面においても、発話の質に関する定量的評価は有用であり、本発明を利用することができる。母子間コミュニケーションを実証的に研究している発達心理学の分野では、参考文献1にあるように、養育者のコミュニケーションの質が幼児の語彙発達に影響を及ぼすことを実証しており、この点を考慮すると、本発明による養育者発話傾向の測定技術は、育児支援及び発達支援という点で重要な意義を持つ。また本発明で注目している育児語使用傾向については子どもの成長に応じて変化していくものであり、成長に応じた育児語使用及びバランスが重要となる。その際に、その時点での発話の仕方が養育者ごとに客観的に分析できる。
(参考文献1) Carpenter, M., Nagel, K., & Tomasello, M.(1998). Social cognition, joint attention, and communicative competence from 9 to 15 months of age. Monograph of the Society for Research in Child Development, 63 (4, No.255).
<変形例>
本実施形態では、映像のタイプを5つのタイプに分類しているが、上述のタイプ分けとは異なる基準で映像のタイプを分けてもよい。例えば、以下の3つのタイプに分けてもよい。
(I)動作主体と、動作とを含むもの
この場合、動作主体は、(1)動作(自動詞)タイプ、(3)質感タイプ、(4)感情タイプ、若しくは(5)感覚タイプで説明した動作主体と同様の特徴を持つ。例えば、図2の豚や図5のうさぎ等である。
(II)動作主体と、受動対象と、動作とを含むもの
この場合、動作主体は、(1)動作(自動詞)タイプ、(3)質感タイプ、(4)感情タイプ、または、(5)感覚タイプで説明した動作主体と同様の特徴を持つ。また、受動対象は、(2)動作(他動詞)タイプ、(3)質感タイプ、または、(5)感覚タイプで説明した受動対象と同様の特徴を持つ。例えば、図3の男の子(動作主体)とライオン(受動対象)等である。
(III)オノマトペで表される形容詞や形容動詞を含むもの。
この場合、動作主体または受動対象は、(3)質感タイプで説明した受動対象、または、(5)感覚タイプで説明した動作主体または受動対象と同様の特徴を持つ。例えば、図4の栗(受動対象)や図6の納豆(受動対象)等である。
なお、育児語の有無だけを考慮し、文法的な点からの育児語使用を考慮しない場合には、主語付随助詞、目的語付随助詞、述語語尾の有無を調べる必要はなく、図10のS7d,S7e,S7k,S7l,S7r,S7sを省略してもよい。その場合、ターゲット語リストには、映像データの識別情報と、動作主体を育児語で表したものと、動作主体の動作を育児語で表したものと、受動対象を育児語で表したものの組合せを含めばよい。つまり、動作主体、動作主体の動作及び受動対象を成人語で表したものは必要に応じてリストに追加すればよく、必ずしも必須の項目ではない。また、受動対象を育児語で表したものを含まない映像だけを用意する場合には、受動対象を育児語及び成人語で表したものを必ずしもリストの項目として挙げなくともよい。
本実施形態では、ある映像データに対応するターゲット語リスト(図9に示す1行分のデータに相当)を用いて、その映像データに対応する発話文に対する育児語使用傾向を数値化し、推定している。しかし、ターゲット語リストは必ずしもある映像にデータに対応するように構成しなくともよい。例えば、ターゲット語リストとして、想定される全ての育児語の集合を用意し、ある映像データに対応する発話文に、その育児語の集合に含まれる育児語がどの程度含まれるかに基づき、育児語使用傾向を数値化し、推定してもよい。この場合、映像データと成人語及び育児語とを対応付ける必要がないため、動作主体を示す主語の育児語及び成人語と、述語の育児語及び成人語と、動作の対象である受動対象を示す目的語の育児語及び成人語とを、それぞれ対応付けずにターゲット語リストとして用いればよい。また、動作主体と受動対象とを区別せずに名詞とし、名詞の成人語及び育児語をターゲット語リストとして用いてもよい。
本発明は上記の実施形態及び変形例に限定されるものではない。例えば、上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
<プログラム及び記録媒体>
また、上記の実施形態及び変形例で説明した各装置における各種の処理機能をコンピュータによって実現してもよい。その場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶部に格納する。そして、処理の実行時、このコンピュータは、自己の記憶部に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実施形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよい。さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、プログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
また、コンピュータ上で所定のプログラムを実行させることにより、各装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。

Claims (9)

  1. 被調査者の育児語の使用傾向を測定するために、映像を提示する映像提示装置により提示される映像のデータ構造であって、
    少なくとも1個かつ1種類の動作主体と、前記動作主体の少なくとも1個かつ1種類の動作とを前記映像提示装置を介して提示するための1つ以上の映像データと、
    映像データの識別情報と、前記識別情報が示す映像データに含まれる動作主体を育児語で表したものと、前記識別情報が示す映像データに含まれる動作主体の動作を育児語で表したものとの組合せを含むターゲット語リストとを含む、
    データ構造。
  2. 被調査者の育児語の使用傾向を測定するために、映像を提示する映像提示装置により提示される映像のデータ構造であって、
    少なくとも1個かつ1種類の動作主体と、前記動作主体の少なくとも1個かつ1種類の動作とを前記映像提示装置を介して提示するための映像データを含み、
    前記動作主体の動作は自動詞であり、
    前記動作主体及び前記動作主体の動作は育児語で表されるものである、
    データ構造。
  3. 被調査者の育児語の使用傾向を測定するために、映像を提示する映像提示装置により提示される映像のデータ構造であって、
    少なくとも1個かつ1種類の動作主体と、前記動作主体の少なくとも1個かつ1種類の動作とを前記映像提示装置を介して提示するための映像データを含み、
    前記動作主体の動作は他動詞であり、
    前記映像データは、前記動作主体の動作の対象となる少なくとも1個かつ1種類の受動対象を前記映像提示装置を介して提示するためのものであり、
    前記動作主体、前記動作主体の動作及び受動対象は育児語で表されるものである、
    データ構造。
  4. 被調査者の育児語の使用傾向を測定するために、映像を提示する映像提示装置により提示される映像のデータ構造であって、
    少なくとも1個かつ1種類の受動対象と、前記受動対象に対する少なくとも1個かつ1種類の動作とを前記映像提示装置を介して提示するための映像データを含み、
    前記受動対象の質感は育児語で表されるものであり、前記受動対象に対する動作は前記受動対象の質感を際立たせるものである、
    データ構造。
  5. 被調査者の育児語の使用傾向を測定するために、映像を提示する映像提示装置により提示される映像のデータ構造であって、
    少なくとも1個かつ1種類の動作主体と、前記動作主体の少なくとも1個かつ1種類の動作とを前記映像提示装置を介して提示するための映像データを含み、
    前記動作主体の表情は育児語で表されるものであり、前記動作主体の動作は育児語で表されるものであって感情表現である、
    データ構造。
  6. 請求項1から請求項3及び請求項5の何れかのデータ構造であって、
    前記動作主体の動作は、育児語で表される1種類の動作のみである、
    データ構造。
  7. 少なくとも1個かつ1種類の動作主体と、前記動作主体の少なくとも1個かつ1種類の動作とを提示するための1つ以上の映像データを記憶した動画データセット記憶部と、
    映像データの識別情報と、前記識別情報が示す映像データに含まれる動作主体を育児語で表したものと、前記識別情報が示す映像データに含まれる動作主体の動作を育児語で表したものとの組合せを含むターゲット語リストを記憶したターゲット語リスト記憶部と、
    前記動画データセット記憶部に記憶された映像データに対応して発せられる被調査者の発話から得られる発話文と、その映像データに対応するターゲット語リストとから、前記発話文に含まれる育児語に特有の特徴に基づいて育児語の使用傾向を求める育児語発話解析部と、を含む、
    育児語使用傾向測定装置。
  8. 請求項1のデータ構造であって、
    前記ターゲット語リストは、前記映像データの識別情報と、前記動作主体を育児語で表したものと、前記動作主体を成人語で表したものと、前記動作主体の動作を育児語で表したものと、前記動作主体の動作を成人語で表したものとの組合せを含む、
    データ構造。
  9. 請求項7の育児語使用傾向測定装置であって、
    前記ターゲット語リストは、前記映像データの識別情報と、前記動作主体を育児語で表したものと、前記動作主体を成人語で表したものと、前記動作主体の動作を育児語で表したものと、前記動作主体の動作を成人語で表したものとの組合せを含む、
    育児語使用傾向測定装置。
JP2014254970A 2014-12-17 2014-12-17 データ構造及び育児語使用傾向測定装置 Active JP6124306B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014254970A JP6124306B2 (ja) 2014-12-17 2014-12-17 データ構造及び育児語使用傾向測定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014254970A JP6124306B2 (ja) 2014-12-17 2014-12-17 データ構造及び育児語使用傾向測定装置

Publications (2)

Publication Number Publication Date
JP2016114882A true JP2016114882A (ja) 2016-06-23
JP6124306B2 JP6124306B2 (ja) 2017-05-10

Family

ID=56141749

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014254970A Active JP6124306B2 (ja) 2014-12-17 2014-12-17 データ構造及び育児語使用傾向測定装置

Country Status (1)

Country Link
JP (1) JP6124306B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1113417A2 (en) * 1999-12-28 2001-07-04 Sony Corporation Apparatus, method and recording medium for speech synthesis
JP2009208727A (ja) * 2008-03-06 2009-09-17 Denso Corp 自動車用ユーザーもてなしシステム
JP2015129849A (ja) * 2014-01-07 2015-07-16 日本電信電話株式会社 育児語使用傾向測定装置、方法、及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1113417A2 (en) * 1999-12-28 2001-07-04 Sony Corporation Apparatus, method and recording medium for speech synthesis
JP2009208727A (ja) * 2008-03-06 2009-09-17 Denso Corp 自動車用ユーザーもてなしシステム
JP2015129849A (ja) * 2014-01-07 2015-07-16 日本電信電話株式会社 育児語使用傾向測定装置、方法、及びプログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
内田 ゆず YUZU UCHIDA: "画像に対する発話からの名詞概念獲得システムにおける音素認識の導入について", 言語処理学会第13回年次大会発表論文集 PROCEEDINGS OF THE THIRTEENTH ANNUAL MEETING OF THE ASSOCIAT, JPN6016008028, 19 March 2007 (2007-03-19), JP, pages 994 - 997, ISSN: 0003267788 *
南 泰浩 YASUHIRO MINAMI: "幼児の発達に応じた語彙検索システム Developmentally-Appropriate Vocabulary Search System", 電子情報通信学会論文誌 (J96−D) 第10号 THE IEICE TRANSACTIONS ON INFORMATION AND SYSTEMS, vol. 第J96-D巻, JPN6016008035, 1 October 2013 (2013-10-01), JP, ISSN: 0003525090 *
橋本 智也: "子どもに対する大人の助詞「ハ」の使用:言語獲得研究用コーパスCHILDESを用いた検討", 言語処理学会第13回年次大会発表論文集 PROCEEDINGS OF THE THIRTEENTH ANNUAL MEETING OF THE ASSOCIAT, JPN6016008031, 19 March 2007 (2007-03-19), JP, pages 732 - 735, ISSN: 0003267789 *

Also Published As

Publication number Publication date
JP6124306B2 (ja) 2017-05-10

Similar Documents

Publication Publication Date Title
Nielsen et al. Iconicity in word learning and beyond: A critical review
Simonsen et al. The Norwegian Communicative Development Inventories: Reliability, main developmental trends and gender differences
Tamis-LeMonda et al. Parent–child conversations during play
Cochet et al. Communication in the second and third year of life: Relationships between nonverbal social skills and language
Brysbaert Age of acquisition ratings score better on criterion validity than frequency trajectory or ratings “corrected” for frequency
Olson et al. Mothers respond differently to infants’ gestural versus nongestural communicative bids
Garcia-Garcia et al. Multimodal affective computing to enhance the user experience of educational software applications
Towell et al. Reading to babies: Exploring the beginnings of literacy
Chojnicka et al. Social language in autism spectrum disorder: A computational analysis of sentiment and linguistic abstraction
Nagpal et al. Predicting individual differences in L2 speakers’ gestures
Arunachalam et al. Let’s see a boy and a balloon: Argument labels and syntactic frame in verb learning
Cartmill Mind the gap: Assessing and addressing the word gap in early education
Novogrodsky et al. Age, frequency, and iconicity in early sign language acquisition: Evidence from the Israeli Sign Language MacArthur–Bates Communicative Developmental Inventory
Bonoti et al. Social emotions in children's human figure drawings: Drawing shame, pride and jealousy
Streri et al. The foundations of social cognition: Studies on face/voice integration in newborn infants
Asli-Badarneh et al. Morphological ability among monolingual and bilingual speakers in early childhood: The case of two Semitic languages
He Transitivity of kinetic typography: Theory and application to a case study of a public service advertisement
Lin Gestures as scaffolding for L2 narrative recall: The role of gesture type, task complexity, and working memory
Veena et al. Development of communicative gestures in normally developing children between 8 and 18 months: An exploratory study
Hodges et al. The monosyllable imitation test for toddlers: influence of stimulus characteristics on imitation, compliance and diagnostic accuracy
Isabella et al. Emotional contagion and socialization: Reflection on virtual interaction
Soukup Nonverbal Communication.
Reese et al. Estimating language skills in Samoan-and Tongan-speaking children growing up in New Zealand
CN112005286A (zh) 一种教学测试项目匹配方法、装置和设备
JP6124306B2 (ja) データ構造及び育児語使用傾向測定装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170329

R150 Certificate of patent or registration of utility model

Ref document number: 6124306

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350