JP2001246174A - 音声駆動型複数身体引き込みシステム - Google Patents

音声駆動型複数身体引き込みシステム

Info

Publication number
JP2001246174A
JP2001246174A JP2000063555A JP2000063555A JP2001246174A JP 2001246174 A JP2001246174 A JP 2001246174A JP 2000063555 A JP2000063555 A JP 2000063555A JP 2000063555 A JP2000063555 A JP 2000063555A JP 2001246174 A JP2001246174 A JP 2001246174A
Authority
JP
Japan
Prior art keywords
voice
nod
gesture
pseudo
behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000063555A
Other languages
English (en)
Inventor
Tomio Watanabe
富夫 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Okayama Prefectural Government
Original Assignee
Okayama Prefectural Government
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Okayama Prefectural Government filed Critical Okayama Prefectural Government
Priority to JP2000063555A priority Critical patent/JP2001246174A/ja
Publication of JP2001246174A publication Critical patent/JP2001246174A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Abstract

(57)【要約】 【課題】 会話を楽しみ、感情移入を図ることができる
システムを提供する。 【解決手段】 音声入力部12、動作制御部15及び複数の
疑似聞き手A〜Eから構成し、音声入力部12は外部から
の音声の入力を担い、動作制御部15は入力された音声か
ら各疑似聞き手A〜Eの挙動を決定し、この各疑似聞き
手A〜Eは前記挙動に従って頭の頷き動作、口の開閉動
作、目の瞬き動作又は身体の身振り動作する音声駆動型
複数身体引き込みシステムである。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、会話を楽しむ音声
駆動型複数身体引き込みシステムに関する。
【0002】
【従来の技術】近年、音声に反応して手足や頭を動かす
玩具が流行りつつある。これらは、ぬいぐるみ等のロボ
ットや、モニタ上に表示される動画をあたかも独立した
人格をもって話を聞く疑似聞き手として扱い、この疑似
聞き手を音声に従った特定のパターン動作又はパターン
動作を組み合わせて動作させるもので、音声の意味を介
して動作パターンをその都度生成しているわけではな
い。しかし、動物等のペットを飼うことができない都会
のマンション、アパートで一人暮らしをする若者、特に
女性に好感を得て、現在多くのこうした玩具が販売され
ている。
【0003】
【発明が解決しようとする課題】音声に反応する玩具
は、とりわけ一人暮らしする若者にとって精神安定要素
として大事な存在であり、疑似聞き手の反応が重要であ
る。ところが、従来のこうした玩具は、音声を単なる入
力として振幅の大小に比例した動作をくり返すだけであ
るから、あまり感情移入しにくい問題があった。また、
会話の性質として、話を理解してやりとりする場合を除
き、いわゆる一方話しとなるような会話においては、聞
き手が単数であるとかえって寂しさが増してしまうこと
があった。そこで、会話を楽しむ玩具に対して感情移入
でき、気分よく話し掛けやすくする手段について検討し
た。
【0004】
【課題を解決するための手段】検討の結果開発したもの
が、音声入力部、動作制御部及び複数の疑似聞き手から
構成し、音声入力部は外部からの音声の入力を担い、動
作制御部は入力された音声から各疑似聞き手の挙動を決
定し、この各疑似聞き手は前記挙動に従って頭の頷き動
作、口の開閉動作、目の瞬き動作又は身体の身振り動作
する音声駆動型複数身体引き込みシステムである。この
音声駆動型複数身体引き込みシステムにおいて重要とな
るのが、会話を楽しめるように、話し手となる人間の音
声に対応する疑似聞き手の挙動であり、複数の疑似聞き
手が個々に適切な挙動を示すほかに、疑似聞き手相互の
挙動が全体として話し手である人間を会話に引き込む効
果を生み出す。疑似聞き手の数は、3〜5体が好まし
い。音声入力部又は動作制御部は、複数の疑似聞き手別
にそれぞれ同数設けてもよいし、一つの音声入力部又は
動作制御部に複数の疑似聞き手を繋ぎ、内部的に複数の
処理をするようにしてもよい。
【0005】動作制御部が決定する疑似聞き手の挙動
は、頭の頷き動作、口の開閉動作、目の瞬き動作又は身
体の身振り動作の選択的な組み合わせからなり、頷き動
作は音声のON/OFFから推定される頷き予測値が頷き閾値
を越えた頷き動作タイミングで実行し、瞬き動作は前記
頷き動作タイミングを起点として経時的に指数分布させ
た瞬き動作タイミングで実行し、口の開閉動作及び身体
の身振り動作は音声の変化に従うアルゴリズムにより決
定する。更に、身体の身振り動作は音声のON/OFFから推
定される頷き予測値が身振り閾値を越えた身振り動作タ
イミングで実行するアルゴリズムがより好ましい。この
アルゴリズムに基づく各疑似聞き手の挙動は会話のリズ
ムを作り出すもので、会話の中に身体的引き込み現象
(単に引き込み現象とも呼ぶ)を発現させる。この各疑似
聞き手が発現する引き込み現象は、個々に会話を誘引す
る作用を有し、更に各疑似聞き手相互の挙動があたかも
関連づいたような外観を呈することで、全体として話し
やすい雰囲気を創出する。こうして、人間である話し手
に疑似聞き手への感情移入をもたらして、本発明の音声
駆動型複数身体引き込みシステムは、会話を楽しませる
効果を発揮する。
【0006】動作制御部が決定する挙動の組み合わせ
は、自由である。例えば、身体の身振り動作は、頷き動
作タイミングを得るアルゴリズムにおいて、頷き閾値よ
り低い値の身振り閾値を用いて身振り動作タイミングを
得る。また、身振り動作は音声の変化に従って可動部位
を駆動したり、音声に応じて身体の可動部位を選択する
又は予め定めた動作パターン(可動部位の組み合わせ及
び各部の動作量)を選択するとよい。身振り動作におけ
る可動部位又は動作パターンの選択は、頷き動作と身振
り動作との連繋を自然なものにする。このように、本発
明では、口の開閉動作や音声の振幅に基づく身体各部の
動作を除き、頷き動作タイミングを中心に疑似聞き手の
挙動を決定する。
【0007】本発明において重要な頷き動作タイミング
は、音声等と頷き動作とを線形又は非線形に結合する予
測モデル(例えばMAモデル(Moving Average Model)やニ
ューラルネットワークモデル)から得られる頷き予測値
を、予め定めた頷き閾値と比較するアルゴリズムにより
決定する。本発明の場合は、音声と頷き動作とを関連づ
けた予測モデルを用いる。このアルゴリズムは、音声を
経時的な電気信号のON/OFFとして捉え、この経時的な電
気信号のON/OFFから得た頷き予測値を頷き閾値や身振り
閾値と比較することによって、頷き動作タイミングや身
振り動作タイミングを導き出す。単なる電気信号のON/O
FFを基礎とするので計算量が少なく、リアルタイムな挙
動の決定に比較的安価で低処理能力のパソコンを用いて
も即応性を失わない。このように、本発明は音声を電気
信号とみなしたON/OFFから、引き込み現象を誘発する点
に特徴がある。更に、前記ON/OFFに加えて、経時的な電
気信号の変化を示す韻律や抑揚をも併せて考慮してもよ
い。
【0008】本発明の基本的構成では、音声を直接音声
入力部に入力するが、音声入力部の前段にデータ入力部
及びデータ変換部を付設し、データ入力部は外部から音
声以外のデータの入力を担い、データ変換部は音声以外
のデータと音声との相互変換を図り、音声入力部との音
声の受け渡しをすることもできる。データ入力部は、入
力が音声以外で音声を合成できるデータを入力する。動
作制御部は音声からロボットの挙動を決定するが、音声
に準じた信号(準音声)に変換できれば、必ずしも意味が
判別できるデータでなくてもよい。データ変換部は、こ
うしたデータと音声又は準音声との相互変換を担う。デ
ータから合成された音声又は準音声は、音声入力部を通
して動作制御部へ送る。データ入力部としては、既存の
各種記録媒体(CD-ROM,CD-R,CD-RW,DVD-ROM,MO,FD,HD,磁
気テープ等)を利用できる。
【0009】本発明に用いる疑似聞き手はロボットを第
一とするが、このほかにモニタ上に表示される動画でも
よい。例えば、独立した音声駆動型複数身体引き込みシ
ステムとして、音声入力部と複数のロボットとの組み合
わせ(ハード的構成)を示すことができる。また、データ
入力部及びデータ変換部とモニタに表示される動画との
組み合わせ(ソフトウェア的構成)は、パソコン等を利用
した製品となる。
【0010】ロボットによる疑似聞き手は、基本的には
人間を模した形態が好ましいが、擬人化した動植物やそ
の他無機物や想像上の生物や物であってもよい。後述す
るように、本発明は、音声のON/OFFに従い、人間の話し
手に対して会話のリズムを共有する挙動を作り出すの
で、こうした挙動をする限り、疑似聞き手は本来無機物
の乗り物や建物、その他想像上の生物や物でも構わない
わけである。動作制御部は、コンピュータ又は専用処理
チップ等により構成し、ロボットの駆動回路を接続し
て、ロボットを制御、駆動する。コンピュータを用いた
場合、動作制御部のみならず、音声入力部、データ入力
部やデータ変換部をハード的又はソフト的に構築しやす
く、制御仕様の変更も容易である。
【0011】モニタに表示する疑似聞き手であっても、
本発明の基本的な作用、効果に変わりはない。モニタに
表示できる疑似聞き手としては、実写画像を利用して応
答する合成画像、改めて画像を形成するCG(Computer Gr
aphics)、アニメーションが利用できる。動作制御部に
コンピュータを用いた場合、合成画像、CG又はアニメー
ションはコンピュータが合成し、前記各動画をコンピュ
ータのモニタに映し出す。本発明では複数の疑似聞き手
を表示させる必要があるが、この場合、単一のモニタ上
に複数の疑似聞き手を同時に表示してもよいし、必要に
より複数のモニタ上に単数又は複数の疑似聞き手を表示
してもよい。
【0012】
【発明の実施の形態】以下、本発明の実施形態につい
て、図を参照しながら説明する。図1は熊のぬいぐるみ
を模したロボットA〜Eを台座1上に並べた本発明の音
声駆動型複数身体引き込みシステムの斜視図、図2は同
システムのハードウェアの構成図、図3は同システムの
ソフトウェアの制御フローシートである。本例は、疑似
聞き手として、擬人化した熊のぬいぐるみであるロボッ
トA〜Eを並べたシステムの例であるが、ロボットに代
えてパソコンのモニタ上に表示する動画からなるアニメ
ーションを用いても、本発明の作用、効果は変わらな
い。
【0013】図1の例は、頷き動作として頭2を前後に
振る頭駆動手段3、瞬き動作として瞼4を開閉する目駆
動手段5、呼吸や表情を作る補助として口6を開閉する
口の口駆動手段7と、身振り動作として首8、腕9又は
腰10等の可動部位を選択的に組み合わせて振ったり、回
したりする身体駆動手段11を内蔵した熊のぬいぐるみか
らなるロボットA〜Eを台座1上に並べた音声駆動型複
数身体引き込みシステムである。台座1には、正面に音
声入力部12となるマイク13、電源スイッチ14が設けてあ
り、台座1内に動作制御部15(図2参照)やバッテリ(図
示せず)を内蔵している。バッテリに代えて、外部電源
を用いてもよい。必要により、データ変換部及びデータ
入力部となるパソコン(図示せず)を動作制御部に繋い
で、音声に代えてデータによる各ロボットの作動を図っ
てもよい。
【0014】話し手となる人間(図示せず)は、電源スイ
ッチ14を押して、ロボットA〜Eを作動状態にする。こ
の作動状態において、ロボットA〜Eに向かって人間が
話すと、その音声はマイク13に集音され、電気信号とし
て動作制御部15へと送られる。図2に見られるように、
動作制御部15では、音声のON/OFFに従って頷き予測値N
0(Nod 0)を算出し、その頷き予測値N0から各ロボット
A〜Eそれぞれに定めたアルゴリズムに従って挙動を決
定し、各ロボットA〜Eを個別に作動させる。各ロボッ
トA〜Eは、図3に示すような同様の制御フローに従っ
て、頭駆動手段3、目駆動手段5及び身体駆動手段11そ
れぞれを作動させる。頭駆動手段3、目駆動手段5及び
身体駆動手段11には、モータ、ソレノイド、シリンダ、
形状記憶合金又は電磁石や、クランク運動又はギア運動
機構を用いることができ、これらを組み合わせて構成し
てもよい。
【0015】制御フローの各動作タイミングの決定にお
いて重要なのが、頷き動作タイミングである。口の開閉
動作を除き、頷き動作、瞬き動作や身振り動作は、頷き
動作タイミングを基礎とするか(瞬き動作)、同様のアル
ゴリズムを利用している(身振り動作)。図3に基づき、
ロボットAの場合を説明する。まず、マイク13で集音し
た音声から、各ロボットA〜Eに共通な動作制御部15の
共通部16において、頷き動作タイミングを推定する(頷
き推定)。本例では、音声と頷き動作とを線形結合する
予測モデルにMAモデルを用い、経時的に変化する音声か
ら、刻々と変化する頷き予測値N0をリアルタイムに計
算している。本例では、この頷き予測値N0を各ロボッ
トA〜E共通にしているが、各ロボット毎に予測モデル
を変えて、個別の頷き予測値を求めてもよい。
【0016】次に、各ロボット毎の制御フローに入る。
まず、頷き予測値N0と予めロボットAに対して設定し
た頷き閾値Naとを比較し、頷き予測値N0が頷き閾値N
aを越えた場合をロボットAの頷き動作タイミングと
し、この頷き動作タイミングに頭駆動手段を作動させ
て、頷き動作を実行する。動作量は一定でも、音声の強
弱に従わせてもよい。瞬き動作タイミングは、最初に求
めた頷き動作タイミングを起点とし、経時的な指数分布
に従って以後の瞬き動作タイミングを決定する。こうし
た頷き動作に関係を有する瞬き動作は、会話における自
然な聞き手の反応らしくみえるので、話し掛ける人間に
話しやすい雰囲気を作り出す(引き込み現象の発現)。口
の開閉動作は、上述した通り適宜実施すればよい。
【0017】身振り動作は、基本的には頷き推定と同じ
アルゴリズムを用いるが、頷き閾値Naよりも低い身振
り閾値Ga(Gesture a)を用いることで、頷き動作より頻
繁な動作となるようにしている。本例では、身振り動作
を担う可動部位(例えば首8、腕9、腰10等)を組み合わ
せた動作パターンを予め複数作っておき、これら複数の
動作パターンの中から身振り動作タイミング毎に動作パ
ターンを選択し、入力した音声の大小に従った動作量で
実行している。特に、音声の大小に従って腕を振ると、
身振り動作の強弱が明確に表現できて好ましい。このよ
うな動作パターンの選択は、機械的な繰り返しでない自
然な身振り動作を実現する。このほか、可動部位を選択
して個別又は連係して作動させたり、音声信号を言語解
析して言葉の意味付けによる身振り動作の制御も考えら
れる。
【0018】本発明の特殊な応用例として、音楽CDを再
生して得られる信号に基づいてロボットA〜Eを動かす
音声駆動型複数身体引き込みシステムがある(制御フロ
ーは図3参照)。音楽に合わせた動きを作ればよいの
で、図1以下の例と異なり、動作制御部は動作可能な部
分を全部作動させるようにするとよい。従来から、音楽
CDに合わせて体を動かす人形やおもちゃは多くあるが、
本発明を応用すれば、各ロボット毎、そしてロボット相
互の関係による引き込み現象が、視覚的に人間を音楽へ
と引き込んで、音楽鑑賞やゲームをより楽しむことがで
きるようにする。この場合、ロボットの動きそのものを
視覚的に楽しむこともできる。同様に、電話やテレビの
音声をライン入力して、ロボットの動きを楽しむことも
考えられる。このように、本発明は応用分野が多岐にわ
たるのである。
【0019】
【発明の効果】本発明は、音声を利用し、より感情移入
しやすい音声駆動型複数身体引き込みシステムを提供す
る。具体的に言えば、人間が話し手となる場合、複数の
疑似聞き手が個々に話し手である人間との会話のリズム
の共有を図ることで、引き込み現象を発現させ、全体と
して会話をしやすい雰囲気を創出する。こうして、会話
が少なくなりがちな一人暮らしの人間に、精神的な安定
を与えることができる効果を発揮する。
【0020】このように、本発明は、人間である話し手
に対して主たる効果を発揮するが、このほかにも、次の
ように、場の雰囲気を盛り上げる効果も有する。すなわ
ち、人間である聞き手が本発明のシステムと同列し、同
じく人間である話し手の話を聞く場合、話し手の話に応
答してシステムが駆動すると、システムが場の雰囲気を
盛り上げ、同じく聞き手である人間が前記場に引込まれ
る効果である。話し手と聞き手との理解力を深めたり、
聞き手の反応を敏感にして、例えば講演やコンサートの
雰囲気をよりよくする効果を発揮するのである。
【図面の簡単な説明】
【図1】本発明の音声駆動型複数身体引き込みシステム
の斜視図である。
【図2】同システムのハードウェアの構成図である。
【図3】同システムのソフトウェアの制御フローシート
である。
【符号の説明】
1 台座 2 頭 3 頭駆動手段 4 瞼 5 目駆動手段 6 口 7 口駆動手段 8 首 9 腕 10 腰 11 身体駆動手段 12 音声入力部 13 マイク 14 電源スイッチ 15 動作制御部 16 共通部 A,B,C,D,E 熊のぬいぐるみのロボット
フロントページの続き Fターム(参考) 2C150 BA11 CA01 CA02 DA04 DA05 DA24 DA26 DA27 DA28 DF02 DF04 DF06 DF31 ED42 ED52 EF16 EF23 EF29 3F060 AA00 BA06 GA05 GA12 GA13 GA14 GA18 GB06 GB08 GB11 GB21 HA02 5D015 DD01 KK01 9A001 BB02 BB03 GG05 HH15 HH34 JJ76 KK62

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】 音声入力部、動作制御部及び複数の疑似
    聞き手から構成し、音声入力部は外部からの音声の入力
    を担い、動作制御部は入力された音声から各疑似聞き手
    の挙動を決定し、該各疑似聞き手は前記挙動に従って頭
    の頷き動作、口の開閉動作、目の瞬き動作又は身体の身
    振り動作することを特徴とする音声駆動型複数身体引き
    込みシステム。
  2. 【請求項2】 動作制御部が決定する疑似聞き手の挙動
    は、頭の頷き動作、口の開閉動作、目の瞬き動作又は身
    体の身振り動作の選択的な組み合わせからなり、頷き動
    作は音声のON/OFFから推定される頷き予測値が頷き閾値
    を越えた頷き動作タイミングで実行し、瞬き動作は前記
    頷き動作タイミングを起点として経時的に指数分布させ
    た瞬き動作タイミングで実行し、口の開閉動作及び身体
    の身振り動作は音声の変化に従うようにした請求項1記
    載の音声駆動型複数身体引き込みシステム。
  3. 【請求項3】 身体の身振り動作は音声のON/OFFから推
    定される頷き予測値が身振り閾値を越えた身振り動作タ
    イミングで実行する請求項2記載の音声駆動型複数身体
    引き込みシステム。
JP2000063555A 2000-03-08 2000-03-08 音声駆動型複数身体引き込みシステム Pending JP2001246174A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000063555A JP2001246174A (ja) 2000-03-08 2000-03-08 音声駆動型複数身体引き込みシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000063555A JP2001246174A (ja) 2000-03-08 2000-03-08 音声駆動型複数身体引き込みシステム

Publications (1)

Publication Number Publication Date
JP2001246174A true JP2001246174A (ja) 2001-09-11

Family

ID=18583402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000063555A Pending JP2001246174A (ja) 2000-03-08 2000-03-08 音声駆動型複数身体引き込みシステム

Country Status (1)

Country Link
JP (1) JP2001246174A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006289508A (ja) * 2005-04-05 2006-10-26 Sony Corp ロボット装置及びその表情制御方法
US7689322B2 (en) 2004-06-07 2010-03-30 Sony Corporation Robot apparatus and method of controlling the motion thereof
CN105960674A (zh) * 2014-02-18 2016-09-21 夏普株式会社 信息处理装置
US10456921B2 (en) 2016-12-27 2019-10-29 Fanuc Corporation Industrial-robot control device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7689322B2 (en) 2004-06-07 2010-03-30 Sony Corporation Robot apparatus and method of controlling the motion thereof
JP2006289508A (ja) * 2005-04-05 2006-10-26 Sony Corp ロボット装置及びその表情制御方法
CN105960674A (zh) * 2014-02-18 2016-09-21 夏普株式会社 信息处理装置
US10456921B2 (en) 2016-12-27 2019-10-29 Fanuc Corporation Industrial-robot control device

Similar Documents

Publication Publication Date Title
JP3212578B2 (ja) 身体的音声反応玩具
US8121653B2 (en) Methods and apparatus for autonomously managing communications using an intelligent intermediary
US8135128B2 (en) Animatronic creatures that act as intermediaries between human users and a telephone system
Dautenhahn et al. KASPAR–a minimally expressive humanoid robot for human–robot interaction research
Breazeal Designing sociable robots
Robins et al. Human-centred design methods: Developing scenarios for robot assisted play informed by user panels and field trials
US20140206254A1 (en) Interactive device with sound-based action synchronization
JP3273550B2 (ja) 自動応答玩具
Sundström Exploring the affective loop
Boer et al. Reconfiguring the appearance and expression of social robots by acknowledging their otherness
WO2011136863A1 (en) Interactive device with sound-based action synchronization
Robins et al. Sustaining interaction dynamics and engagement in dyadic child-robot interaction kinesics: Lessons learnt from an exploratory study
JP2003285285A (ja) ソフトウェアエージェントを有するロボット装置及びその制御方法とプログラム
JP4513143B2 (ja) 映像表示システム
JP2001246174A (ja) 音声駆動型複数身体引き込みシステム
CN108261775A (zh) 一种玩具及一种玩具交互系统
JP2003108502A (ja) 身体性メディア通信システム
TWI412393B (zh) 機器人
RU65394U1 (ru) Анимационная кукла-робот
JP4250635B2 (ja) 仮想ペット装置及びその制御プログラム記録媒体
Aylett Games robots play: once more, with feeling
DeNora Two or more forms of music
Kose-Bagci et al. Drum-mate: A human-humanoid drumming experience
Marti Autonomous interactive intermediaries: social intelligence for mobile communication agents
Xue et al. Multi-sensory experience design analysis on elderly toy products