JP3733075B2 - インタラクション・メディアシステム - Google Patents

インタラクション・メディアシステム Download PDF

Info

Publication number
JP3733075B2
JP3733075B2 JP2002030809A JP2002030809A JP3733075B2 JP 3733075 B2 JP3733075 B2 JP 3733075B2 JP 2002030809 A JP2002030809 A JP 2002030809A JP 2002030809 A JP2002030809 A JP 2002030809A JP 3733075 B2 JP3733075 B2 JP 3733075B2
Authority
JP
Japan
Prior art keywords
information
media
user
experience
collaborative
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002030809A
Other languages
English (en)
Other versions
JP2003233798A (ja
Inventor
紀博 萩田
健二 間瀬
眞 蓼沼
信二 鉄谷
恭弘 片桐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2002030809A priority Critical patent/JP3733075B2/ja
Priority to US10/360,384 priority patent/US20030170602A1/en
Publication of JP2003233798A publication Critical patent/JP2003233798A/ja
Application granted granted Critical
Publication of JP3733075B2 publication Critical patent/JP3733075B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、自律的に且つ協調的に人間とインタラクションを行うためのインタラクション・メディアシステムに関するものである。
【0002】
【従来の技術】
近年、電子メールやインターネットが普及し、大量の情報が地球規模で入手、共有及び発信できるようになっており、政治、経済及び文化等のグローバル化が加速されている。また、超高速ネットワークによる情報基盤の整備の進展に伴い、いつでも、どこでも、だれもが必要な情報をやりとりできるユビキタスな情報流通時代が目前に迫っている。
【0003】
一方、メディア利用形態の変遷をコミュニケーションの拡がりという観点からみると、テキスト、音及び映像を通じて専門家から大衆へ発信するマス・メディアの時代が始まり、携帯電話や電子メール等のように個人が相互に発信するパーソナル・メディアの時代へ発展し、1990年代にはグループウエア及びウエブ(Web)等によって個人がコミュニティへ発信するコミュニティ・メディアの時代に移行している。また、メディアの次元という観点からみても、コンピュータで扱えるメディアがテキストから音や映像へと発展し、最近では、バーチャル・リアリティ(VR)、テレ・イグジスタンス等に代表される「場」という空間も含めたものに発展してきている。
【0004】
【発明が解決しようとする課題】
しかしながら、現在のウエブはハイパーテキストをベースにしたドキュメントの集まりであり、情報を発信する発信者が文字や写真で表現したドキュメント形式の知識情報だけをインターネットを介して受信者に一方的に伝達しただけでは、発信者の体験、感動及び意図を受信者に十分に伝達することができない。
【0005】
また、ユビキタスな情報流通を実現するためには、情報のグローバル化だけでなく、異文化及び異分野の多様性を認め合う視点が必要となるが、異文化及び異分野を越えたコミュニケーションを実現するには、インターネットで現在利用可能なメディアでは不十分である。
【0006】
さらに、体験等を発信者と受信者との間で共有するためには、発信者と受信者とが使用する言語の翻訳だけでは不十分であり、非言語の情報をも翻訳する必要があり、発信者と受信者とが使用するメディアが異なっている場合には、非言語情報特有のメディア変換を伴う翻訳すなわちメディア翻訳が必要となるが、このようなメディア翻訳を行い得る技術は現在のところ開発されていない。
【0007】
一方、人間とインタラクションを行うインタラクション・メディア装置としては、ロボット、ウェアラブル・コンピュータ、エージェントシステム等があるが、これらのインタラクション・メディア装置は単体で動作することを前提としており、実世界で自由に振舞うユーザを、特定の目的に自然に導く技術は確立されていない。
【0008】
例えば、自動応答の電話番号案内では、ユーザに質問をしてユーザの回答からユーザの要求を抽出し、番号検索を行う方法がとられているが、ユーザが質問と関係のない回答をすると、システムは次の手続に進むことができなくなってしまう。また、ビデオゲームにおけるロールプレイングゲームは、ゲームの制作者が演出して作り出す世界の中でプレイヤの行動を既定してゴールに向うという目的を達成させることを可能にしているが、ビデオゲームというコンピュータ内の閉じた特殊な世界に限られた用途であり、日常活動を支援するという目的から大きく乖離している。
【0009】
さらに、「角康之, 間瀬健二著:エージェントサロン:パーソナルエージェント同士のおしゃべりを利用した出会いと対話の促進,電子情報通信学会論文誌,Vol.J84−D−I,No.8,pp.1231−1243,2001年8月」や「角康之:JSAI2000デジタルアシスタントプロジェクトの報告, 人工知能学会誌,Vol.15,No.6,pp.1012−1026,2000年11月」などにおいては、実世界で行動するユーザに付随して、その状況に合わせた情報を提供するコンピュータエージェントが実現され、前者においてはエージェント同士の対話によってユーザ同士の対話を誘導することを導いているが、前者及び後者ともにユーザの状況を認識しつつ特定の目的に誘導することは実現されていない。
【0010】
本発明の目的は、人間の体験を相互共有することができるインタラクション・メディアシステムを提供することである。
【0011】
【課題を解決するための手段および発明の効果】
(1)第1の発明
第1の発明に係るインタラクション・メディアシステムは、複数の協創パートナー装置と、複数の協創パートナー装置と通信可能に接続されるとともに、所定のネットワークを介して他のインタラクション・メディアシステムと通信可能に接続された協調制御手段とを備え、複数の協創パートナー装置のうち第1の協創パートナー装置は、ヒューマノイド型ロボットから構成され、複数の協創パートナー装置のうち第2の協創パートナー装置は、ユーザの体験に関する体験情報のうち視覚情報を観測する視覚情報観測部と、ユーザの体験に関する体験情報のうち聴覚情報を観測する聴覚情報観測部とを含む取得手段と、視覚情報観測部及び聴覚情報観測部によって観測された視覚情報及び聴覚情報を記憶する記憶手段とを備え、協調制御手段は、第2の協創パートナー装置が視覚情報及び聴覚情報を的確に収集するように、予め埋め込まれた演出ルールに従って第2の協創パートナー装置の観測動作に連動してヒューマノイド型ロボットを動作させ、ネットワークを介して記憶手段に記憶されている視覚情報及び聴覚情報を送信する一方、他のインタラクション・メディアシステムから他のユーザの視覚情報及び聴覚情報を受信し、第2の協創パートナー装置は、協調制御手段により受信された他のユーザの視覚情報を再現する画像表示部と、協調制御手段により受信された他のユーザの聴覚情報を再現する音響合成部とを含む再現手段と、取得手段、記憶手段及び再現手段の動作を制御する制御手段とをさらに備え、第2の協創パートナー装置は、再現手段により他のユーザの視覚情報及び聴覚情報をユーザに追体験させながら、取得手段によりユーザを同時に観測するものである。
【0012】
本発明に係るインタラクション・メディアシステムにおいては、自律的に且つ協調的に人間とインタラクションを行いながら、人間の体験に関する体験情報が取得され、取得された体験情報が記憶されるので、容易な操作で体験情報を高精度に観測することができる。この体験情報を他のインタラクション・メディアシステムへ送信した場合、当該インタラクション・メディアシステムにおいて体験情報に基づいて体験を再現することができるので、人間の体験を相互共有することができる。
【0013】
(2)第2の発明
第2の発明に係るインタラクション・メディアシステムは、第1の発明に係るインタラクション・メディアシステムの構成において、再現手段は、他のユーザの視覚情報及び聴覚情報を再現するときに、記憶手段に記憶されているユーザのメディア環境及び身体情報と他のユーザのメディア環境及び身体情報とを比較してユーザのメディア環境及び身体情報に適合するように変換された視覚情報及び聴覚情報を再現するものである。
【0014】
この場合、体験の発信者と受信者とが使用するメディアが異なっている場合でも、人間の体験を相互共有することができる。
【0023】
【発明の実施の形態】
以下、本発明による体験伝達システムについて図面を参照しながら説明する。図1は、本発明の一実施の形態による体験伝達システムの構成を示すブロック図である。
【0024】
図1に示す体験伝達システムは、協調メディア1a,1b及び知育メディア2a,2bを備え、協調メディア1a,1b及び知育メディア2a,2bは、ネットワーク3を介して相互に通信可能に接続される。なお、図1では、2個の協調メディア1a,1b及び2個の知育メディア2a,2bを図示しているが、ネットワーク3を介して接続される協調メディア及び知育メディアの数は、上記の例に特に限定されず、1又は3個以上の協調メディア又は知育メディアを用いてもよい。
【0025】
協調メディア1a,1bを体験の発信に使用する場合、協調メディア1a,1bは、自律的に且つ協調的に人間とインタラクション(相互作用)を行うことによって、人間の体験を観測して認識・理解し、認識・理解した体験情報を蓄積し、蓄積した体験情報をネットワーク3を介して発信可能な状態で保持する。一方、協調メディア1a,1bを体験の再現に使用する場合、協調メディア1a,1bは、知育メディア2a,2b又は他の協調メディアに蓄積されている体験情報をダウンロードし、ダウンロードした体験情報を解釈して自身の再現メディアに適合するようにメディア変換を行うとともにメディア合成を行い、体験を再現する。
【0026】
芸術家や職人等の専門家が知育メディア2a,2bを使用する場合、知育メディア2a,2bは、自律的に且つ協調的に専門家とインタラクションを行うことによって、技能情報として専門家の創作過程における感性情報や技巧等の体験情報を計測して体験に関する感性情報等を分析し、その分析結果等から専門家の知識を蓄積した感性・技能辞書を作成し、蓄積した技能情報等をネットワーク3を介して発信可能な状態で保持する。一方、学習者が知育メディア2a,2bを使用する場合、知育メディア2a,2bは、自律的に且つ協調的に学習者とインタラクションを行うことによって、学習者の個人情報を計測し、体験に関する感性情報等の個人情報を分析して学習者の個人辞書を作成し、ネットワーク3を介して他の知育メディアから読み出した専門家の技能情報と記憶している学習者の個人情報とを用いて学習者に適合するように専門家の体験を学習者に追体験させる。
【0027】
ネットワーク3としては、例えば、インターネットが使用され、TCP/IP(Transmission Control Protocol/Internet Protocol)に従い協調メディア1a,1b及び知育メディア2a,2b間で相互にデータ等が送受信される。なお、ネットワーク3としては、インターネットに特に限定されず、イントラネット等の他のネットワーク、または、インターネット、イントラネット等の種々のネットワークを組み合わせたネットワーク等を用いてもよい。また、ネットワークではなく、専用線により協調メディア1a,1b及び知育メディア2a,2bを相互に接続してもよい。
【0028】
次に、図1に示す協調メディアについてさらに詳細に説明する。図2は、図1に示す協調メディアの一例の構成を示すブロック図である。なお、以下の説明では、協調メディア1aを例に説明するが、協調メディア1b及び知育メディア2a,2bも同様に構成される。
【0029】
図2に示すように、協調メディア1aは、m個(mは任意の正数)の協創パートナー11〜1m及び協調エージェント51を含み、各協創パートナー11〜1mは、五感メディア21〜2m、パートナーエージェント31〜3m及びサブ・インタラクション・コーパス41〜4mを含む。
【0030】
協創パートナー11〜1mは、人間と自律的にインタラクションしながら協調して新しいコミュニケーションを創出する。協創パートナー11〜1mとしては、ヒューマノイド型ロボット、ぬいぐるみ型ロボット、ウェアラブル・コンピュータ、実世界インターフェース・エージェント等を用いることができ、これらのヒューマノイド型ロボット等は、主体が明確で人間がインタラクションしやすいコンピュータのコミュニケーション・インターフェース部となる。
【0031】
例えば、m=5の場合、協創パートナー11がロボットから構成され、協創パートナー12が人形から構成され、協創パートナー13が椅子、机、壁等に埋め込まれた構造物から構成され、協創パートナー14がユーザである人間の体に装着したウェアラブル・コンピュータから構成され、協創パートナー15が複数のカメラ及び各種体感再現装置から構成される。これらの協創パートナーは、ユーザとの対話機能を有しており、ユーザの体験観測結果又は体験再現結果をみて必要に応じてユーザと対話し、協創パートナーがロボット、人形及び構造物の場合、音声合成機能、音声認識機能及び対話制御機能等をも装備している。
【0032】
上記の協創パートナーは、人間とのインタラクションを自律的且つ協調的に創出することを主なタスクとする人工物の総称を意味し、秘書やガイドとして機能するパーソナル・エージェントにとどまらず、コミュニケーションロボットや、上記の機能を実行するための衣服、家又は街といった環境をも含む広い概念を意味するものである。例えば、内部にセンサやアクチュエータ等を付けたロボット、人形、着衣、家具等が協創パートナーとしてユーザに話し掛け、必要な体験情報等を観測する。
【0033】
また、協創パートナーは、インタラクションにより自己を表現するメディアとしてとらえることもでき、自分のインタラクティブな体験情報を表現及び加工して他人と共有したり、新しい体験を創造するコミュニケーション形態を実現することができる。
【0034】
さらに、協創パートナーは、人間のコミュニケーションにおける相互作用や振る舞いの原理を認知科学的に解明することにも利用することができ、人間の振る舞いをモデル化して操作性のよいコンピュータ・インターフェースを確立することができる。
【0035】
各五感メディア21〜2mは、人間の五感である視覚、聴覚、嗅覚、味覚、触覚等を検出する五感センサ及びこれらの五感を人間に伝達するためのアクチュエータ等から構成され、体験に関する五感情報、生体情報及び身体情報等を体験情報として観測し認識・理解するとともに、体験情報等を用いて体験を再現する。
【0036】
具体的には、五感メディア21〜2mは、パターン認識・理解技術及びマルチメディア内容検索技術等を用いて、ユーザの体験、感動及び相互作用等を計測して認識・理解し、体験情報等を獲得する。例えば、五感メディア21〜2mは、人間の動作、人体情報、心拍等を観測することによって人間の体験を計測及び獲得したり、同期コミュニケーションを基本とするテレ・イグジスタンス技術及び場表現を含む人工現実感技術等を用いて体験を再現する。
【0037】
各パートナーエージェント31〜3mは、CPU(中央演算処理装置)等から構成され、協創パートナー11〜1m単体の動作を制御するとともに、有線又は無線によって協調エージェント51に接続され、体験情報等を協調エージェント51に送信したり、協調エージェント51から受信する。
【0038】
各サブ・インタラクション・コーパス41〜4mは、ハードディスクドライブ等の記憶装置等から構成され、協創パートナー11〜1mの内部にそれぞれ別々に設けられ、五感メディア21〜2mによって計測されたユーザの体験や相互作用をコンピュータが処理可能な形式でデータベース化して記憶して蓄積する。サブ・インタラクション・コーパス41〜4mに蓄積されたデータは、体験を再現するための素データ又はユーザの相互作用や常識をコンピュータが認識・理解するための辞書として用いられる。
【0039】
例えば、サブ・インタラクション・コーパス41〜4mは、Cyc、WordNet、EDR(電子辞書)等の言語領域における知識ベース化だけでなく、非言語領域における映像、触覚、味覚、臭覚及び体性感覚等の人間が利用しているすべてのモダリティデータを統合的に蓄積し、それらに意味的なタグ付けが行われている内容を含む。このタグ付けは、従来のパターン認識の方法を継承するだけでなく、協創パートナー11〜1mによりインタラクションを演出し、あるドメインに引き込みながらタグ付けを行う。このようにして、サブ・インタラクション・コーパス41〜4mは、暗黙知や技と呼ばれる知識及び日常的な相互作用等をコンピュータが認識できる知識として構築する。
【0040】
なお、協調エージェント51からサブ・インタラクション・コーパス41〜4mをみた場合、サブ・インタラクション・コーパス41〜4mは、後述する協調エージェント51の制御によって論理的に1つのインタラクション・コーパス52として機能する。
【0041】
協調エージェント51は、CPU等から構成され、マルチエージェント機能を有するとともに、有線又は無線によってデータを送受信可能な状態で各協創パートナー11〜1mに接続され、各協創パートナー11〜1mを同期及び非同期制御してユーザの体験情報等からインタラクション・コーパス52を構築する。また、協調エージェント51は、ゲートウエイ機能を有し、情報を発信及び受信可能な状態でネットワーク3に接続されている。
【0042】
ロボット、ウェアラブル・コンピュータ、エージェントシステム等から協創パートナー11〜1mが構成されている場合、協調エージェント51は、ユーザの状況を画像処理、音声処理及びセンサ信号処理等を用いて認識しつつ、体験内容に応じて予め埋め込まれた演出ルールに従って体験情報を的確に収集するように、協創パートナー11〜1mを連動して動作させ協調的に制御する。
【0043】
例えば、ロボットとウェアラブル・コンピュータとが連動して、ウェアラブル・コンピュータのセンサ情報を使ってユーザの生理状態を観測しながら、ロボットがアクションを起して体験を導くことができる。また、スナップ写真の撮影をする場合、被写体の目線をカメラ方向に向けてリラックスした笑顔を演出して撮影することが望まれるが、ヒューマノイド型ロボットに指差しの動作を行わせることにより、被写体であるユーザの目線を誘導して「はい笑って」というようなきっかけを与えるとともに、ユーザが装着しているウェアラブル・コンピュータのセンサが笑顔に関連する生理情報を検出したときにシャッターを押すことができる。さらに、限られたセンサ群でユーザの体験を的確に観測するために、センシングに都合の良い場所や配置にユーザを導くことも、ロボットなどのジェスチャーや対話で演出することができる。
【0044】
なお、上記の説明では、協調メディアが複数のパートナーエージェントから構成される場合について説明したが、一つのパートナーエージェントから協調メディアを構成してもよく、この場合、協調エージェントは不要となる。
【0045】
次に、図2に示す五感メディアについてさらに詳細に説明する。図3は、図2に示す五感メディアの一例の構成を示すブロック図である。なお、以下の説明では、五感メディア21を例に説明するが、他の五感メディアも同様に構成される。
【0046】
図3に示すように、五感メディア21は、五感メディア入力部61及び五感メディア出力部71を含む。五感メディア入力部61は、観測部62、特徴抽出部63、特徴抽出プログラム部64、認識・理解部65及び認識標準辞書部66を含み、五感メディア出力部71は、再現部72、メディア合成部73、合成プログラム部74、メディア変換部75及び変換辞書部76を含む。
【0047】
五感メディア入力部61は、ユーザの体験を観測して認識・理解し、その結果をパートナーエージェント31へ送り、体験情報等がサブ・インタラクション・コーパス41に蓄積される。
【0048】
観測部62は、一つ又は複数の観測装置から構成され、体験を観測する観測系として人間の動作、表情、触覚、脈拍等の生体情報等を観測し、例えば、人間の行動を複数のカメラから追従する方法(「追跡対象の動きを利用した多数カメラの位置・姿勢推定」,情報処理学会,CVIM研究会、2002−CVIM−131−17,pp.117−124,2002等参照)、顔及び眼を追跡する方法(「アイカメラへの目位置出力を目的とした目の検出と追跡」,信学技報,PRMU2001−153,pp.1−6,2001等参照)、脈拍センサを用いて脈拍を計測する方法等を用いて各データを収集する。
【0049】
上記の処理を行うため、例えば、観測部62は、複数のカメラ等から構成される視覚情報観測部67、複数のマイク等から構成される聴覚情報観測部68、及び複数の生体センサ等から構成される触覚・生体情報観測部69等から構成される。なお、触覚・生体情報観測部69内に、嗅覚情報を観測する嗅覚情報観測部や味覚情報を観測する味覚情報観測部等を設けてもよい。
【0050】
視覚情報観測部67はユーザの視覚情報を観測し、聴覚情報観測部68はユーザの聴覚情報を観測し、触覚・生体情報観測部69はユーザの触覚・生体情報を観測し、各観測データは時系列データとして特徴抽出部63に入力される。また、触覚・生体情報観測部69では周囲の環境情報、例えば、温度、湿度、風力、イオン濃度等を観測してもよい。
【0051】
このとき、特徴抽出プログラム部64には、各観測系の特徴抽出プログラムがネットワーク3等を介してダウンロードされて予め記憶されている。また、複数台の一眼レフカメラや全方位カメラ等を用いて計測する場合、各カメラのキャリブレーション情報、三次元位置等の情報が、事前にサブ・インタラクション・コーパス41に格納される。さらに、認識・理解部65には、ネットワーク3又はインタラクション・コーパス52から認識すべきユーザ身体のクラス及び身体の動き情報のクラス等の認識標準辞書が認識標準辞書部66から予め読み込まれている。例えば、ユーザ身体のクラスには、左手、右手、肩、顔、視線、顔の向き、口の形状、筆、硯、半紙、フルート、ギター、フルートのフレット、ギターの弦等が該当し、身体の動き情報のクラスには、右手で筆を持つこと、筆を払うこと、筆を硯に向けること、筆に墨をつけること、グリッサンド奏法等が該当する。
【0052】
特徴抽出部63は、CPU等から構成され、特徴抽出プログラム部64に記憶されている各観測系の特徴抽出プログラムを読み出して特徴抽出処理を実行することにより、特徴を抽出して特徴パラメータ群に蓄積するとともに、既に蓄積されている特徴パラメータ等と比較し、特徴ベクトル等の特徴データを認識・理解部65へ出力する。
【0053】
また、特徴抽出部63は、サブ・インタラクション・コーパス41等に蓄えている身長、体格、心拍数、発汗情報等の身体情報に基づいて認識標準辞書部66との照合を高精度に行うために正規化処理を行う。この正規化処理は、例えば、認識標準辞書部66に身体情報として身長が150cm、腕の長さが70cmと記憶され、ユーザの身長が180cm、腕の長さが80cmである場合には、腕の位置を求めるための特徴抽出プログラムの各パラメータを180cm、80cmに正規化して測定するために必要な処理である。
【0054】
認識・理解部65は、CPU等から構成され、特徴データを基に種々の分析を行い、認識処理において入力された特徴ベクトルと認識標準辞書部66に記憶されているベクトルとの間で公知の識別関数を用いて比較計算を行い、最大一致度を示す認識クラス等を認識結果として出力する。例えば、認識・理解部65は、行動パターンとして動きの特徴データから物を探しているのか、目的の場所が分かって歩いているのか等を認識・理解したり、顔を追跡して顔の傾き及び動きの大小から不安な状態、安定な状態、鬱状態、躁状態等のいずれの精神状態であるかを認識・理解したり、脈拍から興奮状態、平常状態等のいずれであるかを認識・理解する。また、認識・理解部65は、三次元画像計測のために複数台のカメラ等から出力される観測結果を用いて三次元復元が可能か否かを判断し、判断結果をパートナーエージェント31へ送信する。
【0055】
上記の各処理は、パートナーエージェント31により制御され、パートナーエージェント31は、認識結果及び観測データ等を体験情報としてサブ・インタラクション・コーパス41に格納し、例えば、上記の一連の時間軸の流れがサブ・インタラクション・コーパス41に送信されて記憶される。
【0056】
五感メディア出力部71は、ユーザの体験情報に関するインタラクション・コーパス52の内容とネットワーク3を介して受信した他のユーザのインタラクション・コーパスの内容とを比較し、受信した他のユーザの体験情報を再現部72に適合するように変換してメディア合成を行う。
【0057】
再現部72は、追体験を再現する再現系等として、音、映像、触覚(肌触り、力覚、弛緩刺激、風、温度環境、湿度環境等)、匂い、味覚等を再現する。例えば、再現部72は、複数の映像表示装置等から構成される画像表示部77、複数のスピーカ等から構成される音響合成部78、及び複数の体感装置から構成される体感情報再現部79等から構成される。
【0058】
メディア変換部75は、CPU等から構成され、ユーザの体験情報に関するインタラクション・コーパス52の情報と他のユーザのメディア環境及び身体情報に関する情報とを比較して変換辞書を作成し、変換辞書部76に格納する。例えば、身体情報の正規化変換処理では、体験情報を発信したユーザの身長が180cm、腕の長さが80cmであり、体験情報を受信したユーザの身長が160cm、腕の長さが70cmである場合には、再現時の腕の位置を求めるためのメディア合成プログラムの各パラメータを160cm、70cmに正規化して再現パラメータを決定する。また、3台のカメラを用いてあるユーザの体験が計測され、2台のカメラを用いて他のユーザが体験共有する場合、3台のカメラによって計測された体験情報を2台のカメラを用いて再現できるようにメディア変換を行う。
【0059】
メディア合成部73は、CPU等から構成され、合成プログラム部74に記憶されている合成プログラムを読み出してメディア合成処理を実行することにより、メディア変換部75によって再現部72に適するように変換された特徴データを、変換辞書部76の内容を参照して特徴パラメータ群と比較・合成して再現部72が動作可能な信号に変換し、再現部72を用いて体験を再現する。なお、合成プログラム部74に記憶されている合成プログラムは、ネットワーク3又は体験情報を発信した協調メディアのインタラクション・コーパス等からダウンロードされて予め記憶されている。
【0060】
上記の処理が終了した後に、協創パートナー11〜1mのいずれかが、他のユーザの体験を協調メディア1aを使用するユーザに対して再現できる段階になったことを対話により伝え、ユーザBへの体験共有を再現する。このとき、ユーザから体験共有に関して不満や疑問が出た場合、協創パートナー11〜1mのいずれかが必要に応じてユーザと対話し、所望の体験共有ができるまでメディア変換部75及びメディア合成部73によりパラメータを変えて再現を繰り返す。
【0061】
このように、図3に示す五感メディア21では、ネットワーク3を介して他の協調メディアのインタラクション・コーパスに蓄積されている身体情報(身長、体重、性別、運動能力、視力、年齢等)等を用いて、追体験するユーザすなわち個人に適応した情報変換を加味してメディア変換を行うことができるので、多数のユーザに対して同時に体験を再現することができる。また、観測部62と再現部72とが別々に設けられることにより、再現部72によりユーザに追体験させながら、観測部62によりユーザを同時に観測することができるので、観測部62の観測結果に基づいて再現部72へ出力する信号を変化させるフィードバック機能を実現することができ、追体験を観測時の体験に近づけることができる。
【0062】
本実施の形態では、協調メディア1a,1b及び知育メディア2a,2bがインタラクション・メディア装置並びに第1及び第2のインタラクション・メディア装置に相当し、五感メディア21〜2mが取得手段及び再現手段に相当し、五感メディア入力部61が取得手段に相当し、五感メディア出力部71が再現手段に相当し、サブ・インタラクション・コーパス41〜4mが記憶手段に相当し、パートナーエージェント31〜3mが制御手段に相当し、協創パートナー11〜1mが協創パートナー装置に相当し、協調エージェント51が協調制御手段に相当する。
【0063】
次に、体験情報として書道家による習字の筆遣いの過程を観測する場合について説明する。図4は、体験情報として書道家による習字の筆遣いの過程を観測する場合のサブ・インタラクション・コーパスのデータ内容の一例を示す図である。
【0064】
図4に示す例では、まず、時間t1において、協調メディア1aの協創パートナーi(i=11〜1m)がユーザAに話し始め、観測部62の観測装置1〜j(jは任意の正数)が体験情報を観測し始めた状態を示し、次に、時間t2において、ユーザAが応答したことを示している。また、この時間間隔t1〜t2では、三次元計測復元が不可能であることが示されている。
【0065】
次に、時間t3において、協創パートナーiが対話データ2を発した直後に、三次元計測復元が可能になり、体験情報として観測が有効な段階に入ったことが示されている。この時間t3の前後から身体行動の認識・理解処理も結果を出し始め、ユーザの筆遣いの時間系列をテキスト形式で復元することができる。また、感情認識・理解処理においても、ユーザの脈拍数を計測することにより、時間t2付近からユーザAが精神的に安定した状態で書を書き始めていることがわかる。このように、サブ・インタラクション・コーパスには、観測部からの観測データ、認識・理解結果、認識プログラム、身体情報等が格納されている。
【0066】
次に、協調メディア1aをユーザAが使用し、協調メディア1bをユーザBが使用する場合の協調メディア1a、1bの動作について説明する。
【0067】
まず、協調メディア1aは、ユーザAとのインタラクションに応じて五感メディア21〜2mを制御し、ユーザAの体験に関する音、映像、生体情報、身体情報等を観測し、認識・理解処理等によって言語情報及び非言語情報に関するインタラクション・コーパス52を作成するとともに、複数の協創パートナー11〜1mによって体験を観測して各観測結果を統合する。また、協調メディア1aは、体験情報に欠落があるか否かを調べ、必要に応じて再度測定を行う。
【0068】
次に、ユーザBが協調メディア1bを用いてネットワーク3を介してユーザAの体験情報を検索し、ユーザAの体験をユーザBに伝達する。このとき、ユーザAとユーザBとの間で観測できるメディア、生体情報、身体情報、環境等が異なっている場合、インタラクション・コーパスの中にこれらの相違を識別するための属性データを作成し、ユーザ間での相互変換を行う。すなわち、ユーザBの協調メディア1bがユーザAとユーザBとのインタラクション・コーパスを比較し、ユーザBのメディア環境で体験を共有できるデータを再現する。
【0069】
図5は、体験を共有して新たな体験を創造する体験共有コミュニケーションの一例を示す図である。図5に示すように、一家団欒のひと時に図1に示す体験伝達システムを使用して少年が学校で体験した授業内容を受け取り、少年の体験を家族と共有して家族皆で新たな体験が創出される。このとき、理解を深め、新たな発想や創造性を高めるために、ヒューマノイド型ロボットR1やぬいぐるみ型ロボットR2がインタラクティブな演出を行い、少年の父が恐竜の肌触りを擬似的に体験することができる。これらロボットは、家族の会話を聴いているうちにその内容を検知し、その内容に近いデータ、この場合は学校での体験データを自動的に収集し、家族に提示する。このようにして、現存のインターネット検索のような煩わしさから解放される。
【0070】
次に、知育メディア2aを専門家が使用し、知育メディア2bを学習者が使用する場合の知育メディア2a、2bの動作について説明する。
【0071】
まず、知育メディア2aは、対象とする創作活動等における専門家の創作過程や動作を時空間的に精密に測定する。次に、知育メディア2aは、創作結果において優れた効果が表れることとなった重要な因子を創作過程から抽出する。ここで、重要な因子は、多数の創作過程における種々の時空間上の物理パラメータと創作結果上の対応部分に対する評価値との相関を事前に調べておくことによって特定することができる。このようにして、抽出された創作過程の各因子は、工程毎にラベル付けされ、感性及び技能に関する辞書データが技能情報として知育メディア2a内のインタラクション・コーパスに蓄積される。
【0072】
一方、学習者についても、同様の創作過程や動作を計測して各因子を抽出し、学習者本人の感性や技能が反映された個人辞書データを個人情報として知育メディア2b内のインタラクション・コーパスに蓄積しておく。この個人辞書は、事前に別個作成しておかなくとも、標準的な人の個人辞書を初期辞書として使用し、手本の過程が示された際の追従動作を計測した結果によって、自動的に辞書を更新していくことにより作成してもよい。この場合、この更新処理によって学習者の技能の向上に伴って最新の個人辞書が残されていくこととなる。
【0073】
知育メディア2bは、専門家による手本となる感性・技能辞書となる知育メディア2a内のインタラクション・コーパスに蓄積されている各因子と学習者の個人辞書となる知育メディア2b内のインタラクション・コーパスに蓄積されている各因子との違いを随時比較し、学習者が追従し得るレベルよりも幾分高度なレベルになるように縮小した各因子の差分に学習者の個人辞書の各因子に加えたものを、五感メディアを用いて手本として提示する。
【0074】
上記の処理により、学習者が初めから専門家の高度な技能を真似るような無理を押し付けられたり、個性を無視されたりすることなく、各時点で最良の手本を参考にすることができるようになる。
【図面の簡単な説明】
【図1】本発明の一実施の形態による体験伝達システムの構成を示すブロック図である。
【図2】図1に示す協調メディアの一例の構成を示すブロック図である。
【図3】図2に示す五感メディアの一例の構成を示すブロック図である。
【図4】体験情報として書道家による習字の筆遣いの過程を観測する場合のサブ・インタラクション・コーパスのデータ内容の一例を示す図である。
【図5】体験を共有して新たな体験を創造する体験共有コミュニケーションの一例を示す図である。
【符号の説明】
1a,1b 協調メディア
2a,2b 知育メディア
3 ネットワーク
11〜1m 協創パートナー
21〜2m 五感メディア
31〜3m パートナーエージェント
41〜4m サブ・インタラクション・コーパス
51 協調エージェント
52 インタラクション・コーパス
61 五感メディア入力部
62 観測部
63 特徴抽出部
64 特徴抽出プログラム部
65 認識・理解部
66 認識標準辞書部
67 視覚情報観測部
68 聴覚情報観測部
69 触覚・生体情報観測部
71 五感メディア出力部
72 再現部
73 メディア合成部
74 合成プログラム部
75 メディア変換部
76 変換辞書部
77 画像表示部
78 音響合成部
79 体感情報再現部

Claims (2)

  1. 複数の協創パートナー装置と、前記複数の協創パートナー装置と通信可能に接続されるとともに、所定のネットワークを介して他のインタラクション・メディアシステムと通信可能に接続された協調制御手段とを備え、
    前記複数の協創パートナー装置のうち第1の協創パートナー装置は、ヒューマノイド型ロボットから構成され、
    前記複数の協創パートナー装置のうち第2の協創パートナー装置は、
    ユーザの体験に関する体験情報のうち視覚情報を観測する視覚情報観測部と、ユーザの体験に関する体験情報のうち聴覚情報を観測する聴覚情報観測部とを含む取得手段と、
    前記視覚情報観測部及び前記聴覚情報観測部によって観測された視覚情報及び聴覚情報を記憶する記憶手段とを備え、
    前記協調制御手段は、前記第2の協創パートナー装置が視覚情報及び聴覚情報を的確に収集するように、予め埋め込まれた演出ルールに従って第2の協創パートナー装置の観測動作に連動して前記ヒューマノイド型ロボットを動作させ、前記ネットワークを介して前記記憶手段に記憶されている視覚情報及び聴覚情報を送信する一方、他のインタラクション・メディアシステムから他のユーザの視覚情報及び聴覚情報を受信し、
    前記第2の協創パートナー装置は、
    前記協調制御手段により受信された他のユーザの視覚情報を再現する画像表示部と、前記協調制御手段により受信された他のユーザの聴覚情報を再現する音響合成部とを含む再現手段と、
    前記取得手段、前記記憶手段及び前記再現手段の動作を制御する制御手段とをさらに備え、
    前記第2の協創パートナー装置は、前記再現手段により他のユーザの視覚情報及び聴覚情報をユーザに追体験させながら、前記取得手段によりユーザを同時に観測することを特徴とするインタラクション・メディアシステム
  2. 前記再現手段は、他のユーザの視覚情報及び聴覚情報を再現するときに、前記記憶手段に記憶されているユーザのメディア環境及び身体情報と他のユーザのメディア環境及び身体情報とを比較してユーザのメディア環境及び身体情報に適合するように変換された視覚情報及び聴覚情報を再現することを特徴とする請求項1記載のインタラクション・メディアシステム
JP2002030809A 2002-02-07 2002-02-07 インタラクション・メディアシステム Expired - Fee Related JP3733075B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2002030809A JP3733075B2 (ja) 2002-02-07 2002-02-07 インタラクション・メディアシステム
US10/360,384 US20030170602A1 (en) 2002-02-07 2003-02-06 Interaction media device and experience transfer system using interaction media device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002030809A JP3733075B2 (ja) 2002-02-07 2002-02-07 インタラクション・メディアシステム

Publications (2)

Publication Number Publication Date
JP2003233798A JP2003233798A (ja) 2003-08-22
JP3733075B2 true JP3733075B2 (ja) 2006-01-11

Family

ID=27774414

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002030809A Expired - Fee Related JP3733075B2 (ja) 2002-02-07 2002-02-07 インタラクション・メディアシステム

Country Status (2)

Country Link
US (1) US20030170602A1 (ja)
JP (1) JP3733075B2 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI117308B (fi) * 2004-02-06 2006-08-31 Nokia Corp Eleohjausjärjestelmä
US8475172B2 (en) * 2007-07-19 2013-07-02 Massachusetts Institute Of Technology Motor learning and rehabilitation using tactile feedback
US9656392B2 (en) * 2011-09-20 2017-05-23 Disney Enterprises, Inc. System for controlling robotic characters to enhance photographic results
US9390630B2 (en) * 2013-05-03 2016-07-12 John James Daniels Accelerated learning, entertainment and cognitive therapy using augmented reality comprising combined haptic, auditory, and visual stimulation
US9355356B2 (en) * 2013-10-25 2016-05-31 Intel Corporation Apparatus and methods for capturing and generating user experiences
JP6664069B2 (ja) * 2013-12-31 2020-03-13 イマージョン コーポレーションImmersion Corporation 触覚コンテンツを伴う視点動画を記録及び再生するシステム並びに方法
US10067566B2 (en) * 2014-03-19 2018-09-04 Immersion Corporation Systems and methods for a shared haptic experience
CN108883335A (zh) 2015-04-14 2018-11-23 约翰·詹姆斯·丹尼尔斯 用于人与机器或人与人的可穿戴式的电子多感官接口
CN105718921A (zh) * 2016-02-29 2016-06-29 深圳前海勇艺达机器人有限公司 一种可实现机器人智能情感记录的方法
CN105844980A (zh) * 2016-05-24 2016-08-10 深圳前海勇艺达机器人有限公司 智能机器人点读系统
EP3544495A4 (en) 2016-11-25 2020-08-19 Kinaptic, LLC HAPTIC HUMAN-MACHINE INTERFACE AND METHODS AND APPARATUS WITH PORTABLE ELECTRONIC ELEMENTS
CN106875767B (zh) * 2017-03-10 2019-03-15 重庆智绘点途科技有限公司 在线学习系统及方法
JP2019082904A (ja) * 2017-10-31 2019-05-30 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP7015711B2 (ja) * 2018-03-08 2022-02-03 パナソニック株式会社 装置、ロボット、方法、及びプログラム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5823786A (en) * 1993-08-24 1998-10-20 Easterbrook; Norman John System for instruction of a pupil
US5980256A (en) * 1993-10-29 1999-11-09 Carmein; David E. E. Virtual reality system with enhanced sensory apparatus
US5490784A (en) * 1993-10-29 1996-02-13 Carmein; David E. E. Virtual reality system with enhanced sensory apparatus
JPH07220091A (ja) * 1994-02-04 1995-08-18 Canon Inc 画像処理装置及び方法
US6278441B1 (en) * 1997-01-09 2001-08-21 Virtouch, Ltd. Tactile interface system for electronic data display system
US6425764B1 (en) * 1997-06-09 2002-07-30 Ralph J. Lamson Virtual reality immersion therapy for treating psychological, psychiatric, medical, educational and self-help problems
US6917720B1 (en) * 1997-07-04 2005-07-12 Daimlerchrysler Ag Reference mark, method for recognizing reference marks and method for object measuring
US6097927A (en) * 1998-01-27 2000-08-01 Symbix, Incorporated Active symbolic self design method and apparatus
EP0974948A1 (en) * 1998-07-20 2000-01-26 Nec Corporation Apparatus and method of assisting visually impaired persons to generate graphical data in a computer
US6074213A (en) * 1998-08-17 2000-06-13 Hon; David C. Fractional process simulator with remote apparatus for multi-locational training of medical teams
US6695770B1 (en) * 1999-04-01 2004-02-24 Dominic Kin Leung Choy Simulated human interaction systems
JP2000357221A (ja) * 1999-06-15 2000-12-26 Minolta Co Ltd 画像処理装置および画像処理方法、ならびに画像処理プログラムを記録した記録媒体
US6554706B2 (en) * 2000-05-31 2003-04-29 Gerard Jounghyun Kim Methods and apparatus of displaying and evaluating motion data in a motion game apparatus
US6705869B2 (en) * 2000-06-02 2004-03-16 Darren Schwartz Method and system for interactive communication skill training
US7159008B1 (en) * 2000-06-30 2007-01-02 Immersion Corporation Chat interface with haptic feedback functionality
US7925703B2 (en) * 2000-12-26 2011-04-12 Numedeon, Inc. Graphical interactive interface for immersive online communities
US6739877B2 (en) * 2001-03-06 2004-05-25 Medical Simulation Corporation Distributive processing simulation method and system for training healthcare teams
US6786863B2 (en) * 2001-06-07 2004-09-07 Dadt Holdings, Llc Method and apparatus for remote physical contact
JP4247041B2 (ja) * 2003-04-01 2009-04-02 本田技研工業株式会社 顔識別システム

Also Published As

Publication number Publication date
JP2003233798A (ja) 2003-08-22
US20030170602A1 (en) 2003-09-11

Similar Documents

Publication Publication Date Title
US11858118B2 (en) Robot, server, and human-machine interaction method
US11241789B2 (en) Data processing method for care-giving robot and apparatus
CN108665492B (zh) 一种基于虚拟人的舞蹈教学数据处理方法及系统
Rehm et al. Wave like an Egyptian—accelerometer based gesture recognition for culture specific interactions
JP3733075B2 (ja) インタラクション・メディアシステム
Amirova et al. 10 years of human-nao interaction research: A scoping review
CN108227932A (zh) 交互意图确定方法及装置、计算机设备及存储介质
Martins et al. Accessible options for deaf people in e-learning platforms: technology solutions for sign language translation
Scherer et al. A generic framework for the inference of user states in human computer interaction: How patterns of low level behavioral cues support complex user states in HCI
CN108334583A (zh) 情感交互方法及装置、计算机可读存储介质、计算机设备
US20140112556A1 (en) Multi-modal sensor based emotion recognition and emotional interface
CN110110169A (zh) 人机交互方法及人机交互装置
JP2018014094A (ja) 仮想ロボットのインタラクション方法、システム及びロボット
WO2007098560A1 (en) An emotion recognition system and method
CN109101663A (zh) 一种基于互联网的机器人对话系统
JP2019086602A (ja) 学習支援システムおよび学習支援方法
JP6076425B1 (ja) 対話インターフェース
CN115951786B (zh) 一种利用aigc技术的多结局创意社交游戏的创作方法
Henderson et al. Development of an American Sign Language game for deaf children
Murray et al. Learning backchanneling behaviors for a social robot via data augmentation from human-human conversations
KR101738142B1 (ko) 감성 기반의 대화가 가능한 디지털 생명체 생성 시스템 및 그 제어방법
Vretos et al. Exploiting sensing devices availability in AR/VR deployments to foster engagement
JP2017091570A (ja) 対話インターフェース
Dael et al. Measuring body movement: Current and future directions in proxemics and kinesics.
De Wit et al. The design and observed effects of robot-performed manual gestures: A systematic review

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051014

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081021

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091021

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101021

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101021

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111021

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121021

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121021

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121021

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131021

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees