JP2004056161A - Multimedia communication system - Google Patents

Multimedia communication system Download PDF

Info

Publication number
JP2004056161A
JP2004056161A JP2002206075A JP2002206075A JP2004056161A JP 2004056161 A JP2004056161 A JP 2004056161A JP 2002206075 A JP2002206075 A JP 2002206075A JP 2002206075 A JP2002206075 A JP 2002206075A JP 2004056161 A JP2004056161 A JP 2004056161A
Authority
JP
Japan
Prior art keywords
data processing
information
data
space
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002206075A
Other languages
Japanese (ja)
Inventor
Fumiaki Obayashi
大林 史明
Mitsunori Yoneda
米田 光徳
Hirotatsu Shinomiya
篠宮 弘達
Yoshihiko Tokunaga
徳永 吉彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Works Ltd filed Critical Matsushita Electric Works Ltd
Priority to JP2002206075A priority Critical patent/JP2004056161A/en
Publication of JP2004056161A publication Critical patent/JP2004056161A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a multimedia communication system for providing a sense to users as if a plurality of spaces geometrically apart from each other were present adjacent to each other. <P>SOLUTION: Servers S2, S1 exchange video and audio information (multimedia data) of opposite rooms A, B with each other, a projector 21 of the room A(B) displays the video image of the opposite room B(A) on a screen 22 and a loudspeaker 23 of the room A(B) sounds the sound of the opposite room B(A) at the same time. Further, an object (mainly a person H1(H2) present in the room A(B)) displayed on the screen 22 is a full size (life size) picture nearly equal to the size of the actual object. Then virtual rooms (shared virtual space) B', A' are respectively formed adjacent to the two rooms A, B geometrically apart from each other, the people H1, H2 respectively present in the respective rooms A, B feel as if the opposite party were in the virtual adjacent rooms B', A' and can share the virtual spaces although the people H1, H2 are present in places apart from each other. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、複数の通信装置間で音声や映像等のマルチメディアデータを授受するマルチメディア通信システムに関するものである。
【0002】
【従来の技術】
従来、地理的に離れた2つの場所の様子を映像と音声で伝え合うことを目的として、複数の通信装置間で音声や映像等のマルチメディアデータを授受するマルチメディア通信システムが利用されている。この種のマルチメディア通信システムとしては、電話回線を用いて音声と映像を同時に伝送するテレビ電話システムや、カメラで撮像した動画とマイクロホンで集音した音声をネットワークに接続されたコンピュータによりネットワーク上の他のコンピュータにリアルタイムで伝送するシステム、あるいはビデオに収録した映像及び音声を圧縮したビデオレターを電子メール等に添付して送信するシステムなどが既に提供されている。
【0003】
【発明が解決しようとする課題】
ところが、上述のような従来システムには以下のような問題があった。
【0004】
まずビデオレターを送受信するシステムでは、映像及び音声をリアルタイムで送信するものではないから、2つの場所の互いの様子をリアルタイムで把握することができず、それぞれの場所に居る人が互いに相手の存在を実感することができなかった。
【0005】
また、テレビ電話システムやコンピュータによる動画及び音声の伝送システムにおいては、一般に小型のモニタ画面に映し出される映像とスピーカから聞こえる音声によって相互の様子を伝達しているため、2つの場所の互いの様子をリアルタイムで把握することは可能であるが、それぞれの場所に居る人に互いに相手の人があたかもすぐ傍に居るような感覚を与えることは困難であった。
【0006】
本発明は上記事情に鑑みて為されたものであり、その目的は、地理的に離れた複数の空間があたかも隣り合って存在するかのような感覚を与えることができるマルチメディア通信システムを提供することにある。
【0007】
【課題を解決するための手段】
請求項1の発明は、上記目的を達成するために、地理的に離れた複数の空間に設置されて通信回線を介して音声及び映像のデータを含むマルチメディアデータを授受する複数の通信装置と、各空間に設置されて通信装置間で授受するマルチメディアデータをそれぞれ処理する複数のデータ処理装置とを備え、各空間を撮像領域に含む撮像手段と、各空間の音を収集する集音手段と、データ処理装置でデータ処理された映像情報を空間内に提示する映像提示手段と、データ処理装置でデータ処理された音声情報を空間内に発する発音手段とを各データ処理装置に具備し、映像提示手段は、実際の大きさに略等しい大きさで被写体の映像を提示してなることを特徴とする。
【0008】
請求項2の発明は、請求項1の発明において、特定の2つの空間にそれぞれ通信装置とデータ処理装置を設置したことを特徴とする。
【0009】
請求項3の発明は、請求項1の発明において、映像提示手段は、複数の空間の映像情報を個別に提示し、発音手段は、複数の空間の音声情報を発することを特徴とする。
【0010】
請求項4の発明は、請求項1又は2又は3の発明において、通信装置が常時マルチメディアデータの授受を行うことを特徴とする。
【0011】
請求項5の発明は、請求項1〜4の何れかの発明において、一の通信装置が特定の通信装置とのみ通信することを特徴とする。
【0012】
請求項6の発明は、請求項1〜5の何れかの発明において、撮像手段による撮像領域の照度を計測する照度計測手段を各データ処理装置に具備し、データ処理装置は照度計測手段で計測した照度情報を通信装置により相手の通信装置に送信し、映像提示手段は、通信装置で受信した照度情報に基づいて映像情報を提示する提示画面の明るさを調節することを特徴とする。
【0013】
請求項7の発明は、請求項1〜6の何れかの発明において、集音手段の集音時における音量を計測する音量計測手段を各データ処理装置に具備し、データ処理装置は音量計測手段で計測した音量情報を通信装置により相手の通信装置に送信し、発音手段は、通信装置で受信した音量情報に基づいて音声情報を発する際の音量を調節することを特徴とする。
【0014】
請求項8の発明は、請求項1〜7の何れかの発明において、空間内における音源の位置を特定する音源位置特定手段をデータ処理装置に具備し、データ処理装置は音源位置特定手段で特定した音源位置情報を通信装置により相手の通信装置に送信し、発音手段は、通信装置で受信した音源位置情報に基づいて音源位置を再現することを特徴とする。
【0015】
請求項9の発明は、請求項1〜8の何れかの発明において、空間内の環境に関わる物理量を計測する計測手段と、他の空間の計測手段で計測された計測結果を表示する計測結果表示手段とをデータ処理装置に具備することを特徴とする。
【0016】
請求項10の発明は、請求項1〜9の何れかの発明において、少なくとも温度を調節する機能を有する空調機器を空間内に設置し、空間内の温度を計測する温度計測手段と、他の空間の温度計測手段で計測された温度の情報に応じて空調機器の動作を制御する空調機器制御手段とをデータ処理装置に具備することを特徴とする。
【0017】
請求項11の発明は、請求項1〜10の何れかの発明において、少なくとも湿度を調節する機能を有する空調機器を空間内に設置し、空間内の湿度を計測する湿度計測手段と、他の空間の湿度計測手段で計測された湿度の情報に応じて空調機器の動作を制御する空調機器制御手段とをデータ処理装置に具備することを特徴とする。
【0018】
請求項12の発明は、請求項1〜11の何れかの発明において、映像提示手段によって映像が提示される箇所に設置される接触式の温度センサ又は触覚センサを何れかの空間に設置したデータ処理装置に具備するとともに温度センサで検出した温度のデータ又は触覚センサの検出データをマルチメディアデータとともに送信し、映像提示手段によって映像が提示される箇所に設置される発熱体と、前記温度データ又は検出データに基づいて発熱体の発熱量を制御する発熱体制御手段とを他の何れかの空間に設置したデータ処理装置に具備することを特徴とする。
【0019】
請求項13の発明は、請求項1〜12の何れかの発明において、利用者にサービスを提供するエージェントを各データ処理装置に具備し、マルチメディアデータとともに各エージェントのデータを授受して複数のデータ処理装置同士で共有することを特徴とする。
【0020】
請求項14の発明は、請求項1〜13の何れかの発明において、空間内に居る人の生体情報を計測する生体情報計測手段を各データ処理装置に具備し、データ処理装置は生体情報計測手段で計測した生体情報を通信装置により相手の通信装置に送信し、通信装置で受信した生体情報を表示する生体情報表示手段を各データ処理装置に具備することを特徴とする。
【0021】
【発明の実施の形態】
(実施形態1)
以下、図1〜図5を参照して本発明の実施形態1を詳細に説明する。
【0022】
図1に示すように、地理的に離れた複数(本実施形態では2つ)の空間、例えば遠隔地に存在する2つの住居のそれぞれの部屋A,Bに、通信装置並びにデータ処理装置を兼ねるサーバS1,S2を設置し、これら2つのサーバS1,S2同士を通信回線Lsにより接続している。なお、2つのサーバS1,S2を接続する通信回線Lsとしては、マルチメディアデータの伝送に適したxDSLやCATVあるいは光ファイバ等の広帯域(いわゆるブロードバンド)の回線を用いることが望ましい。
【0023】
各部屋A,Bには、天井近傍の四隅にマイクロホン20を設置し、一の壁面全体にスクリーン22を配設するとともにスクリーン22の後方にプロジェクタ21を設置している。また、各部屋A,Bの天井におけるスクリーン22近傍の両隅には一対のスピーカ23を設置し、さらにスクリーン22を配設した壁の裏側にテレビカメラ24を設置している。上記壁並びにスクリーン22には小穴22aが形成してあり、この小穴22aを通してテレビカメラ24により部屋A,Bの内部を撮像している。ここで、図2に示すようにスクリーン22(壁面)の水平方向の中央であって、且つ他方の部屋A,Bを利用する主たる人物H2,H1の立ち居における目の高さ付近に小穴22aを形成している。また、プロジェクタ21の位置や光学系の倍率等を調整することで他方の部屋A,Bの人物H2,H1等をスクリーン22にほぼ等身大で映し出すようにしている。さらに、スクリーン22と対向する壁面には部屋A,Bの照度を計測する照度センサ25、並びに室温を計測する温度センサ26が設置してあり、また温度センサ26で計測した他方の部屋A,Bの温度等を表示するための表示装置27が他の壁面に設置してある。
【0024】
一方、各部屋A,Bに設置するサーバS1,S2は同一の構成を有し、汎用のコンピュータに専用のプログラムを搭載して構成されるものであって、図3に示すように通信回線Lsを介してマルチメディアデータを送受信する通信処理部1と、通信処理部1で送受信するマルチメディアデータを処理するデータ処理部2と、テレビカメラ24で撮像した映像(映像信号)を取り込む映像入力部3と、プロジェクタ21に対して映像情報を出力する映像出力部4と、マイクロホン20で集音した音声(音声信号)を取り込む音声入力部5と、スピーカ23に音声情報(音声信号)を出力する音声出力部6と、照度センサ25のセンサ出力を取り込む照度入力部7と、温度センサ26のセンサ出力を取り込む温度入力部8と、液晶パネルを具備する表示装置27を駆動して温度情報等を表示させるLCD駆動部9とを備えている。ここで、本発明でいう音声には、人の声だけでなく動物の鳴き声や機械の作動音、あるいは風雨の音などの日常生活で人が耳にする音全般が含まれる。
【0025】
映像入力部3はテレビカメラ24から取り込んだ映像信号をデジタルの映像情報(映像データ)に変換してデータ処理部2に出力し、音声入力部5は各マイクロホン20から取り込んだ音声信号をデジタルの音声情報に(音声データ)に変換してデータ処理部2に出力する。また、照度入力部7並びに温度入力部8は、それぞれ照度センサ25及び温度センサ26から取り込んだセンサ出力をデジタルの照度情報(照度データ)及び温度情報(温度データ)に変換してデータ処理部2に出力する。そしてデータ処理部2では、映像入力部3、音声入力部5、照度入力部7並びに温度入力部8が出力する映像情報、音声情報、照度情報並びに温度情報を取り込み、後述するような各種の処理を行って通信処理部1に出力する。通信処理部1はデータ処理部2から受け取った各情報のデータを適宜圧縮し、所定の通信プロトコルに従って通信回線Lsを通して相手のサーバS2,S1に送信する。
【0026】
また通信処理部1では通信回線Lsを通して相手のサーバS2,S1から送信される各情報のデータを受信し、受信したデータを適宜伸長してデータ処理部2に出力する。そして、データ処理部2は通信処理部1から受け取った各情報のデータを処理し、映像出力部4を通じてプロジェクタ21に映像情報を出力することでスクリーン22に映像を映し出すとともに、音声出力部6を通じてスピーカ23に音声情報を出力することで音声を発音させ、さらにLCD駆動部9を通じて表示装置27に温度情報を出力して表示装置27の画面に温度情報を表示させる。なお、通信処理部1並びにデータ処理部2においては各処理を常時且つ遅滞なく行うようにしており、2つのサーバS1,S2間ではほぼリアルタイムにマルチメディアデータ(照度情報並びに温度情報を含む)の授受が行われる。
【0027】
而して、サーバS2,S1間で互いに相手の部屋A,Bの映像や音声の情報(マルチメディアデータ)を授受し、プロジェクタ21によって相手の部屋A,Bの映像をスクリーン22に映し出すと同時に相手の部屋A,Bの音声をスピーカ23から発音しており、しかも、プロジェクタ21によりスクリーン22に映し出される被写体(主に部屋A,Bに居る人物H1’,H2’)を実際の被写体にほぼ等しい大きさ(等身大)としているから、地理的に離れた2つの空間(部屋A,B)の様子をサーバS2,S1間で授受する音声及び映像によってリアルタイムで伝達し、地理的に離れた各部屋A,Bに居る人物H1,H2に互いに相手の人物H1,H2があたかも傍らに居るかのような感覚を与えることができる。また、本実施形態では相手の部屋A,Bの温度情報を表示装置27に表示させているので、相手の部屋A,Bの環境を詳しく把握することが可能となる。但し、表示装置27に表示する情報は温度に限定されるものではなく、部屋A,Bの環境に関わる物理量(例えば湿度等)であればよい。
【0028】
ここで本実施形態においては、スクリーン22に映し出される映像やスピーカ23から聞こえる音声のリアリティを増すために、以下に説明する種々の対策を講じている。
【0029】
まずデータ処理部2では、受信データに含まれる照度情報とシステム設置時に行うキャリブレーションの情報に基づき、スクリーン22に映し出す映像の明るさ(輝度)を相手の部屋A,Bの実際の明るさに一致させるように調整した映像情報を映像出力部4を通じてプロジェクタ21に出力する。そして、プロジェクタ21が受け取った映像情報に応じて輝度を調節してスクリーン22に映像を映し出すことにより、相手の部屋A,Bにおける明るさを体感で認識することができて映像のリアリティが増すものである。
【0030】
上記システム設置時のキャリブレーションでは、映像の送り手側で部屋の明るさを複数段階に変化させ、各段階において、送り手側における照度センサ25による照度計測値と受け手側のスクリーン22近傍における照度計測値とが一致するようにプロジェクタ21の輝度を調節する。さらに、送り手側の照度計測値とスクリーン22に映し出される映像の輝度との関係を、キャリブレーション時における送り手側と受け手側の照度計測値に基づいて一次関数で近似した関係式を求め、該関係式によりデータ処理部2が照度情報に基づいて映像情報の輝度を補正して映像出力部4を通じてプロジェクタ21に出力するようにしている。その結果、システム稼働時においてスクリーン22に映し出される映像の輝度(明るさ)を相手の部屋A,Bの実際の明るさにほぼ一致させることができるものである。
【0031】
またシステム設置時には、音像定位のためのキャリブレーションも行っている。すなわち、図4に示すように部屋A,Bの各辺を四等分し、等分線の交点の内で各辺上にある点を除いた計27個の点Pで個別に信号音を発生させ、そのときに部屋A,Bに設置している複数(4つ)のマイクロホン20で集音した音声信号の位相差と信号音を発生している点Pとの対応関係を示すテーブルを作成してデータ処理部2に記憶させておく。つまり、システム稼働時にはデータ処理部2にて各マイクロホン20で集音する音声信号の位相差を上記テーブルと照合して音源の位置を特定することができ、データ処理部2にて音源位置特定手段を兼ねている。なお、データ処理部2では特定した音源の位置情報(音源位置特定情報)を映像情報や音声情報とともに通信処理部1を通じて相手のサーバS1,S2に送信する。
【0032】
而して、受け手側のサーバ(例えばS1)のデータ処理部2では、例えば従来周知の頭部伝達関数を用いて音声信号の周波数変換を行い、周波数変換後の音声信号を音声出力部6を通じてスピーカ23に出力することにより、図5(a)に示すようにスクリーン22を隔てた隣に仮想的な部屋B’があって、実際の部屋Bの音源位置PB(同図(b)参照)で発生した音が、部屋Aに居る人物H1に音源位置特定情報で示された仮想的な部屋B’において対応する音源位置PB’から聞こえるように感じさせて再現される音声情報のリアリティを増すことができる。
【0033】
また音量についても同様にシステム設置時のキャリブレーションにおいて、音声の送り手側の部屋の中央付近で複数段階の一定の音圧(dB)の信号音を発生させ、各段階において、受け手側のスピーカ23から発する音をマイクロホン20で集音したときの音声の音圧が送り手側のマイクロホン20で集音した音声の音圧と一致するようにスピーカ23における音量を調節する。さらに、送り手側の音量と受け手側のスピーカ23の音量との関係を、キャリブレーション時における送り手側と受け手側の音圧レベルに基づいて一次関数で近似した関係式を求めてデータ処理部2に記憶しておく。
【0034】
一方、システム稼働時には音声入力部5にて計測した音量(マイクロホン20から入力する音声信号の音圧レベル)のデータを相手のサーバS1,S2に送信し、受け側のサーバS1,S2ではデータ処理部2が上記関係式により音量を補正して音声出力部6を通じてスピーカ23に音声信号を出力するようにしている。その結果、システム稼働時においてスピーカ23から発する音声の音量を相手の部屋A,Bの実際の音量にほぼ一致させることができるものである。
【0035】
上述のように構成することにより、地理的に離れた2つの部屋A,Bの隣にそれぞれ仮想的な部屋(共有仮想空間)B’,A’を形成することができ、それぞれの部屋A,Bに居る人物H1,H2には互いに相手が仮想的な隣室B’,A’に存在するかのように感じられ、実際には離れた場所に居ながら仮想的に空間を共有することが可能となる。例えば、一方の部屋Aを一人住まいの老人宅、他方の部屋Bをその子供宅とした場合、従来の監視システムのように子供が親を一方的に監視するのではなく、親(老人)と子供があたかも日常生活を共に過ごしているかの如く感じさせながら、互いの様子を見守ることができる。あるいは、一方の部屋Aを入院患者の病室、他方の部屋Bをその患者の自宅の居間とした場合、家族が病室で付き添うことができないときでも、病室と自宅の居間とがあたかも隣同士に存在するかの如く感じさせながら、家族が患者の様子を見守ることができるとともに患者は常に家族が傍らに居るという安心感が得られる。また、一方の部屋Aを店舗、他方の部屋Bを警察官の居る派出所や警備員の居る居室とした場合、警察官あるいは警備員が店舗内の様子を常に監視し、店員と会話をすることができるから保安体制の強化が図れる。さらに、過疎地域の学校の教室をそれぞれ部屋A,Bとすることで仮想的に生徒数を増やすことができるとともに、生徒同士が容易に交流できる。あるいは、一方の部屋Aを食品を販売する店舗の売場とし、他方の部屋Bをその店舗で販売されている食材の生産地とすれば、店舗で食品を購入する人が当該食品の生産地や生産者の様子を知ることができて食品に対する購入者の安心感を増すことができ、生産者にとっては購入者の反応を把握したり、購入者と交流することができる。
【0036】
ところで、上述の説明では地理的に離れた2つの住居のそれぞれの部屋A,Bに通信装置並びにデータ処理装置を兼ねるサーバS1,S2を設置し、これら2つのサーバS1,S2同士を通信回線Lsにより接続して特定の2つの空間(部屋A,B)で仮想的に空間を共有しているが、図6に示すように片方の部屋Aの4つの壁面にそれぞれプロジェクタ21、スクリーン22及びテレビカメラ24を設置し、この部屋Aと地理的に離れた複数の空間(例えば部屋B,Cや砂浜などの屋外の場所D)に設置したサーバS2…との間でマルチメディアデータの授受を行い、1つの部屋Aの壁に最大4つの空間の映像を映し出すとともにスピーカ23から音を発音するようにしても構わない。例えば、部屋Bの映像を映し出した壁面と対向する壁面に他の部屋Cの映像を映し出し、さらに部屋B,Cの映像を移し出した2つの壁面に挟まれた一方の壁面に、部屋A〜Cから離れた場所(例えば砂浜など)Dの映像を映し出すようにするには、部屋A,Bに設置されるサーバS1,S2やマイクロホン20,テレビカメラ24等を部屋Cや上記場所Dに設置すればよい。但し、砂浜のような場所Dでは相手側にマルチメディアデータを送信するのみでよいから、プロジェクタ21やスクリーン22は不要である。
【0037】
このように1つの部屋Aに設置されたサーバS1と複数の空間B,C,Dに設置された各サーバS2…との間で映像や音声の情報を授受し、複数の空間B〜Dの映像をスクリーン22に映し出すと同時に相手の空間B〜Dの音をスピーカ23から発音すれば、地理的に離れた複数(この場合には4つの空間A〜D)の様子をサーバS1…間で授受する音声及び映像によってリアルタイムで伝達し、地理的に離れた各空間A〜Dに居る人物に互いに相手の人物があたかも傍らに居るかのような感覚を与えて複数の空間A〜Dを仮想的に共有することができる。
【0038】
(実施形態2)
本実施形態におけるサーバS1,S2のブロック図を図7に示す。但し、実施形態1におけるサーバS1,S2と共通の構成要素には同一の符号を付して説明を省略する。
【0039】
本実施形態におけるサーバS1,S2が実施形態1におけるサーバS1,S2と異なる点は、室内に設置された湿度センサ28のセンサ出力を取り込む湿度入力部10と、室内に設置される空調機器30及び加湿器31の動作を制御する機器制御部29とを備える点にある。空調機器30は温度調節機能及び除湿機能を具備する従来周知のものであり、また、加湿器31も湿気を含む空気を吹き出すことで室内を加湿する従来周知のものであって、空調機器30と加湿器31の動作を制御することで室内の温度及び湿度を所望の値に調節することができる。
【0040】
温度入力部8及び湿度入力部10は、それぞれ温度センサ26及び湿度センサ28から取り込んだセンサ出力をデジタルの温度情報(温度データ)並びに湿度情報(湿度データ)に変換してデータ処理部2に出力する。そして、データ処理部2では、映像入力部3、音声入力部5、照度入力部7、温度入力部8並びに湿度入力部10が出力する映像情報、音声情報、照度情報、温度情報並びに湿度情報を取り込み、実施形態1で説明した各種の処理を行って通信処理部1に出力する。通信処理部1はデータ処理部2から受け取った各情報のデータを適宜圧縮し、所定の通信プロトコルに従って通信回線Lsを通して相手のサーバS2,S1に送信する。
【0041】
また通信処理部1では通信回線Lsを通して相手のサーバS2,S1から送信される各情報のデータを受信し、受信したデータを適宜伸長してデータ処理部2に出力する。そしてデータ処理部2では、通信処理部1から受け取った温度情報及び湿度情報を温度入力部8及び湿度入力部10から取り込んだ温度情報及び湿度情報と比較し、両者を一致させるように空調機器30及び加湿器31の動作を制御するための制御情報を作成して機器制御部29に出力する。この制御情報を受け取った機器制御部29が制御情報に基づいて作成される制御信号を空調機器30並びに加湿器31に出力して両者の動作を制御することにより、温度情報及び湿度情報を受信した側の室内の温度及び湿度を、送信側の室内の温度及び湿度に一致させることができ、相手側の温度環境及び湿度環境を体感で把握することができる。
【0042】
ここで、送信側と受信側で温度又は湿度の値が著しく相違する場合、受信側のデータ処理部2では相手側の温度情報及び湿度情報と受信側の温度情報及び湿度情報から温度及び湿度の平均値を算出し、その平均値に一致させるための制御情報を機器制御部29に出力している。その結果、機器制御部29から出力される制御信号で空調機器30及び加湿器31の動作が制御されて受信側の室内の温度及び湿度が上記平均値に一致するように調節されるから、受信側の快適性を損なわずに送信側の温度や湿度の変化の程度を体感で把握することができる。
【0043】
(実施形態3)
本実施形態におけるサーバS1,S2のブロック図を図8に示す。但し、実施形態1におけるサーバS1,S2と共通の構成要素には同一の符号を付して説明を省略する。本実施形態におけるサーバS1,S2が実施形態1におけるサーバS1,S2と異なる点は、スクリーン22の所定箇所に設置される接触式の温度センサ32と、温度センサ32のセンサ出力を取り込む温度入力部11と、スクリーン22の所定箇所に設置される発熱体33と、発熱体33の発熱量を制御する発熱体制御部12とを備える点にある。
【0044】
接触式の温度センサ32はサーミスタ等の抵抗体を利用した従来周知のものであって、図9に示すようにパッド34に内蔵されてスクリーン22の所定箇所に設置され、例えばパッド34に人の額を接触させたときにその温度(体温)を計測するものである。また、発熱体33は通電によって発生するジュール熱を利用するものであって、通電電流の大きさを変化させることで発熱量の制御が行われる。なお、発熱体33は、図10に示すようにスクリーン22の内部全体にマトリクス状に埋込配置される。
【0045】
例えば、一方の部屋Bに居る人物H2がスクリーン22に設置されたパッド34に額を接触させると、パッド34に内蔵された温度センサ32のセンサ出力がサーバS2の温度入力部11に取り込まれ、温度入力部11からデータ処理部2に人物H2の額の温度データが送られる。サーバS2のデータ処理部2は温度入力部11から送られてきた温度データを他のマルチメディアデータとともに通信処理部1から他方の部屋AのサーバS1に送信する。
【0046】
一方、部屋AのサーバS1では、通信処理部1で受信したサーバS2からの温度データがデータ処理部2に送られると、データ処理部2が予め登録されていた他方の部屋Bのパッド34の位置に対応する発熱体33の発熱量を制御する制御データを生成して発熱体制御部12に出力し、発熱体制御部12により通電量を調節することで発熱体33の表面温度をパッド34に接触した人物H2の額の温度にほぼ一致させる。つまり、部屋Aにいる人物H1がスクリーン22に映し出されている相手(人物H2)の額に相当する箇所に手を触れれば、発熱体33の表面温度が人物H2の額の温度にほぼ一致していることから、相手(人物H2)の体温を間接的に感じ取ることができる。
【0047】
このように本実施形態では、スクリーン22の所定箇所に設置した接触式の温度センサ32で計測した温度データをサーバS2からサーバS1に送信し、受信側のサーバS1においてスクリーン22の所定箇所に設置した発熱体33の発熱量を温度データに基づいて制御することにより、発熱体33の表面温度を温度センサ32で検出した温度に一致させ、離れた空間(部屋A,B)に居る人物H1,H2の体温を発熱体33を介して体感することができて相手の体調等をより詳しく把握できるという利点がある。
【0048】
(実施形態4)
本実施形態におけるサーバS1,S2のブロック図を図11に示す。但し、実施形態3におけるサーバS1,S2と共通の構成要素には同一の符号を付して説明を省略する。本実施形態におけるサーバS1,S2が実施形態3におけるサーバS1,S2と異なる点は、スクリーン22の所定箇所に設置される触覚センサ35と、触覚センサ35のセンサ出力を取り込む触覚入力部13とを備える点にある。
【0049】
触覚センサ35は、静電誘導を利用した従来周知のものであって、図12に示すようにスクリーン22の内部全体に発熱体33と隣接してマトリクス状に埋込配置される。
【0050】
例えば、一方の部屋Bに居る人物H2がスクリーン22に手を触れると、人物H2の手が触れた箇所に配置されている触覚センサ35から触覚入力部13にセンサ出力が取り込まれ、さらに触覚入力部13からデータ処理部2に対してセンサ出力を行った触覚入力部13の位置を特定する位置情報が送られる。サーバS2のデータ処理部2は触覚入力部13から送られてきた位置情報を他のマルチメディアデータとともに通信処理部1から他方の部屋AのサーバS1に送信する。
【0051】
一方、部屋AのサーバS1では、通信処理部1で受信したサーバS2からの位置情報がデータ処理部2に送られると、データ処理部2が位置情報でしめされるスクリーン22上の位置、つまり他方の部屋Bの人物H2が触れたスクリーン22上の位置に配置されている発熱体33の発熱量を制御する制御データを生成して発熱体制御部12に出力し、発熱体制御部12により通電量を調節することで発熱体33の表面温度を予め設定されている人肌程度の温度に一致させる。したがって、部屋Aにいる人物H1がスクリーン22に映し出されている相手(人物H2)が手を触れている箇所に手を触れれば、発熱体33の表面温度が人肌程度の温度となっていることから、相手(人物H2)の体温に近い温度を間接的に感じ取ることができる。
【0052】
このように本実施形態では、スクリーン22の所定箇所に設置した触覚センサ35により検出したスクリーン22上の位置情報をサーバS2からサーバS1に送信し、受信側のサーバS1において位置情報に基づきクリーン22上の対応する箇所の発熱体33の発熱量を制御することにより、発熱体33の表面温度を人肌程度の温度とし、離れた空間(部屋A,B)に居る人物H1,H2同士があたかも直接触れ合っているかのようにお互いの体温を発熱体33を介して体感することができ、仮想的に空間を共有しているという認識のリアリティが増し、相手の存在をよりリアルに感じることができる。
【0053】
(実施形態5)
本実施形態は、図13に示すようにペット型のロボットR1,R2を用いたエージェントをサーバS1,S2に具備する点に特徴があり、これ以外の点については実施形態1と共通であるから説明を省略する。
【0054】
本実施形態におけるロボットR1,R2は犬や猫などの小動物を模して作られており、頭部、足、尾の各部位が胴体に対して駆動自在となっている。また、このロボットR1,R2は、図14に示すようにCPUやメモリ並びに各種インタフェース等の周辺回路で構成されるコントロール部50と、信号線Lxを介してサーバS1,S2と通信する通信部51と、上記各部位を駆動する駆動機構部52と、CCDカメラ等からなる撮像部53と、周囲の音を集音するマイク部54と、小動物の鳴き声等の音を出力するスピーカ部55と、頭部に内蔵される接触センサ部56とを備えている。コントロール部50は、撮像部53で撮像した映像情報やマイク部54で集音した音情報、並びに接触センサ部56の検出情報を通信部51から信号線Lxを介してサーバS1,S2に送信するとともに、サーバS1,S2から信号線Lxを介して送信される制御情報に基づいて駆動機構部52を制御して頭部や足等の各部位を駆動したり、あるいはスピーカ部55から鳴き声などを出力させる。
【0055】
一方、各サーバS1,S2のデータ処理部2には、上記映像情報や音情報並びに検出情報等に基づいてロボットR1,R2の行動を決定し、その行動に応じた制御情報を生成するためのエージェントプログラムが実装されており、このエージェントプログラムで生成された制御情報がコントロール部50に送られ、コントロール部50がその制御情報に基づいて駆動機構部52などを制御することでロボットR1,R2が歩行したり、鳴き声を発するといった行動を行う。なお、各サーバS1,S2のデータ処理部2は、通信処理部1を通じてロボットR1,R2の行動決定や制御に関わる情報を授受し合っており、お互いのロボットR1,R2についての上記情報を共有している。
【0056】
例えば、一方の部屋Aの人物H1がロボットR1に呼びかけたり、あるいはロボットR1の頭部に触れると、ロボットR1のコントロール部50がマイク部54で集音した人物H1の声が音情報としてサーバS1に送信されるか、若しくはロボットR1の頭部に内蔵されている接触センサ部56で人物H1の手が触れたことを検出してその検出情報がサーバS1へ送信されると、サーバS1のデータ処理部2に実装されたエージェントプログラムが人物H1の呼びかけや接触に対する応答、例えば「ワン」という鳴き声を出力させるための制御情報を生成し、その制御情報を通信処理部1から信号線Lxを介してロボットR1に送信するとともに、通信線Lsを介して他方の部屋BのサーバS2にも送信する。そして、ロボットR1のコントロール部50はサーバS1から受け取った制御情報に基づいてスピーカ部55を駆動して「ワン」という鳴き声を出力させる。また、上記制御情報を受け取ったサーバS2はその制御情報を部屋Bに居るロボットR2に送信し、ロボットR2のコントロール部50が同じようにマイク部54から「ワン」という鳴き声を出力させる。つまり、2つの部屋A,Bに居るロボットR1,R2は、一方のロボットR1又はR2に生じたイベント(呼びかけや接触など)に対して全く同じ行動をとるように構成されている。
【0057】
また、一方の部屋Aの人物H1がロボットR1に対して「○○(人物H2)のところへ行っておいで」と話しかけたとすると、ロボットR1のコントロール部50がマイク部54で集音した人物H1の声を音情報としてサーバS1に送信し、サーバS1のデータ処理部2が上記音情報に対して自然言語解析処理を行うことでその音情報に含まれるキーワード(例えば「○○(人物H2を特定する呼び名、名前など)」及び「行って」という言葉)を抽出し、それらのキーワードに基づいて他方の部屋Bに居る人物H2に近付く方向へ移動するという行動内容を決定してサーバS2に送信する。さらにサーバS1のデータ処理部2では、決定した上記行動内容に基づいてロボットR1を人物H2’、すなわちスクリーン22に近付く向きに移動させるための制御情報を生成してロボットR1に送信し、この制御情報に応じてコントロール部50が駆動機構部52を制御することでロボットS1がスクリーン22に近付く向きに移動する。
【0058】
一方、他方の部屋BのサーバS2においては、人物H2の位置を確認するためにデータ処理部2がロボットR2を制御して部屋Bの内部の様子を撮像部53で撮像させ、さらに撮像部5の映像情報に対して、予め登録されている人物H2を識別するためのパターンに一致する箇所を探し出すパターンマッチング処理を行うことで部屋Bに居る人物H2の位置を特定し、特定したその位置に近付く方向へ移動するという行動内容を決定する。そして、決定した上記行動内容を実行するための制御情報が生成されてサーバS2のデータ処理部2からロボットR2に送信され、この制御情報に応じてコントロール部50が駆動機構部52を制御することでロボットS2が人物H2に近付く向きに移動する。
【0059】
このようにサーバS1,S2のデータ処理部2に実装されたエージェントプログラムでロボットR1,R2の行動を決定し、2つの部屋A,Bに居るロボットR1,R2が一方のロボットR1又はR2に生じたイベント(呼びかけや接触など)に対して全く同じ行動をとるように制御することによって、あたかも2つの部屋A,Bで同一のロボットR1,R2を仮想的に共有しているかのような感覚が得られる。
【0060】
なお、本実施形態ではエージェントを構成するものとして実体を有するロボットR1,R2を例示したが、例えば、表示装置27の画面上に表示される特定の映像(例えば、ペットを表すキャラクタなど)を利用し、各部屋A,Bの表示装置27に表示されるキャラクタに同一の動きをさせるようにしても同様の効果が得られる。
【0061】
(実施形態6)
本実施形態は、部屋Bに居る人物H2の生体情報である心拍数及び体温を計測する手段をロボットR2に具備し、これらの手段で計測した人物H2の生体情報をマルチメディアデータとともにサーバS2から他の部屋AのサーバS1に送信し、受信側のサーバS1において人物H2の生体情報を表示装置27に表示するようにした点に特徴がある。なお、これ以外の点は実施形態5と共通であるから説明は省略する。
【0062】
図15に示すように、本実施形態におけるロボットR2は人の心拍数を計測する心拍数計測部57と、体温を計測する複数の体温計測部58とを具備している。心拍数計測部57は、例えば図16に示すようにロボットR2の耳に相当する部位に内蔵された一対の電極を有し、これら一対の電極に人の体が接触した状態において血液の脈動に伴って一対の電極間に生じる電位差を検出し、この電位差を増幅した後にノイズ成分を除去することでセンサ出力(心拍データ)を得ている。この心拍データがコントロール部50から通信部51を通じてサーバS2に送信され、サーバS2のデータ処理部2において時系列で得られる心拍データのピーク値の時間間隔から心拍数を演算し、得られた心拍数のデータを他方のサーバS1に送信している。
【0063】
体温計測部58は、接触式の温度センサ32と同様にサーミスタ等の抵抗体を利用した従来周知のものであって、図16に示すように複数の接触センサ部56と共にロボットR2の胴体や足にそれぞれ内蔵されている。コントロール部50は各体温計測部58から出力される温度データを通信部51を通じてサーバS2に送信している。サーバS2のデータ処理部2では、何れかの接触センサ部56の検出情報を受け取ったときにその接触センサ部56に隣接する体温計測部58の温度データを抽出し、複数の温度データのうちから人間の体温に相当する範囲(例えば、34℃〜41℃)に収まる温度データの平均値を体温の計測値として求め、その計測値(体温情報)を他方のサーバS1に送信している。
【0064】
一方、受信側のサーバS1においては、データ処理部2がサーバS2から受け取った心拍数及び体温のデータを表示装置27に表示させており、一方の部屋Aに居る人物H1が他方の部屋Bに居る人物H2の心拍数や体温を知ることができ、離れた部屋A,Bに居る人H1,H2同士が相手の健康状態を容易に把握することができる。
【0065】
【発明の効果】
請求項1の発明は、地理的に離れた複数の空間に設置されて通信回線を介して音声及び映像のデータを含むマルチメディアデータを授受する複数の通信装置と、各空間に設置されて通信装置間で授受するマルチメディアデータをそれぞれ処理する複数のデータ処理装置とを備え、各空間を撮像領域に含む撮像手段と、各空間の音を収集する集音手段と、データ処理装置でデータ処理された映像情報を空間内に提示する映像提示手段と、データ処理装置でデータ処理された音声情報を空間内に発する発音手段とを各データ処理装置に具備し、映像提示手段は、実際の大きさに略等しい大きさで被写体の映像を提示してなるので、地理的に離れた空間の様子を通信装置間で授受する音声及び映像によってリアルタイムで伝達し、しかも映像提示手段によって実際の被写体の大きさに略等しい大きさで映像を提示するため、地理的に離れた複数の空間があたかも隣り合って存在するかのような感覚を与えることができる。
【0066】
請求項2の発明は、請求項1の発明において、特定の2つの空間にそれぞれ通信装置とデータ処理装置を設置したので、地理的に離れた特定の2つの空間があたかも隣り合って存在するかのような感覚を与えることで2つの空間を仮想的に共有することができる。
【0067】
請求項3の発明は、請求項1の発明において、映像提示手段は、複数の空間の映像情報を個別に提示し、発音手段は、複数の空間の音声情報を発するので、地理的に離れた複数の空間があたかも隣り合って存在するかのような感覚を与えることでこれら複数の空間を同時に仮想的に共有することができる。
【0068】
請求項4の発明は、請求項1又は2又は3の発明において、通信装置が常時マルチメディアデータの授受を行うので、互いの空間の様子を常時知ることができて存在感を増すことができる。
【0069】
請求項5の発明は、請求項1〜4の何れかの発明において、一の通信装置が特定の通信装置とのみ通信するので、地理的に離れた特定の2つの空間が常に隣り合って存在するかのように認識することができる。
【0070】
請求項6の発明は、請求項1〜5の何れかの発明において、撮像手段による撮像領域の照度を計測する照度計測手段を各データ処理装置に具備し、データ処理装置は照度計測手段で計測した照度情報を通信装置により相手の通信装置に送信し、映像提示手段は、通信装置で受信した照度情報に基づいて映像情報を提示する提示画面の明るさを調節するので、相手の空間における明るさを体感で認識することができる。
【0071】
請求項7の発明は、請求項1〜6の何れかの発明において、集音手段の集音時における音量を計測する音量計測手段を各データ処理装置に具備し、データ処理装置は音量計測手段で計測した音量情報を通信装置により相手の通信装置に送信し、発音手段は、通信装置で受信した音量情報に基づいて音声情報を発する際の音量を調節するので、相手の空間における音声の大きさを体感で認識することができる。
【0072】
請求項8の発明は、請求項1〜7の何れかの発明において、空間内における音源の位置を特定する音源位置特定手段をデータ処理装置に具備し、データ処理装置は音源位置特定手段で特定した音源位置情報を通信装置により相手の通信装置に送信し、発音手段は、通信装置で受信した音源位置情報に基づいて音源位置を再現するので、再現される音声情報のリアリティを増すことができる。
【0073】
請求項9の発明は、請求項1〜8の何れかの発明において、空間内の環境に関わる物理量を計測する計測手段と、他の空間の計測手段で計測された計測結果を表示する計測結果表示手段とをデータ処理装置に具備するので、相手の空間の環境を詳しく把握することができる。
【0074】
請求項10の発明は、請求項1〜9の何れかの発明において、少なくとも温度を調節する機能を有する空調機器を空間内に設置し、空間内の温度を計測する温度計測手段と、他の空間の温度計測手段で計測された温度の情報に応じて空調機器の動作を制御する空調機器制御手段とをデータ処理装置に具備するので、他の空間の温度環境を体感して把握することができる。
【0075】
請求項11の発明は、請求項1〜10の何れかの発明において、少なくとも湿度を調節する機能を有する空調機器を空間内に設置し、空間内の湿度を計測する湿度計測手段と、他の空間の湿度計測手段で計測された湿度の情報に応じて空調機器の動作を制御する空調機器制御手段とをデータ処理装置に具備するので、他の空間の湿度環境を体感して把握することができる。
【0076】
請求項12の発明は、請求項1〜11の何れかの発明において、映像提示手段によって映像が提示される箇所に設置される接触式の温度センサ又は触覚センサを何れかの空間に設置したデータ処理装置に具備するとともに温度センサで検出した温度のデータ又は触覚センサの検出データをマルチメディアデータとともに送信し、映像提示手段によって映像が提示される箇所に設置される発熱体と、前記温度データ又は検出データに基づいて発熱体の発熱量を制御する発熱体制御手段とを他の何れかの空間に設置したデータ処理装置に具備するので、発熱体の温度を温度センサで検出した温度に一致させることで離れた空間に居る人の体温を発熱体を介して体感することができて相手の体調等をより詳しく把握でき、あるいは、触覚センサにより人が触れたことを検出したときに発熱体の温度を人の体温程度に設定することで離れた空間にいる人同士が直接触れ合っているかのような感覚を持つことができて、仮想的に空間を共有しているという認識のリアリティが増し、相手の存在をよりリアルに感じることができる。
【0077】
請求項13の発明は、請求項1〜12の何れかの発明において、利用者にサービスを提供するエージェントを各データ処理装置に具備し、マルチメディアデータとともに各エージェントのデータを授受して複数のデータ処理装置同士で共有するので、複数の空間で仮想的にエージェントを共有することができ、空間を仮想的に共有しているという感覚を増すことができる。
【0078】
請求項14の発明は、請求項1〜13の何れかの発明において、空間内に居る人の生体情報を計測する生体情報計測手段を各データ処理装置に具備し、データ処理装置は生体情報計測手段で計測した生体情報を通信装置により相手の通信装置に送信し、通信装置で受信した生体情報を表示する生体情報表示手段を各データ処理装置に具備するので、離れた空間にいる人同士が相手の健康状態を容易に把握することができる。
【図面の簡単な説明】
【図1】実施形態1を示すシステム構成図である。
【図2】同上におけるテレビカメラの設置状況を説明する説明図である。
【図3】同上におけるサーバを示すブロック図である。
【図4】同上における部屋を示し、(a)は平面図、(b)は正面図、(c)は側面図である。
【図5】(a)(b)は同上の説明図である。
【図6】同上の他の構成を示す概略図である。
【図7】実施形態2におけるサーバを示すブロック図である。
【図8】実施形態3におけるサーバを示すブロック図である。
【図9】同上における温度センサの設置状況を説明する説明図である。
【図10】同上における発熱体の設置状況を説明する説明図である。
【図11】実施形態4におけるサーバを示すブロック図である。
【図12】同上における発熱体及び触覚センサの設置状況を説明する説明図である。
【図13】実施形態5を示すシステム構成図である。
【図14】同上におけるロボットのブロック図である。
【図15】実施形態6におけるロボットのブロック図である。
【図16】同上におけるロボットの概略構成図である。
【符号の説明】
A,B 部屋
S1,S2 サーバ
Ls 通信回線
20 マイクロホン
21 プロジェクタ
22 スクリーン
23 スピーカ
24 テレビカメラ
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a multimedia communication system for transmitting and receiving multimedia data such as audio and video between a plurality of communication devices.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, a multimedia communication system for transmitting and receiving multimedia data such as audio and video between a plurality of communication apparatuses has been used for the purpose of communicating the state of two geographically separated places with video and audio. . Examples of this type of multimedia communication system include a videophone system that simultaneously transmits audio and video using a telephone line, and a moving image captured by a camera and audio collected by a microphone over a network connected to a computer. There are already provided a system for transmitting data to another computer in real time, a system for attaching a video letter obtained by compressing video and audio recorded in a video to an e-mail or the like, and transmitting the same.
[0003]
[Problems to be solved by the invention]
However, the conventional system as described above has the following problems.
[0004]
First, a system that sends and receives a video letter does not transmit video and audio in real time, so it is not possible to grasp the state of the two places in real time, and the people in each place are able to communicate with each other. Could not be realized.
[0005]
In a video and audio transmission system using a videophone system or a computer, the mutual situation is generally transmitted by a video image projected on a small monitor screen and a sound heard from a speaker. Although it is possible to grasp in real time, it has been difficult to give the people in each place the feeling that the other person is right next to each other.
[0006]
The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a multimedia communication system capable of giving a sense as if a plurality of geographically separated spaces exist adjacent to each other. Is to do.
[0007]
[Means for Solving the Problems]
In order to achieve the above object, the invention according to claim 1 includes a plurality of communication devices that are installed in a plurality of geographically separated spaces and exchange multimedia data including audio and video data via a communication line. A plurality of data processing devices installed in each space and respectively processing multimedia data transmitted and received between communication devices, an imaging unit including each space in an imaging region, and a sound collection unit collecting sound in each space Each data processing device comprises: a video presentation unit that presents video information processed by the data processing device in the space; and a sound generation unit that emits audio information processed by the data processing device into the space. The image presentation means is characterized by presenting an image of the subject with a size substantially equal to the actual size.
[0008]
According to a second aspect of the present invention, in the first aspect, a communication device and a data processing device are installed in two specific spaces.
[0009]
According to a third aspect of the present invention, in the first aspect of the present invention, the video presenting means individually presents video information in a plurality of spaces, and the sounding means emits audio information in a plurality of spaces.
[0010]
According to a fourth aspect of the present invention, in the first, second, or third aspect, the communication device constantly exchanges multimedia data.
[0011]
According to a fifth aspect of the present invention, in any one of the first to fourth aspects, one communication device communicates only with a specific communication device.
[0012]
According to a sixth aspect of the present invention, in any one of the first to fifth aspects, each data processing device includes an illuminance measurement unit that measures illuminance of an imaging region by the imaging unit, and the data processing device measures the illuminance by the illuminance measurement unit. The communication device transmits the illuminance information to the communication device of the other party, and the video presenting unit adjusts the brightness of a presentation screen for presenting the video information based on the illuminance information received by the communication device.
[0013]
According to a seventh aspect of the present invention, in any one of the first to sixth aspects, each data processing device includes a volume measuring unit that measures a volume of the sound collecting unit at the time of sound collection. The communication device transmits the volume information measured by the communication device to the communication device of the other party, and the sounding means adjusts the volume at which the voice information is emitted based on the volume information received by the communication device.
[0014]
According to an eighth aspect of the present invention, in the invention according to any one of the first to seventh aspects, the data processing device is provided with a sound source position specifying means for specifying a position of the sound source in the space, and the data processing device is specified by the sound source position specifying means. The generated sound source position information is transmitted to the communication device of the other party by the communication device, and the sound generator reproduces the sound source position based on the sound source position information received by the communication device.
[0015]
According to a ninth aspect of the present invention, in any one of the first to eighth aspects of the present invention, a measurement unit for measuring a physical quantity relating to an environment in a space and a measurement result for displaying a measurement result measured by a measurement unit in another space. And a display means provided in the data processing device.
[0016]
According to a tenth aspect of the present invention, in any one of the first to ninth aspects, an air conditioner having at least a function of adjusting a temperature is installed in a space, and a temperature measuring means for measuring a temperature in the space, The air conditioner control means for controlling the operation of the air conditioner in accordance with the information on the temperature measured by the space temperature measuring means is provided in the data processing device.
[0017]
An invention according to claim 11 is the invention according to any one of claims 1 to 10, wherein an air conditioner having at least a function of adjusting humidity is installed in the space, and humidity measuring means for measuring the humidity in the space is provided. An air conditioner control means for controlling the operation of the air conditioner in accordance with information on the humidity measured by the space humidity measuring means is provided in the data processing device.
[0018]
According to a twelfth aspect of the present invention, in any one of the first to eleventh aspects, there is provided a data in which a contact-type temperature sensor or a tactile sensor installed at a location where an image is presented by an image presentation means is installed in any space. A heating element provided in the processing device and transmitting the temperature data detected by the temperature sensor or the detection data of the tactile sensor together with the multimedia data, and a heating element installed at a location where an image is presented by the image presentation means, and the temperature data or A heating element control means for controlling a heating value of the heating element based on the detection data is provided in a data processing apparatus installed in any other space.
[0019]
According to a thirteenth aspect of the present invention, in any one of the first to twelfth aspects, an agent for providing a service to a user is provided in each data processing device, and the data of each agent is transmitted and received together with the multimedia data. It is characterized in that it is shared between data processing devices.
[0020]
According to a fourteenth aspect of the present invention, in any one of the first to thirteenth aspects, each of the data processing devices includes a biological information measuring unit that measures biological information of a person in a space, and the data processing device is configured to perform the biological information measurement. Each data processing device is provided with a biological information display unit that transmits the biological information measured by the means to the communication device of the other party by the communication device and displays the biological information received by the communication device.
[0021]
BEST MODE FOR CARRYING OUT THE INVENTION
(Embodiment 1)
Hereinafter, Embodiment 1 of the present invention will be described in detail with reference to FIGS.
[0022]
As shown in FIG. 1, a plurality of (two in this embodiment) geographically separated spaces, for example, rooms A and B of two dwellings located at remote locations also serve as a communication device and a data processing device. Servers S1 and S2 are installed, and these two servers S1 and S2 are connected to each other by a communication line Ls. As the communication line Ls connecting the two servers S1 and S2, it is desirable to use a broadband (so-called broadband) line such as xDSL, CATV, or optical fiber suitable for transmitting multimedia data.
[0023]
In each of the rooms A and B, microphones 20 are installed at four corners near the ceiling, and a screen 22 is arranged on one entire wall surface, and a projector 21 is installed behind the screen 22. Further, a pair of speakers 23 is installed at both corners near the screen 22 on the ceiling of each of the rooms A and B, and a television camera 24 is installed behind the wall where the screen 22 is arranged. A small hole 22a is formed in the wall and the screen 22, and the inside of the rooms A and B is imaged by the television camera 24 through the small hole 22a. Here, as shown in FIG. 2, a small hole 22a is provided at the center in the horizontal direction of the screen 22 (wall surface) and near the eye level when the main persons H2 and H1 who use the other rooms A and B stand. Has formed. Further, by adjusting the position of the projector 21, the magnification of the optical system, and the like, the persons H2, H1 and the like in the other rooms A and B are projected on the screen 22 at substantially the same size. Further, an illuminance sensor 25 for measuring the illuminance of the rooms A and B and a temperature sensor 26 for measuring the room temperature are provided on the wall surface facing the screen 22, and the other rooms A and B measured by the temperature sensor 26. A display device 27 for displaying the temperature or the like is installed on another wall surface.
[0024]
On the other hand, the servers S1 and S2 installed in the rooms A and B have the same configuration, and are configured by mounting a dedicated program on a general-purpose computer, and as shown in FIG. , A data processing unit 2 for processing multimedia data transmitted and received by the communication processing unit 1, and a video input unit for capturing a video (video signal) captured by the television camera 24 3, a video output unit 4 for outputting video information to the projector 21, an audio input unit 5 for receiving audio (audio signal) collected by the microphone 20, and an audio information (audio signal) to the speaker 23. It comprises an audio output unit 6, an illuminance input unit 7 for receiving the sensor output of the illuminance sensor 25, a temperature input unit 8 for receiving the sensor output of the temperature sensor 26, and a liquid crystal panel. And a LCD driver 9 to display the temperature information or the like by driving the display device 27. Here, the voices referred to in the present invention include not only human voices but also general sounds heard by humans in daily life, such as sounds of animals, operating sounds of machines, and sounds of wind and rain.
[0025]
The video input unit 3 converts the video signal captured from the television camera 24 into digital video information (video data) and outputs the digital video information to the data processing unit 2, and the audio input unit 5 converts the audio signal captured from each microphone 20 into a digital signal. It is converted into audio information (audio data) and output to the data processing unit 2. The illuminance input unit 7 and the temperature input unit 8 convert the sensor outputs fetched from the illuminance sensor 25 and the temperature sensor 26 into digital illuminance information (illuminance data) and temperature information (temperature data), respectively. Output to The data processing unit 2 captures video information, audio information, illuminance information, and temperature information output from the video input unit 3, the audio input unit 5, the illuminance input unit 7, and the temperature input unit 8, and performs various types of processing described below. And outputs the result to the communication processing unit 1. The communication processing unit 1 appropriately compresses the data of each information received from the data processing unit 2, and transmits the data to the partner servers S2 and S1 via the communication line Ls according to a predetermined communication protocol.
[0026]
Further, the communication processing unit 1 receives the data of each information transmitted from the partner servers S2 and S1 through the communication line Ls, expands the received data as appropriate, and outputs the data to the data processing unit 2. Then, the data processing unit 2 processes the data of each information received from the communication processing unit 1, outputs video information to the projector 21 through the video output unit 4 to project a video on the screen 22, and outputs the video through the audio output unit 6. By outputting voice information to the speaker 23, a voice is generated, and further, temperature information is output to the display device 27 through the LCD drive unit 9, and the temperature information is displayed on the screen of the display device 27. The communication processing unit 1 and the data processing unit 2 always perform each processing without delay, and the multimedia server (including illuminance information and temperature information) is almost real-time between the two servers S1 and S2. Exchange is performed.
[0027]
Thus, between the servers S2 and S1, video and audio information (multimedia data) of the rooms A and B of the other party are transmitted and received, and the images of the rooms A and B of the other party are projected on the screen 22 by the projector 21. The voices of the rooms A and B of the other party are sounded from the speaker 23, and the subjects (mainly persons H1 ′ and H2 ′ in the rooms A and B) projected on the screen 22 by the projector 21 are almost the actual subjects. Since they have the same size (life-size), the state of two geographically separated spaces (rooms A and B) is transmitted in real time by voice and video exchanged between the servers S2 and S1, and the geographically separated spaces are separated. It is possible to give the persons H1 and H2 in the rooms A and B a feeling as if the persons H1 and H2 of the other party are beside each other. Further, in this embodiment, since the temperature information of the rooms A and B of the partner is displayed on the display device 27, it is possible to grasp the environment of the rooms A and B of the partner in detail. However, the information displayed on the display device 27 is not limited to the temperature, but may be any physical quantity (for example, humidity or the like) related to the environment of the rooms A and B.
[0028]
Here, in the present embodiment, various measures described below are taken in order to increase the reality of the image projected on the screen 22 and the sound heard from the speaker 23.
[0029]
First, the data processing unit 2 adjusts the brightness (brightness) of an image projected on the screen 22 to the actual brightness of the rooms A and B of the other party based on the illuminance information included in the received data and the information of the calibration performed when the system is installed. The video information adjusted to match is output to the projector 21 through the video output unit 4. Then, the brightness is adjusted in accordance with the video information received by the projector 21 and the video is projected on the screen 22, so that the brightness in the rooms A and B of the other party can be recognized with a bodily sensation and the reality of the video increases. It is.
[0030]
In the calibration when the system is installed, the brightness of the room is changed in a plurality of steps on the sender side of the image, and in each step, the illuminance measured by the illuminance sensor 25 on the sender side and the illuminance near the screen 22 on the receiver side are changed. The brightness of the projector 21 is adjusted so that the measured value matches. Further, the relation between the illuminance measurement value on the sender side and the luminance of the image projected on the screen 22 is determined by a linear function approximated by a linear function based on the illuminance measurement values on the sender side and the receiver side at the time of calibration, The data processing unit 2 corrects the brightness of the video information based on the illuminance information and outputs the corrected brightness to the projector 21 through the video output unit 4 using the relational expression. As a result, the brightness (brightness) of the image projected on the screen 22 during operation of the system can be made to substantially match the actual brightness of the rooms A and B of the other party.
[0031]
When the system is installed, calibration for sound image localization is also performed. That is, as shown in FIG. 4, each side of the rooms A and B is divided into four equal parts, and the signal sounds are individually separated at a total of 27 points P excluding points on each side among the intersections of the bisectors. A table showing the correspondence between the phase difference between audio signals collected by a plurality of (four) microphones 20 installed in the rooms A and B at that time and the point P at which the signal sound is generated. It is created and stored in the data processing unit 2. That is, when the system is operating, the data processing unit 2 can identify the position of the sound source by comparing the phase difference of the audio signals collected by the microphones 20 with the above-mentioned table. Also serves as. The data processing unit 2 transmits the specified position information of the sound source (sound source position specifying information) to the partner servers S1 and S2 through the communication processing unit 1 together with the video information and the audio information.
[0032]
The data processing unit 2 of the server on the receiving side (for example, S1) performs frequency conversion of the audio signal using, for example, a conventionally known head-related transfer function, and outputs the audio signal after the frequency conversion through the audio output unit 6. By outputting to the speaker 23, there is a virtual room B ′ next to the screen 22 as shown in FIG. 5A, and the sound source position PB of the actual room B (see FIG. 5B). Increases the reality of the sound information reproduced by making the person H1 in the room A feel as if it can be heard from the corresponding sound source position PB 'in the virtual room B' indicated by the sound source position specifying information. be able to.
[0033]
Similarly, in the calibration at the time of system installation, a signal sound having a constant sound pressure (dB) is generated in a plurality of stages near the center of the room on the sender side, and the speaker on the receiver side is generated at each stage. The volume of the speaker 23 is adjusted such that the sound pressure of the sound collected by the microphone 20 when the sound emitted from the microphone 23 is collected by the microphone 20 matches the sound pressure of the sound collected by the microphone 20 on the sender side. Further, the data processing unit obtains a relational expression which approximates the relationship between the volume of the sender side and the volume of the speaker 23 of the receiver side by a linear function based on the sound pressure levels of the sender side and the receiver side at the time of calibration. 2 is stored.
[0034]
On the other hand, when the system is operating, the data of the volume (the sound pressure level of the audio signal input from the microphone 20) measured by the audio input unit 5 is transmitted to the other servers S1 and S2, and the receiving servers S1 and S2 perform data processing. The unit 2 corrects the volume according to the above relational expression and outputs an audio signal to the speaker 23 through the audio output unit 6. As a result, the volume of the sound emitted from the speaker 23 during the operation of the system can be made to substantially match the actual volume of the rooms A and B of the other party.
[0035]
With the configuration described above, virtual rooms (shared virtual spaces) B ′ and A ′ can be formed next to the two rooms A and B that are geographically separated from each other. Persons H1 and H2 in B feel as if each other exists in virtual neighboring rooms B 'and A', and they can virtually share space while actually being away from each other. It becomes. For example, if one room A is an elderly home where one person lives and the other room B is a child's home, the child does not monitor the parent unilaterally as in the conventional monitoring system, but rather the parent (elder). Children can watch each other while making them feel as if they are living together in daily life. Alternatively, if one room A is a hospital room of an inpatient and the other room B is a living room of the patient's home, even if a family member cannot be present in the hospital room, the hospital room and the living room of the home exist as if they are next to each other. The family can watch the state of the patient while feeling as if they are doing it, and the patient can have a sense of security that the family is always beside him. If one room A is a store and the other room B is a police station where police officers are present and a guard is present, the police officers or security officers should constantly monitor the inside of the store and talk with the staff. Can strengthen the security system. Further, by setting the classrooms of the schools in the depopulated area to the rooms A and B, respectively, the number of students can be virtually increased, and the students can easily exchange with each other. Alternatively, if one room A is a sales floor of a store that sells food, and the other room B is a production site of foodstuffs sold in the store, a person who purchases food at the store may be able to use the food production site or It is possible to know the state of the producer and increase the sense of security of the purchaser for the food, and the producer can grasp the reaction of the purchaser and interact with the purchaser.
[0036]
By the way, in the above description, servers S1 and S2, which also serve as a communication device and a data processing device, are installed in rooms A and B of two houses geographically separated from each other, and these two servers S1 and S2 are connected to each other via a communication line Ls. , The two specific spaces (rooms A and B) virtually share the space. However, as shown in FIG. A camera 24 is installed, and multimedia data is exchanged between the room A and servers S2 installed in a plurality of geographically distant spaces (for example, rooms B and C and outdoor places D such as sand beaches). Alternatively, images of up to four spaces may be projected on the wall of one room A and sound may be emitted from the speaker 23. For example, an image of another room C is projected on a wall opposite to a wall on which an image of the room B is projected, and one of the walls A and B is sandwiched between two walls from which the images of the rooms B and C are transferred. In order to project an image of a place D away from C (for example, a sand beach), the servers S1 and S2, the microphone 20, the television camera 24, and the like installed in the rooms A and B are installed in the room C and the place D. do it. However, in a place D such as a sandy beach, only the multimedia data needs to be transmitted to the other party, so that the projector 21 and the screen 22 are unnecessary.
[0037]
Thus, video and audio information is exchanged between the server S1 installed in one room A and each server S2 installed in the plurality of spaces B, C, D, and When the image is projected on the screen 22 and at the same time the sound of the other party's space B to D is generated from the speaker 23, a plurality of geographically separated (in this case, four spaces A to D) states are shared between the servers S1. A plurality of spaces A to D are transmitted in real time by transmitting and receiving voices and images in real time to give a person in each of the geographically separated spaces A to D a sense as if the other person is present beside each other. Can be shared.
[0038]
(Embodiment 2)
FIG. 7 shows a block diagram of the servers S1 and S2 in the present embodiment. However, the same components as those of the servers S1 and S2 in the first embodiment are denoted by the same reference numerals, and description thereof is omitted.
[0039]
The difference between the servers S1 and S2 in the present embodiment from the servers S1 and S2 in the first embodiment is that the humidity input unit 10 that receives the sensor output of the humidity sensor 28 installed indoors, the air conditioner 30 installed indoors, It is provided with a device control unit 29 that controls the operation of the humidifier 31. The air conditioner 30 is a conventionally well-known device having a temperature control function and a dehumidifying function, and the humidifier 31 is a conventionally well-known device that humidifies the interior by blowing air containing moisture. By controlling the operation of the humidifier 31, the indoor temperature and humidity can be adjusted to desired values.
[0040]
The temperature input unit 8 and the humidity input unit 10 convert sensor outputs taken from the temperature sensor 26 and the humidity sensor 28 into digital temperature information (temperature data) and humidity information (humidity data) and output the data to the data processing unit 2. I do. In the data processing unit 2, the video information, the audio information, the illuminance information, the temperature information, and the humidity information output by the video input unit 3, the audio input unit 5, the illuminance input unit 7, the temperature input unit 8, and the humidity input unit 10 are output. It takes in, performs various processes described in the first embodiment, and outputs it to the communication processing unit 1. The communication processing unit 1 appropriately compresses the data of each information received from the data processing unit 2, and transmits the data to the partner servers S2 and S1 via the communication line Ls according to a predetermined communication protocol.
[0041]
Further, the communication processing unit 1 receives the data of each information transmitted from the partner servers S2 and S1 through the communication line Ls, expands the received data as appropriate, and outputs the data to the data processing unit 2. Then, the data processing unit 2 compares the temperature information and the humidity information received from the communication processing unit 1 with the temperature information and the humidity information acquired from the temperature input unit 8 and the humidity input unit 10, and controls the air conditioner 30 so as to match the two. And the control information for controlling the operation of the humidifier 31 is created and output to the device control unit 29. The device control unit 29 having received the control information outputs the control signal generated based on the control information to the air conditioner 30 and the humidifier 31 to control the operation of both, thereby receiving the temperature information and the humidity information. The temperature and the humidity in the room on the side can be matched with the temperature and the humidity in the room on the transmission side, and the temperature environment and the humidity environment on the other side can be grasped with a bodily sensation.
[0042]
Here, when the values of the temperature or the humidity are significantly different between the transmitting side and the receiving side, the data processing unit 2 on the receiving side obtains the temperature and the humidity based on the temperature information and the humidity information on the other side and the temperature information and the humidity information on the receiving side. The average value is calculated, and control information for matching the average value is output to the device control unit 29. As a result, the operation of the air conditioner 30 and the humidifier 31 is controlled by the control signal output from the device control unit 29, and the temperature and humidity in the room on the receiving side are adjusted to match the above average values. The degree of change in the temperature and humidity on the transmitting side can be grasped with a bodily sensation without impairing the comfort on the side.
[0043]
(Embodiment 3)
FIG. 8 shows a block diagram of the servers S1 and S2 in the present embodiment. However, the same components as those of the servers S1 and S2 in the first embodiment are denoted by the same reference numerals, and description thereof is omitted. The difference between the servers S1 and S2 in the present embodiment from the servers S1 and S2 in the first embodiment is that a contact-type temperature sensor 32 installed at a predetermined position on the screen 22 and a temperature input unit that captures the sensor output of the temperature sensor 32 11, a heating element 33 provided at a predetermined location on the screen 22, and a heating element control unit 12 for controlling the amount of heat generated by the heating element 33.
[0044]
The contact-type temperature sensor 32 is a well-known sensor using a resistor such as a thermistor. The contact-type temperature sensor 32 is built in a pad 34 and installed at a predetermined position on the screen 22 as shown in FIG. When the forehead is brought into contact, the temperature (body temperature) is measured. The heating element 33 uses Joule heat generated by energization, and the amount of heat generation is controlled by changing the magnitude of the energizing current. Note that the heating elements 33 are embedded in a matrix in the entire screen 22 as shown in FIG.
[0045]
For example, when the person H2 in one room B makes contact with the forehead on the pad 34 provided on the screen 22, the sensor output of the temperature sensor 32 built in the pad 34 is taken into the temperature input unit 11 of the server S2, The temperature data of the forehead of the person H2 is sent from the temperature input unit 11 to the data processing unit 2. The data processing unit 2 of the server S2 transmits the temperature data sent from the temperature input unit 11 together with other multimedia data from the communication processing unit 1 to the server S1 in the other room A.
[0046]
On the other hand, in the server S1 in the room A, when the temperature data from the server S2 received by the communication processing unit 1 is sent to the data processing unit 2, the data processing unit 2 receives the temperature data of the pad 34 in the other room B, which has been registered in advance. Control data for controlling the amount of heat generated by the heating element 33 corresponding to the position is generated and output to the heating element control unit 12, and the surface temperature of the heating element 33 is adjusted by the heating element control unit 12 to control the surface temperature of the pad 34. Is almost equal to the temperature of the forehead of the person H2 who has contacted. In other words, if the person H1 in the room A touches the part corresponding to the forehead of the other party (person H2) projected on the screen 22, the surface temperature of the heating element 33 becomes almost equal to the temperature of the forehead of the person H2. As a result, the body temperature of the other party (person H2) can be indirectly sensed.
[0047]
As described above, in the present embodiment, the temperature data measured by the contact-type temperature sensor 32 installed at a predetermined location on the screen 22 is transmitted from the server S2 to the server S1, and is installed at the predetermined location on the screen 22 in the server S1 on the receiving side. By controlling the amount of heat generated by the heating element 33 based on the temperature data, the surface temperature of the heating element 33 is made to match the temperature detected by the temperature sensor 32, and the persons H1 and H1 located in separate spaces (rooms A and B) are separated. There is an advantage that the body temperature of H2 can be sensed through the heating element 33 and the physical condition of the other party can be grasped in more detail.
[0048]
(Embodiment 4)
FIG. 11 shows a block diagram of the servers S1 and S2 in the present embodiment. However, the same components as those of the servers S1 and S2 in the third embodiment are denoted by the same reference numerals, and description thereof is omitted. The difference between the servers S1 and S2 according to the present embodiment from the servers S1 and S2 according to the third embodiment is that a tactile sensor 35 installed at a predetermined position on the screen 22 and a tactile input unit 13 that captures a sensor output of the tactile sensor 35 are provided. The point is to prepare.
[0049]
The tactile sensor 35 is a conventionally known sensor using electrostatic induction. As shown in FIG. 12, the tactile sensor 35 is embedded in a matrix adjacent to the heating element 33 over the entire inside of the screen 22.
[0050]
For example, when the person H2 in one room B touches the screen 22 with his / her hand, the sensor output is taken into the tactile input unit 13 from the tactile sensor 35 disposed at the place where the hand of the person H2 touches, and the tactile input is further performed. The position information for specifying the position of the tactile input unit 13 that has performed the sensor output is transmitted from the unit 13 to the data processing unit 2. The data processing unit 2 of the server S2 transmits the position information sent from the tactile input unit 13 together with other multimedia data from the communication processing unit 1 to the server S1 in the other room A.
[0051]
On the other hand, in the server S1 in the room A, when the position information from the server S2 received by the communication processing unit 1 is sent to the data processing unit 2, the position on the screen 22 where the data processing unit 2 is indicated by the position information, Control data for controlling the amount of heat generated by the heating element 33 disposed at the position on the screen 22 touched by the person H2 in the other room B is generated and output to the heating element control unit 12, and the generated data is output from the heating element control unit 12. By adjusting the amount of current, the surface temperature of the heating element 33 is made to match a preset temperature of human skin. Therefore, if the person H1 in the room A touches the place where the partner (person H2) projected on the screen 22 touches the hand, the surface temperature of the heating element 33 becomes the temperature of the human skin. Therefore, it is possible to indirectly sense a temperature close to the body temperature of the other party (person H2).
[0052]
As described above, in the present embodiment, the position information on the screen 22 detected by the tactile sensor 35 provided at a predetermined position on the screen 22 is transmitted from the server S2 to the server S1, and the server 22 on the receiving side performs the clean 22 based on the position information. By controlling the amount of heat generated by the heating element 33 at the corresponding location above, the surface temperature of the heating element 33 is set to a temperature similar to human skin, and the persons H1 and H2 in separate spaces (rooms A and B) are as if each other. It is possible to sense each other's body temperature via the heating element 33 as if they are directly touching each other, increasing the reality of realizing that they are sharing a virtual space, and feeling the presence of the other party more realistically. .
[0053]
(Embodiment 5)
This embodiment is characterized in that agents using pet-type robots R1 and R2 are provided in the servers S1 and S2 as shown in FIG. 13, and the other points are common to the first embodiment. Description is omitted.
[0054]
The robots R1 and R2 in the present embodiment are made by imitating small animals such as dogs and cats, and each part of the head, feet and tail is freely drivable with respect to the trunk. Further, as shown in FIG. 14, the robots R1 and R2 include a control unit 50 composed of peripheral circuits such as a CPU, a memory, and various interfaces, and a communication unit 51 that communicates with the servers S1 and S2 via a signal line Lx. A driving mechanism 52 for driving each of the above-described parts, an imaging unit 53 including a CCD camera or the like, a microphone unit 54 for collecting surrounding sounds, and a speaker unit 55 for outputting sounds such as the sound of small animals, And a contact sensor unit 56 built in the head. The control unit 50 transmits the video information captured by the imaging unit 53, the sound information collected by the microphone unit 54, and the detection information of the contact sensor unit 56 from the communication unit 51 to the servers S1 and S2 via the signal line Lx. At the same time, the driving mechanism 52 is controlled based on the control information transmitted from the servers S1 and S2 via the signal line Lx to drive each part such as the head and the foot, or to generate a cry from the speaker 55. Output.
[0055]
On the other hand, the data processing unit 2 of each of the servers S1 and S2 determines the behavior of the robots R1 and R2 based on the video information, the sound information, the detection information, and the like, and generates control information according to the behavior. An agent program is installed, and control information generated by the agent program is sent to the control unit 50, and the control unit 50 controls the drive mechanism 52 and the like based on the control information, so that the robots R1 and R2 Perform actions such as walking and singing. Note that the data processing units 2 of the servers S1 and S2 exchange information related to the action determination and control of the robots R1 and R2 through the communication processing unit 1 and share the above information about the robots R1 and R2. are doing.
[0056]
For example, when the person H1 in one room A calls the robot R1 or touches the head of the robot R1, the control unit 50 of the robot R1 collects the voice of the person H1 collected by the microphone unit 54 as sound information on the server S1. Or when the contact information of the person H1 is detected by the contact sensor unit 56 incorporated in the head of the robot R1 and the detection information is transmitted to the server S1, the data of the server S1 is transmitted. An agent program installed in the processing unit 2 generates control information for outputting a response to the call or contact of the person H1, for example, a singing "one", and transmits the control information from the communication processing unit 1 via the signal line Lx. To the robot R1, and also to the server S2 in the other room B via the communication line Ls. Then, the control unit 50 of the robot R1 drives the speaker unit 55 based on the control information received from the server S1 to output a singing sound of “one”. Further, the server S2 that has received the control information transmits the control information to the robot R2 located in the room B, and the control unit 50 of the robot R2 causes the microphone unit 54 to output a singing “one” in the same manner. That is, the robots R1 and R2 in the two rooms A and B are configured to take exactly the same action in response to an event (such as a call or a contact) that has occurred in one of the robots R1 or R2.
[0057]
Further, if the person H1 in one room A speaks to the robot R1, "Please go to OO (person H2)", the control unit 50 of the robot R1 collects the person H1 collected by the microphone unit 54. Is transmitted to the server S1 as sound information, and the data processing unit 2 of the server S1 performs a natural language analysis process on the sound information to obtain a keyword included in the sound information (for example, “XX (person H2 (Names to be specified, names, etc.) "and" go "are extracted), and based on those keywords, the action content of moving in the direction approaching the person H2 in the other room B is determined and the server S2 is determined. Send. Further, the data processing unit 2 of the server S1 generates control information for moving the robot R1 in a direction approaching the person H2 ′, that is, the screen 22, based on the determined action content, and transmits the generated control information to the robot R1. When the control unit 50 controls the drive mechanism unit 52 according to the information, the robot S1 moves in a direction approaching the screen 22.
[0058]
On the other hand, in the server S2 of the other room B, the data processing unit 2 controls the robot R2 to confirm the position of the person H2 so that the state inside the room B is imaged by the image pickup unit 53, and further, the image pickup unit 5 For the video information, the position of the person H2 in the room B is specified by performing a pattern matching process of searching for a portion that matches a pattern for identifying the person H2 registered in advance, and the specified position is determined. The action content of moving in the approaching direction is determined. Then, control information for executing the determined action content is generated and transmitted from the data processing unit 2 of the server S2 to the robot R2, and the control unit 50 controls the drive mechanism unit 52 according to the control information. Moves the robot S2 in a direction approaching the person H2.
[0059]
As described above, the actions of the robots R1 and R2 are determined by the agent program installed in the data processing unit 2 of the servers S1 and S2, and the robots R1 and R2 in the two rooms A and B are generated in one of the robots R1 and R2. By controlling the robot to take exactly the same action in response to an event (call, contact, etc.), it is possible to feel as if two rooms A and B share the same robot R1 and R2 virtually. can get.
[0060]
In the present embodiment, the robots R1 and R2 having an entity are illustrated as constituents of the agent. However, for example, a specific image (for example, a character representing a pet or the like) displayed on the screen of the display device 27 is used. The same effect can be obtained by causing the characters displayed on the display devices 27 of the rooms A and B to make the same movement.
[0061]
(Embodiment 6)
In the present embodiment, the robot R2 includes means for measuring the heart rate and the body temperature, which are the biological information of the person H2 in the room B, and the biological information of the person H2 measured by these means is transmitted from the server S2 together with the multimedia data. It is characterized in that the information is transmitted to the server S1 in another room A, and the biological information of the person H2 is displayed on the display device 27 in the server S1 on the receiving side. The other points are the same as those of the fifth embodiment, and the description is omitted.
[0062]
As shown in FIG. 15, the robot R2 according to the present embodiment includes a heart rate measurement unit 57 that measures a human heart rate, and a plurality of body temperature measurement units 58 that measure body temperature. The heart rate measuring unit 57 has a pair of electrodes built in a portion corresponding to the ear of the robot R2, for example, as shown in FIG. The sensor output (heart rate data) is obtained by detecting the potential difference generated between the pair of electrodes and removing the noise component after amplifying the potential difference. The heart rate data is transmitted from the control unit 50 to the server S2 via the communication unit 51, and the data processing unit 2 of the server S2 calculates the heart rate from the time interval of the peak value of the heart rate data obtained in time series, and obtains the obtained heart rate. The number of data is transmitted to the other server S1.
[0063]
The body temperature measuring section 58 is a conventionally known one using a resistor such as a thermistor similarly to the contact-type temperature sensor 32, and as shown in FIG. Each is built in. The control unit 50 transmits the temperature data output from each body temperature measurement unit 58 to the server S2 via the communication unit 51. In the data processing unit 2 of the server S2, when the detection information of any one of the contact sensor units 56 is received, the temperature data of the body temperature measuring unit 58 adjacent to the contact sensor unit 56 is extracted, and from among the plurality of temperature data. An average value of temperature data falling within a range (for example, 34 ° C. to 41 ° C.) corresponding to a human body temperature is obtained as a measured value of the body temperature, and the measured value (body temperature information) is transmitted to the other server S1.
[0064]
On the other hand, in the server S1 on the receiving side, the data processing unit 2 displays the data of the heart rate and the body temperature received from the server S2 on the display device 27, and the person H1 in one room A moves to the other room B. The heart rate and the body temperature of the person H2 can be known, and the people H1 and H2 in the rooms A and B can easily grasp the health condition of each other.
[0065]
【The invention's effect】
The invention according to claim 1 is provided with a plurality of communication devices which are installed in a plurality of geographically separated spaces and exchange multimedia data including audio and video data via a communication line, and which are installed in each space and communicate with each other. A plurality of data processing devices for processing multimedia data transmitted and received between the devices; an imaging unit including each space in an imaging area; a sound collection unit for collecting sound in each space; Each data processing device has a video presenting means for presenting the obtained video information in the space, and a sounding means for emitting audio information processed in the data processing device in the space, and the video presenting means has an actual size. Since the image of the subject is presented in a size approximately equal to the size of the subject, the situation of the geographically distant space is transmitted in real time by voice and video transmitted and received between the communication devices, and the video presenter Indeed for presenting images with substantially equal size to the size of the subject, it can give a feeling as if the plurality of space geographically separated are present adjacent though by.
[0066]
According to a second aspect of the present invention, in the first aspect of the present invention, the communication device and the data processing device are respectively installed in two specific spaces, so that two specific geographically separated spaces exist as if they are adjacent to each other. By giving such a feeling, the two spaces can be virtually shared.
[0067]
According to a third aspect of the present invention, in the first aspect, the video presenting means individually presents video information in a plurality of spaces, and the sounding means emits audio information in a plurality of spaces. By giving a sense as if a plurality of spaces exist adjacent to each other, the plurality of spaces can be virtually shared simultaneously.
[0068]
According to a fourth aspect of the present invention, in the first, second or third aspect of the present invention, since the communication device constantly exchanges multimedia data, it is possible to always know the state of each other's space and increase the presence. .
[0069]
According to a fifth aspect of the present invention, in the invention of any one of the first to fourth aspects, since one communication device communicates only with a specific communication device, two specific geographically separated spaces always exist adjacent to each other. It can be recognized as if it were.
[0070]
According to a sixth aspect of the present invention, in any one of the first to fifth aspects, each data processing device includes an illuminance measurement unit that measures illuminance of an imaging region by the imaging unit, and the data processing device measures the illuminance by the illuminance measurement unit. The communication device transmits the illuminance information to the communication device of the other party, and the video presenting unit adjusts the brightness of the presentation screen for presenting the video information based on the illuminance information received by the communication device. It can be recognized by feeling.
[0071]
According to a seventh aspect of the present invention, in any one of the first to sixth aspects, each data processing device includes a volume measuring unit that measures a volume of the sound collecting unit at the time of sound collection. The communication device transmits the volume information measured by the communication device to the communication device of the other party, and the sounding means adjusts the volume at which the sound information is emitted based on the volume information received by the communication device. It can be recognized by feeling.
[0072]
According to an eighth aspect of the present invention, in the invention according to any one of the first to seventh aspects, the data processing device is provided with a sound source position specifying means for specifying a position of the sound source in the space, and the data processing device is specified by the sound source position specifying means. The transmitted sound source position information is transmitted to the communication device of the other party by the communication device, and the sound generation unit reproduces the sound source position based on the sound source position information received by the communication device. Therefore, the reality of the reproduced sound information can be increased. .
[0073]
According to a ninth aspect of the present invention, in any one of the first to eighth aspects of the present invention, a measurement unit for measuring a physical quantity relating to an environment in a space and a measurement result for displaying a measurement result measured by a measurement unit in another space. Since the data processing device is provided with the display means, the environment of the other party's space can be grasped in detail.
[0074]
According to a tenth aspect of the present invention, in any one of the first to ninth aspects, an air conditioner having at least a function of adjusting a temperature is installed in a space, and a temperature measuring means for measuring a temperature in the space, Since the data processing device includes an air conditioner control unit that controls the operation of the air conditioner according to the information on the temperature measured by the space temperature measurement unit, it is possible to experience and grasp the temperature environment of other spaces. it can.
[0075]
An invention according to claim 11 is the invention according to any one of claims 1 to 10, wherein an air conditioner having at least a function of adjusting humidity is installed in the space, and humidity measuring means for measuring the humidity in the space is provided. Since the data processing device is provided with an air conditioner control unit that controls the operation of the air conditioner according to the information on the humidity measured by the humidity sensor in the space, it is possible to experience and grasp the humidity environment in other spaces. it can.
[0076]
According to a twelfth aspect of the present invention, in any one of the first to eleventh aspects, there is provided a data in which a contact-type temperature sensor or a tactile sensor installed at a location where an image is presented by an image presentation means is installed in any space. A heating element provided in the processing device and transmitting the temperature data detected by the temperature sensor or the detection data of the tactile sensor together with the multimedia data, and a heating element installed at a location where an image is presented by the image presentation means, and the temperature data or Since the heating element control means for controlling the heating value of the heating element based on the detection data is provided in the data processing device installed in any other space, the temperature of the heating element is made to match the temperature detected by the temperature sensor. This makes it possible to sense the body temperature of a person in a distant space via a heating element, and to understand the physical condition of the other person in more detail, or to use a tactile sensor. By setting the temperature of the heating element to about the human body temperature when detecting that a person has touched, it is possible to have a feeling as if people in distant spaces are in direct contact with each other, virtually The reality of the recognition of sharing the space increases, and the presence of the opponent can be felt more realistically.
[0077]
According to a thirteenth aspect of the present invention, in any one of the first to twelfth aspects, an agent for providing a service to a user is provided in each data processing device, and the data of each agent is transmitted and received together with the multimedia data. Since the data processing devices are shared, the agents can be virtually shared in a plurality of spaces, and the sense of virtually sharing the spaces can be increased.
[0078]
According to a fourteenth aspect of the present invention, in any one of the first to thirteenth aspects, each of the data processing devices includes a biological information measuring unit that measures biological information of a person in a space, and the data processing device is configured to perform the biological information measurement. The biological information measured by the means is transmitted to the communication device of the other party by the communication device, and the biological information display means for displaying the biological information received by the communication device is provided in each data processing device. It is possible to easily grasp the health condition of the other party.
[Brief description of the drawings]
FIG. 1 is a system configuration diagram showing a first embodiment.
FIG. 2 is an explanatory diagram illustrating an installation state of a television camera in the above.
FIG. 3 is a block diagram showing a server in the embodiment.
FIGS. 4A and 4B show a room in the above, wherein FIG. 4A is a plan view, FIG. 4B is a front view, and FIG.
FIGS. 5A and 5B are explanatory diagrams of the above.
FIG. 6 is a schematic diagram showing another configuration of the above.
FIG. 7 is a block diagram illustrating a server according to a second embodiment.
FIG. 8 is a block diagram illustrating a server according to a third embodiment.
FIG. 9 is an explanatory diagram illustrating an installation state of the temperature sensor in the above.
FIG. 10 is an explanatory diagram illustrating an installation state of a heating element in Embodiment 1;
FIG. 11 is a block diagram illustrating a server according to a fourth embodiment.
FIG. 12 is an explanatory diagram illustrating the installation state of the heating element and the tactile sensor in the above.
FIG. 13 is a system configuration diagram showing a fifth embodiment.
FIG. 14 is a block diagram of the robot in the above.
FIG. 15 is a block diagram of a robot according to a sixth embodiment.
FIG. 16 is a schematic configuration diagram of the robot in the above.
[Explanation of symbols]
A and B rooms
S1, S2 server
Ls communication line
20 microphones
21 Projector
22 screen
23 Speaker
24 TV camera

Claims (14)

地理的に離れた複数の空間に設置されて通信回線を介して音声及び映像のデータを含むマルチメディアデータを授受する複数の通信装置と、各空間に設置されて通信装置間で授受するマルチメディアデータをそれぞれ処理する複数のデータ処理装置とを備え、各空間を撮像領域に含む撮像手段と、各空間の音を収集する集音手段と、データ処理装置でデータ処理された映像情報を空間内に提示する映像提示手段と、データ処理装置でデータ処理された音声情報を空間内に発する発音手段とを各データ処理装置に具備し、映像提示手段は、実際の大きさに略等しい大きさで被写体の映像を提示してなることを特徴とするマルチメディア通信システム。A plurality of communication devices that are installed in a plurality of geographically separated spaces and exchange multimedia data including audio and video data via a communication line, and a multimedia that is installed in each space and exchanges communication data between the communication devices. A plurality of data processing devices for processing data; an imaging unit including each space in an imaging region; a sound collection unit for collecting sound in each space; and video information processed by the data processing device in the space. Each data processing device is provided with a video presenting means for presenting the sound information and a sounding means for emitting sound information processed by the data processing device into a space, and the video presenting means has a size substantially equal to an actual size. A multimedia communication system characterized by presenting an image of a subject. 特定の2つの空間にそれぞれ通信装置とデータ処理装置を設置したことを特徴とする請求項1記載のマルチメディア通信システム。2. The multimedia communication system according to claim 1, wherein a communication device and a data processing device are respectively installed in two specific spaces. 映像提示手段は、複数の空間の映像情報を個別に提示し、発音手段は、複数の空間の音声情報を発することを特徴とする請求項1記載のマルチメディア通信システム。2. The multimedia communication system according to claim 1, wherein the video presentation unit individually presents video information in a plurality of spaces, and the sounding unit emits audio information in a plurality of spaces. 通信装置が常時マルチメディアデータの授受を行うことを特徴とする請求項1又は2又は3記載のマルチメディア通信システム。4. The multimedia communication system according to claim 1, wherein the communication device constantly exchanges multimedia data. 一の通信装置が特定の通信装置とのみ通信することを特徴とする請求項1〜4の何れかに記載のマルチメディア通信システム。The multimedia communication system according to any one of claims 1 to 4, wherein one communication device communicates only with a specific communication device. 撮像手段による撮像領域の照度を計測する照度計測手段を各データ処理装置に具備し、データ処理装置は照度計測手段で計測した照度情報を通信装置により相手の通信装置に送信し、映像提示手段は、通信装置で受信した照度情報に基づいて映像情報を提示する提示画面の明るさを調節することを特徴とする請求項1〜5の何れかに記載のマルチメディア通信システム。Each data processing device is provided with an illuminance measurement unit that measures the illuminance of the imaging region by the imaging unit, the data processing device transmits the illuminance information measured by the illuminance measurement unit to the communication device of the other party by the communication device, and the video presentation unit The multimedia communication system according to any one of claims 1 to 5, wherein brightness of a presentation screen for presenting video information is adjusted based on illuminance information received by the communication device. 集音手段の集音時における音量を計測する音量計測手段を各データ処理装置に具備し、データ処理装置は音量計測手段で計測した音量情報を通信装置により相手の通信装置に送信し、発音手段は、通信装置で受信した音量情報に基づいて音声情報を発する際の音量を調節することを特徴とする請求項1〜6の何れかに記載のマルチメディア通信システム。Each data processing device is provided with a sound volume measuring means for measuring the sound volume of the sound collecting device at the time of sound collection, and the data processing device transmits the sound volume information measured by the sound volume measuring device to the communication device of the other party by the communication device, The multimedia communication system according to any one of claims 1 to 6, further comprising: adjusting a volume at which the voice information is emitted based on the volume information received by the communication device. 空間内における音源の位置を特定する音源位置特定手段をデータ処理装置に具備し、データ処理装置は音源位置特定手段で特定した音源位置情報を通信装置により相手の通信装置に送信し、発音手段は、通信装置で受信した音源位置情報に基づいて音源位置を再現することを特徴とする請求項1〜7の何れかに記載のマルチメディア通信システム。The data processing device includes a sound source position specifying unit that specifies the position of the sound source in the space, the data processing device transmits the sound source position information specified by the sound source position specifying unit to the communication device of the other party by the communication device, The multimedia communication system according to any one of claims 1 to 7, wherein the sound source position is reproduced based on sound source position information received by the communication device. 空間内の環境に関わる物理量を計測する計測手段と、他の空間の計測手段で計測された計測結果を表示する計測結果表示手段とをデータ処理装置に具備することを特徴とする請求項1〜8の何れかに記載のマルチメディア通信システム。A data processing device comprising: a measuring unit that measures a physical quantity related to an environment in a space; and a measurement result display unit that displays a measurement result measured by a measuring unit in another space. A multimedia communication system according to any one of claims 8 to 13. 少なくとも温度を調節する機能を有する空調機器を空間内に設置し、空間内の温度を計測する温度計測手段と、他の空間の温度計測手段で計測された温度の情報に応じて空調機器の動作を制御する空調機器制御手段とをデータ処理装置に具備することを特徴とする請求項1〜9の何れかに記載のマルチメディア通信システム。An air conditioner having at least a function of adjusting the temperature is installed in the space, and the operation of the air conditioner according to temperature information measured by the temperature measurer in the other space and the temperature measuring means for measuring the temperature in the space. The multimedia communication system according to any one of claims 1 to 9, wherein the data processing device includes an air conditioner control unit for controlling the multimedia communication system. 少なくとも湿度を調節する機能を有する空調機器を空間内に設置し、空間内の湿度を計測する湿度計測手段と、他の空間の湿度計測手段で計測された湿度の情報に応じて空調機器の動作を制御する空調機器制御手段とをデータ処理装置に具備することを特徴とする請求項1〜10の何れかに記載のマルチメディア通信システム。At least an air conditioner having the function of adjusting humidity is installed in the space, and the operation of the air conditioner according to the humidity information measured by the humidity measurer for measuring the humidity in the space and the humidity measurer in the other space. The multimedia communication system according to any one of claims 1 to 10, wherein the data processing device includes an air conditioner control unit that controls the air conditioner. 映像提示手段によって映像が提示される箇所に設置される接触式の温度センサ又は触覚センサを何れかの空間に設置したデータ処理装置に具備するとともに温度センサで検出した温度のデータ又は触覚センサの検出データをマルチメディアデータとともに送信し、映像提示手段によって映像が提示される箇所に設置される発熱体と、前記温度データ又は検出データに基づいて発熱体の発熱量を制御する発熱体制御手段とを他の何れかの空間に設置したデータ処理装置に具備することを特徴とする請求項1〜11の何れかに記載のマルチメディア通信システム。A data processing device provided with a contact-type temperature sensor or a tactile sensor installed at a place where an image is presented by the image presenting means in any space, and temperature data detected by the temperature sensor or detection of the tactile sensor The data is transmitted together with the multimedia data, and a heating element installed at a place where an image is presented by the image presentation means, and a heating element control means for controlling a heating value of the heating element based on the temperature data or the detection data. The multimedia communication system according to any one of claims 1 to 11, wherein the multimedia communication system is provided in a data processing device installed in any other space. 利用者にサービスを提供するエージェントを各データ処理装置に具備し、マルチメディアデータとともに各エージェントのデータを授受して複数のデータ処理装置同士で共有することを特徴とする請求項1〜12の何れかに記載のマルチメディア通信システム。13. The data processing device according to claim 1, wherein each data processing device includes an agent that provides a service to a user, and exchanges data of each agent together with multimedia data and shares the data with a plurality of data processing devices. A multimedia communication system according to any one of claims 1 to 3. 空間内に居る人の生体情報を計測する生体情報計測手段を各データ処理装置に具備し、データ処理装置は生体情報計測手段で計測した生体情報を通信装置により相手の通信装置に送信し、通信装置で受信した生体情報を表示する生体情報表示手段を各データ処理装置に具備することを特徴とする請求項1〜13の何れかに記載のマルチメディア通信システム。Each data processing device is provided with a biological information measuring means for measuring biological information of a person in the space, and the data processing device transmits the biological information measured by the biological information measuring means to the communication device of the other party by the communication device, and performs communication. The multimedia communication system according to any one of claims 1 to 13, wherein each data processing device includes a biological information display unit that displays biological information received by the device.
JP2002206075A 2002-05-28 2002-07-15 Multimedia communication system Withdrawn JP2004056161A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002206075A JP2004056161A (en) 2002-05-28 2002-07-15 Multimedia communication system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002154326 2002-05-28
JP2002206075A JP2004056161A (en) 2002-05-28 2002-07-15 Multimedia communication system

Publications (1)

Publication Number Publication Date
JP2004056161A true JP2004056161A (en) 2004-02-19

Family

ID=31948989

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002206075A Withdrawn JP2004056161A (en) 2002-05-28 2002-07-15 Multimedia communication system

Country Status (1)

Country Link
JP (1) JP2004056161A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009194779A (en) * 2008-02-18 2009-08-27 Tama Art Univ Virtual communication system
JP2014064217A (en) * 2012-09-21 2014-04-10 Sekisui House Ltd Space sharing system, and housing and housing exhibition site facility using space sharing system
JP2015154430A (en) * 2014-02-19 2015-08-24 日本電信電話株式会社 space synthesis system
JP2016083711A (en) * 2014-10-23 2016-05-19 公立大学法人首都大学東京 Telepresence robot
WO2016122578A1 (en) * 2015-01-30 2016-08-04 Hewlett Packard Enterprise Development Lp Virtual space calibration
JP2017017523A (en) * 2015-06-30 2017-01-19 Necネッツエスアイ株式会社 Video system
WO2017098772A1 (en) * 2015-12-11 2017-06-15 ソニー株式会社 Information processing device, information processing method, and program
CN112313042A (en) * 2018-06-29 2021-02-02 国立研究开发法人科学技术振兴机构 Remote operation system
WO2021085320A1 (en) * 2019-10-31 2021-05-06 ソニー株式会社 Information processing device and method
JP7387167B2 (en) 2020-05-01 2023-11-28 tonari株式会社 Virtual space connection device, system

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009194779A (en) * 2008-02-18 2009-08-27 Tama Art Univ Virtual communication system
JP2014064217A (en) * 2012-09-21 2014-04-10 Sekisui House Ltd Space sharing system, and housing and housing exhibition site facility using space sharing system
JP2015154430A (en) * 2014-02-19 2015-08-24 日本電信電話株式会社 space synthesis system
JP2016083711A (en) * 2014-10-23 2016-05-19 公立大学法人首都大学東京 Telepresence robot
WO2016122578A1 (en) * 2015-01-30 2016-08-04 Hewlett Packard Enterprise Development Lp Virtual space calibration
JP2017017523A (en) * 2015-06-30 2017-01-19 Necネッツエスアイ株式会社 Video system
WO2017098772A1 (en) * 2015-12-11 2017-06-15 ソニー株式会社 Information processing device, information processing method, and program
JPWO2017098772A1 (en) * 2015-12-11 2018-09-27 ソニー株式会社 Information processing apparatus, information processing method, and program
US10511807B2 (en) 2015-12-11 2019-12-17 Sony Corporation Information processing apparatus, information processing method, and program
US10834359B2 (en) 2015-12-11 2020-11-10 Sony Corporation Information processing apparatus, information processing method, and program
CN112313042A (en) * 2018-06-29 2021-02-02 国立研究开发法人科学技术振兴机构 Remote operation system
WO2021085320A1 (en) * 2019-10-31 2021-05-06 ソニー株式会社 Information processing device and method
US11740773B2 (en) 2019-10-31 2023-08-29 Sony Group Corporation Information processing device and method
JP7387167B2 (en) 2020-05-01 2023-11-28 tonari株式会社 Virtual space connection device, system

Similar Documents

Publication Publication Date Title
US7965196B2 (en) Devices for use by deaf and/or blind people
US6368268B1 (en) Method and device for interactive virtual control of sexual aids using digital computer networks
US20190331359A1 (en) Electronic real-life simulation treatment system
TW494308B (en) Control method
US20120204202A1 (en) Presenting content and augmenting a broadcast
JP2017033536A (en) Crowd-based haptics
JP3795206B2 (en) Device for remote tomb visit
JP2004056161A (en) Multimedia communication system
CN108966198A (en) Method for connecting network, device, intelligent glasses and storage medium
JP2007505675A (en) Exercise management system and method
JPWO2019225100A1 (en) Information processing equipment, information processing methods, and programs
JP2020089947A (en) Information processing device, information processing method, and program
JP2015185019A (en) External connection device of information communication device and program for external connection device of information communication device
KR20210022579A (en) Information processing device and information processing method, and information processing system
CN109257490A (en) Audio-frequency processing method, device, wearable device and storage medium
JP5215625B2 (en) Activity management system
JP2009201800A (en) Exercise supporting apparatus, computer program and exercise supporting method
US20220062705A1 (en) Ultrasonic wave synchronization
KR20200028521A (en) Method for Providing Augmented Reality by Baby&#39;s Emotional Sate using Baby&#39;s Peripheral Region
WO2021131326A1 (en) Information processing device, information processing method, and computer program
JP4004808B2 (en) Newborn information transmission system
CN108777171A (en) A kind of method and device of evaluation and test state of feeling
WO2021079640A1 (en) Information processing device, information processing method, and artificial intelligence system
JP6917294B2 (en) Watching system
KR101809724B1 (en) Child-care system using smart mirror

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20051004