JP2004357915A - Sensing toy - Google Patents
Sensing toy Download PDFInfo
- Publication number
- JP2004357915A JP2004357915A JP2003159593A JP2003159593A JP2004357915A JP 2004357915 A JP2004357915 A JP 2004357915A JP 2003159593 A JP2003159593 A JP 2003159593A JP 2003159593 A JP2003159593 A JP 2003159593A JP 2004357915 A JP2004357915 A JP 2004357915A
- Authority
- JP
- Japan
- Prior art keywords
- sensing
- toy
- information
- person
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
- Toys (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、人に関する情報の検出を行う玩具に関する。
【0002】
【従来の技術】
従来より、一般家庭内において人の識別を行い、その識別結果に応じて家庭内の各機器の制御を行うシステムが知られている(例えば、特許文献1参照)。
【0003】
また、一般家庭用のロボットであって、顔認証により人の識別を行うロボットも知られている(例えば、特許文献2参照)。
【0004】
【特許文献1】
特開2002−278639号公報
【特許文献2】
特開2002−304629号公報
【0005】
【発明が解決しようとする課題】
このように近年、生活空間(人が活動を行う空間であって、一般家庭、オフィス、ホテル、店舗及び病院等を含む)において、人に関する情報を検出する要求が高まっている。ところが、こうした情報を検出するセンシング手段によって、情報の検出が行われることに対して、人は違和感を感じる場合がある。このため、違和感を与えることなく人に関する情報の検出を行いたいという要求がある。
【0006】
しかしながら、センシング手段による検出の確度(検出結果の確かさの度合い)を高めようとすれば、人は、センシング手段による検出が可能な状態となるように行動したり、検出の回数が増えるように行動したりする必要がある。例えば、接触型のセンシング手段によって情報の検出が行われるときには、人はそのセンシング手段を確実に触れなければならず、また例えばカメラで顔画像を撮像するときのように、非接触型のセンシング手段によって情報の検出が行われるときにも、カメラが顔を正面から捕らえるように、人が移動をしなければならない。このためセンシング対象である人は、情報の検出が行われることを意識せざるを得ない。
【0007】
従って、人に関する情報を検出する場合において、人の違和感の低減と、検出の確度の向上とは相反する要求となってしまう。
【0008】
本発明は、このような事情に鑑みてなされたものであり、その目的とするところは、人に関する情報を、その人に違和感を与えることなく検出する一方で、その検出の確度の向上を図ることにあり、さらには、その検出結果を利用して人の生活環境を向上させるアプリケーションを実行することにある。
【0009】
【課題を解決するための手段】
本発明のセンシング玩具は、人に関する情報の検出を行う玩具である。
【0010】
このセンシング玩具は、人に関する情報の検出を行うセンシング手段と、上記センシング手段のセンシング対象に情報検出の実行を意識させることなく、上記センシング対象に対して情報検出の実行に関連する働きかけを行う働きかけ手段と、を備える。そして、上記センシング手段は、上記センシング対象が、上記働きかけ手段による働きかけに応じることによって検出の確度が高まった状態になったときに、当該センシング対象に関する情報の検出を行う。
【0011】
この構成によると、働きかけ手段は、センシング対象に対して、情報検出の実行に関連する働きかけを行う。この働きかけは、センシング対象に情報検出の実行を意識させることがないものである。
【0012】
そして、上記センシング対象が、働きかけに応じることによって検出の確度が高まった状態になったときに、センシング手段は、そのセンシング対象に関する情報の検出を行う。
【0013】
センシング対象は働きかけ手段の働きかけに応じるだけであるため、センシング対象は情報検出の実行を意識しない。これにより、違和感の軽減が図られる。一方、センシング対象が働きかけに応じることによって検出の確度が高まった状態になるため、センシング手段により確実かつ精度よく情報が検出される。
【0014】
上記働きかけ手段は、センシング対象に対して、音、動作、表示による働きかけを行えばよい。
【0015】
本発明の他のセンシング玩具は、人に関する情報の検出を行うセンシング手段と、上記センシング手段のセンシング対象に情報検出の実行を意識させることなく、上記センシング手段のセンシング態様を変更させるセンシング態様変更手段と、を備える。そして、上記センシング態様変更手段は、上記センシング対象の行動予測に基づいて、該センシング対象が予測した行動をとったときに検出の確度が高まる位置に、上記センシング手段の位置を予め移動させる。
【0016】
この構成によると、センシング態様変更手段は、センシング対象の行動予測に基づいてセンシング手段の位置を移動させる。こうして、センシング対象に情報検出の実行を意識させることなく、センシング手段のセンシング態様が変更される。
【0017】
そして、上記センシング対象が予測された行動をとって、検出の確度が高まった状態になったときに、上記センシング手段が、そのセンシング対象に関する情報の検出を行う。
【0018】
このように、センシング対象は、情報検出のための行動をとる必要がなく、情報検出を意識せずに振舞っていれば、センシング玩具側がその行動を予測して検出の確度が高まる状態にする。このため、センシング対象は、情報検出の実行を意識することがないため、センシング対象の違和感が軽減される。一方、検出の確度が高まった状態で情報の検出が行われるため、確実かつ精度よく情報が検出される。
【0019】
上記センシング態様変更手段は、人の習慣に基づいてセンシング対象の行動を予測すればよい。
【0020】
上記センシング手段は、人の状態情報を検出し、上記センシング玩具は、該センシング手段による状態情報の検出結果に応じて設備の制御を行う制御手段をさらに備えてもよい。
【0021】
また、上記センシング手段は、人の識別情報を検出し、上記センシング玩具は、該センシング手段による識別情報の検出結果に基づいてセンシング対象の識別を行う識別手段をさらに備えてもよい。
【0022】
さらに、上記センシング玩具は、上記識別手段の識別結果に応じて、設備の制御を行う制御手段をさらに備えてもよい。
【0023】
上記センシング手段は、上記識別手段の識別結果を受けてセンシング対象の状態情報の検出を行うようにしてもよい。
【0024】
上記センシング手段は、所定の空間内における人の位置を検出した位置検出情報を受けて、当該人をセンシング対象に設定すればよい。
【0025】
上記センシング玩具は、センシング手段の検出結果を外部に送信する送信手段をさらに備えてもよい。
【0026】
本発明のさらに他のセンシング玩具は、人に関する情報の検出を行うセンシング手段と、上記センシング手段のセンシング対象に情報検出の実行を意識させることなく、上記センシング手段による検出の確度を高める確度向上手段とを備える。
【0027】
本発明のさらに他のセンシング玩具は、人に関する情報の検出を行うセンシング手段と、予め設定された行動プログラムに従って玩具行動の制御を行う制御手段と、を備え、上記センシング手段は、上記制御手段が玩具行動の制御を実行しているときに、人に関する情報の検出を行う。
【0028】
【発明の実施の形態】
以下、本発明の実施の形態について、図面を参照しながら説明する。
【0029】
−実施形態1−
本発明に係るセンシング玩具は、人に関する情報を検出するものであり、特に、一般家庭、オフィス、ホテル、店舗及び病院等の、人が活動を行う空間(生活空間)において、その生活空間内に存在する人をセンシング対象とする。このセンシング玩具が検出する人に関する情報としては、人の状態情報(例えば、体温、脈拍、感情等を含む)と、人の識別情報(認証処理によって人の識別を行うための情報であって、顔画像、虹彩画像、声紋データ等を含む)との2種類がある。こうして、センシング玩具によって検出された人に関する情報は、各種のアプリケーションに利用される。
【0030】
本実施形態では、一般家庭をセンシング玩具の行動範囲とし、以下では、その一般家庭内の空間(建物全体、又は建物内の特定の部屋)を家庭空間と呼ぶ。
【0031】
図1は、本実施形態に係るセンシング玩具100 の構成を示していて、このセンシング玩具100 には、センシング玩具100 のセンシング対象となる人の存在を検出するセンシング対象検出手段200 と、センシング玩具100 によって検出された情報に基づいて制御される設備300 とのそれぞれが接続されている。
【0032】
ここで、上記センシング玩具100 の構成について説明する前に、センシング対象検出手段200 及び設備300 について説明する。
【0033】
(センシング対象検出手段)
センシング対象検出手段200 は、センシング玩具100 の行動範囲(本実施形態では、家庭空間内)において、センシング玩具100 の検出対象(人)の存在を検出するものである。
【0034】
特定の空間内に存在する人を検出する一般的な方法として、カメラ画像を用いた背景差分法がある。センシング対象検出手段200 は、画像センサを用いるものに構成することができる。具体的に、画像センサを用いたセンシング対象検出手段200 は、部屋の天井や壁等に固定したカメラを備えていて、そのカメラが撮像したカメラ画像によって、室内の人や物の検出を行うように構成される。
【0035】
ここで、背景差分法とは、背景としてのモデル画像を予め用意しておき、現在のカメラ画像と上記モデル画像との差分を取ることによって、対象を検出する方法である。
【0036】
本システムにおけるセンシング対象検出手段200 は、家庭空間内の人の存在を検出することが目的であるため、モデル画像としては、家庭空間内の状況変動が少ない場合は、その家庭空間内に人が存在していないときに撮像した画像を用いればよい。尚、家庭空間内の状況変動が激しい場合は、所定の時間間隔を空けて撮影された複数の画像を平均して得られた画像を、モデル画像として用いればよい。
【0037】
具体的に、背景差分法による人の検出方法について、図2を参照しながら説明する。ここで、図2(a)はモデル画像の例を示す図であり、図2(b)はある時点でカメラが撮影した画像(入力画像)を示す図であり、図2(c)は、入力画像からモデル画像を差し引くことによって得られた背景差分画像の例を示す図である。図2(c)から分かるように、背景差分画像では、入力画像とモデル画像との差のある部分が浮き出てくる(同図の網掛け部分参照)。このため、その浮き出た部分(差分値部分)のみを取り出すことで家庭空間内に存在する人を検出することができる。こうして検出した人の、家庭空間内における位置は、そのカメラ画像における差分値部分の位置に基づいて、一般的な手法により演算することが可能である。
【0038】
尚、ここでは、センシング対象検出手段200 を、家庭空間内に設置したカメラによって構成したが、カメラは家庭空間に設置しなくても、その他の物(例えば本センシング玩具100 とは異なる玩具等)にカメラを設置することによって構成することも可能である。
【0039】
また、センシング対象検出手段200 を、センシング玩具100 にカメラを取り付けることによって構成してもよい。この場合は、センシング玩具100 が、対象検出手段200 を有することになる。
【0040】
また、センシング対象検出手段200 は、カメラ画像を利用したものに限らず、例えば赤外線センサ、温度センサ、音センサ等を用いて人の存在を検出するものとしてもよい。
【0041】
(設備)
センシング玩具100 の検出結果に応じて制御される設備300 としては、種々のものが存在する。例えば、家庭空間の空調を行う空調装置(いわゆるエアコンディショナーの他に、ストーブ等の暖房器具を含む)、家庭空間に設けられている窓の開閉を行う窓開閉装置、家庭空間内に音楽を流す音響装置、家庭空間内に各種の香りを拡げる芳香装置、電話やインターネットを介して外部との通信を行う通信装置、が一例として挙げられる。この設備300 の具体的な制御については後述する。
【0042】
(センシング玩具)
センシング玩具100 は、図1に示すように、センシング対象検出手段200 の検出結果を受けて、後述する各手段を制御する制御手段101 と、センシング対象に関する情報を検出するセンシング手段120 と、上記センシング手段120 の検出結果に基づいて人(センシング対象)の識別を行う識別手段103 と、上記センシング手段120 の検出結果に応じて上記設備300 の制御を行う設備制御手段104 と、センシング玩具100 自体を移動させる移動手段105 と、センシング玩具100 自体の動作を行う動作手段106 と、表示を行う表示手段107 と、音を出力する発音手段108 と、を備えている。
【0043】
上記動作手段106 、表示手段107 、発音手段108 及び制御手段101 によって、後述するように、センシング対象に対する働きかけを行う働きかけ手段110 が構成される。
【0044】
上記各手段について詳細に説明すると、上記動作手段106 は、各種の動作(発光を含む)を行うことによって、センシング対象に対する働きかけを行う手段であり、表示手段107 は、表示を行うことによって、センシング対象に対する働きかけを行う手段であり、発音手段108 は、音(言葉や音楽を含む)を出力することによって、センシング対象に対する働きかけを行う手段である。この発音手段108 は、各種の音声データを予め有していて、その音声データを選択して出力する構成としてもよいし、音声合成技術を利用して、波形合成を行うことにより種々の音声を出力する構成としてもよい。この発声手段が出力する音としては、後述するように「こっちをみて」や「こんにちわ」等の話言葉や、猫の鳴き声、クラクション音等がある。
【0045】
また、上記制御手段101 は、予め設定された行動プログラムに従って、上記動作手段106 、表示手段107 、及び発音手段108 を制御し、それによって、玩具行動の制御を行う。この玩具行動は、センシング玩具100 が玩具として行う行動であり、その行動自体は、センシング対象に対する働きかけの際の行動と略同じである。例えば、後述するように、人型の玩具150 やロボット型の玩具170 では、人に握手を求める動作や表示、「握手をして下さい」「こっちをみて」「こんにちわ」等の人への呼びかけに係る音声の出力、腕部を振る動作、はそれぞれ玩具行動の一例である。また、猫型の玩具160 では、「にゃーにゃー」という猫の鳴き声の出力、首・尾・脚を動かすことによる猫が人にじゃれるような動作、はそれぞれ玩具行動の一例である。さらに、車型の玩具180 やヘリコプター型の玩具190 における、「こっちを見て!」という文章の表示、クラクション音の出力、ヘッドライトの点灯・点滅、はそれぞれ玩具行動の一例である。
【0046】
上記制御手段101 は、こうした玩具行動を適宜のタイミングで実行する。従って、センシング対象に関する情報の検出を行わないときでも、センシング玩具の玩具行動は実行される。
【0047】
上記移動手段105 は、センシング玩具100 自体を移動させる手段であり、この移動手段105 は省略することが可能である。つまり、センシング玩具100 は移動するものであってもよいし、移動しないものであってもよい。
【0048】
こうしたセンシング玩具100 の外観形状は、種々のものを採用することができる。具体例としては、図3〜5に示す動物型玩具(図3は人型玩具、図4は猫型玩具、図5はロボット型玩具である)や、図6,7に示す乗り物型玩具(図6は車型玩具、図7はヘリコプター型玩具)が挙げられる。尚、センシング玩具100 の外観形状はこれに限るものではない。
【0049】
各図に示すセンシング玩具100 の構成について説明すると、図3に示す人型玩具150 は、頭部151 、胴部152 、2つの腕部153 、2つの脚部154 を備えている。移動手段105 は、脚部154 によって構成され、この玩具150 は2足歩行型に構成されている。動作手段107 は、頭部151 、腕部153 によって構成される。これにより、人型玩具150 は、腕を振ったり、センシング対象と握手したりする動作を行うように構成される。また、表示手段106 (表示部106a)が胴部152 に設けられ、発音手段108 (スピーカ108a)が頭部151 に設けられている。
【0050】
図4に示す猫型玩具160 は、頭部161 、胴部162 、4つの脚部163 、尾部164 を備えている。移動手段105 は脚部163 によって構成され、この玩具160 は4足歩行型に構成されている。動作手段107 は頭部161 、脚部163 及び尾部164 によって構成される。これにより、猫型玩具160 は、首をかしげたり、尾を振ったり、前後脚を動かしたりする動作を行うように構成される。また、発音手段108 (108a)が頭部161 に設けられている。尚、図例の猫型玩具160 では、表示手段106 が省略されている。
【0051】
図5に示すロボット型玩具170 は、頭部171 、胴部172 、腕部173 、無限軌道部174 (キャタピラ)を備えている。移動手段105 は無限軌道部174 によって構成され、動作手段107 は頭部171 、腕部173 によって構成されている。また、表示手段106 (106a)が胴部172 に設けられ、発音手段108 (108a)が頭部171 に設けられている。
【0052】
また、図6に示す車型玩具180 では、移動手段105 は、車輪181 によって構成され、動作手段107 は、玩具180 の前面に設けられた発光を行うヘッドライト182 によって構成される。この車型玩具180 では、表示手段106 はフロントガラス183 部分に設ければよい。例えばフロントガラス183 部分をCRTや液晶ディスプレイによって構成してもよいし、後述するように、フロントガラス183 をハーフミラーにして、このフロントガラス183 を投影機のスクリーンとしてもよい。また、発音手段108 は車体内部に設けられている。
【0053】
図7に示すヘリコプター型玩具190 では、移動手段105 は回転翼191 によって構成され、この玩具190 は、回転翼191 の駆動によって空中を飛行することで移動する。また、表示手段106 は、車型玩具180 と同様に、フロントガラス192 部分に設ければよい。また、発音手段108 は機体内に設けられている。尚、図例のヘリコプター型玩具190 では、動作手段107 は省略されている。
【0054】
このように、上記働きかけ手段110 を構成する動作手段105 、表示手段106 、発音手段107 は全て必要ではなく、センシング玩具100 の外観形状に応じて適宜省略すればよい。
【0055】
このセンシング玩具100 は、図8に示すように、家庭空間内に配置され、必要に応じて空間内を移動し、その空間内に存在する人に関する情報を検出する。
【0056】
センシング玩具100 において、家庭空間内に存在する人に関する情報の検出は、センシング手段120 及び働きかけ手段110 によって行われ、検出結果を利用したアプリケーションの実行は、設備制御手段104 及び働きかけ手段110 によって行われる。そこで先ず、センシング手段120 及び働きかけ手段110 による人に関する情報の検出の様々な形態について説明し、その後に、設備制御手段104 及び働きかけ手段110 による各種アプリケーションの実行について説明する。
【0057】
(人に関する情報の検出)
本実施形態に係るセンシング玩具100 が備えるセンシング手段120 は、接触型のセンシング手段121 と、非接触型のセンシング手段122 ,123 とに大別することができる。
【0058】
この内、接触型のセンシング手段121 は、センシング対象に触れることで、そのセンシング対象に関する情報を検出するものであり、この接触型のセンシング手段121 が検出するものとしては、人の体温、脈拍、接触した部分の湿り気、血圧、血糖値等の状態情報、及び指紋等の識別情報が一例として挙げられる。この内、血糖値の検出を行う接触型のセンシング手段121 は、人に接触しているときに微量の血液を採取して血糖値の検出を行うように構成すればよい。
【0059】
一方、非接触型のセンシング手段122 ,123 は、センシング対象に触れることなく、そのセンシング対象に関する情報を検出するものであり、画像センサ122 (カメラ)及び音センサ123 (マイクロフォン)が具体例として挙げられる。
【0060】
この内、画像センサ122 が検出する情報としては、人の顔画像、虹彩画像等が具体例として挙げられる。顔画像を状態情報として用いれば人の感情の検出や顔色の検出に利用することができる。また、顔画像を識別情報として用いれば、顔認証に利用することができる。
【0061】
音センサ123 が検出するものとしては、人の発声が挙げられる。こうして検出した人の発声は識別情報として、声紋認証に利用することができる。
【0062】
尚、非接触型のセンシング手段としては、人の手や指の静脈パターンを検出するものも挙げられる。こうして検出した静脈パターンは識別情報として、静脈認証に利用することができる。
【0063】
以下、接触型のセンシング手段121 によるセンシング対象に関する情報の検出手法と、非接触型のセンシング手段として、画像センサ122 によるセンシング対象に関する情報の検出手法と、音センサ123 によるセンシング対象に関する情報の検出手法とについて、説明する。
【0064】
(接触型のセンシング手段による検出手法)
センシング手段が接触型であるときには、センシング玩具100 の形態としては、図3に示す人型玩具150 や、図5に示すロボット型玩具170 を採用することができる。この場合に、接触型のセンシング手段121 は腕部153 ,173 (特に人の手に相当する部分)に設けることが好ましい。また、図4に示す猫型玩具160 を採用することも可能であり、この場合は、胴部162 (首の後ろや、あごの下、背中、お腹の位置)に、接触型のセンシング手段121 を設けることが好ましい。つまり、接触型のセンシング手段121 は、センシング玩具100 の形態に応じて、人が触れる確率の高い位置に配置することが好ましい。
【0065】
センシング手段が接触型であるときには、働きかけ手段110 は、センシング対象がセンシング手段121 を触れるようにこのセンシング対象に対する働きかけを行う。以下、腕部153 に接触型のセンシング手段121 を設けた人型(又はロボット型)のセンシング玩具150 による情報の検出手法について具体的に説明する。
【0066】
家庭空間内に人が存在するときには、センシング対象検出手段200 によってその人の存在が検出され、それと共に、その人の家庭空間内における位置が検出される。センシング対象検出手段200 は、その検出結果をセンシング玩具100 に送る。このときに送られるデータは、人の現在位置である。
【0067】
センシング玩具100 の制御手段101 は、センシング対象検出手段200 の検出結果を受けて、その人をセンシング対象に設定して、情報の検出を行う。そのために先ず、制御手段101 は移動手段105 の制御を行い、センシング玩具100 の位置がそのセンシング対象の近傍位置となるように、センシング玩具100 を移動させる。
【0068】
こうして、センシング対象の近傍位置まで移動をすれば、制御手段101 は、表示手段106 の制御を行い、胴部152 に設けた表示部106aに握手することを促す画像(例えば図9参照)を表示させる。尚、こうした画像に代えて「握手をして下さい」という文章を表示部106aに表示してもよい。また、制御手段101 は、発音手段108 の制御を行い、「握手をして下さい」という音声を出力させる。さらに、制御手段101 は、動作手段107 の制御を行い、図3に示すように、腕部153 を斜め前方に位置付けて握手を求めるような動作をさせる。このようにして働きかけ手段110 は、表示、音、動作によって握手をすることを促す働きかけを、センシング対象に対して行う。
【0069】
人型センシング玩具150 からのこうした働きかけを受けた人(センシング対象)は、人型玩具150 の、手に相当する部分を握る動作を行うことになる。これにより、センシング対象の手が腕部153 に設けられた接触型のセンシング手段121 と接触することになる。こうして、センシング手段121 は、検出の確度が高まった状態で、そのセンシング対象の体温、脈拍、手の湿り気、指紋、血圧、血糖値等を検出することが可能になる。
【0070】
一方、胴部162 に接触型のセンシング手段121 を設けた猫型のセンシング玩具160 では、制御手段101 は、発音手段108 の制御を行い、例えば「にゃーにゃー」という猫の鳴き声を出力させる。また、制御手段101 は動作手段107 の制御を行い、玩具160 の首、尾、脚を動かすことによって、猫が人にじゃれるような動作をさせる。
【0071】
働きかけ手段110 が、こうした音、動作による働きかけをセンシング対象に対して行うことにより、センシング対象が猫型玩具160 の胴部162 を撫でたりすることが期待される。これにより、センシング対象の手がその胴部162 に設けられた接触型のセンシング手段121 と接触することになり、そのセンシング手段121 は、検出の確度が高まった状態でそのセンシング対象に関する情報を検出することが可能になる。
【0072】
(画像センサによる検出手法)
センシング手段が画像センサ(カメラ122 )であるときには、センシング玩具100 の形態としては、図3〜7に示す人型150 、猫型160 、ロボット型170 、車型180 、ヘリコプター型190 のいずれの型も採用することができる。この内、人型、猫型、ロボット型玩具150 ,160 ,170 では、カメラ122は頭部151 ,161 ,171 (顔に相当する部分)に設けることが好ましい。
【0073】
また、車型やヘリコプター型玩具180 ,190 では、カメラ122 はフロントガラス183 ,192 の内側に設けることが好ましい。ここで、上記フロントガラス183 ,192 をハーフミラーにしたときには、図10に示すように、このフロントガラス183 ,192 を投影機400 のスクリーンとして利用する一方で、カメラ122 は、このフロントガラス183 ,192 を介して外部を撮像することが可能になる。
【0074】
センシング手段がカメラ122 であり、特にそのカメラ画像を顔認証や虹彩認証に利用するときには、働きかけ手段110 は、カメラ122 がセンシング対象の顔を正面から捕らえることができるように、そのセンシング対象に対する働きかけを行う。以下、頭部151 にカメラ122 を設けた人型のセンシング玩具150 による情報の検出手法について具体的に説明する。尚、ロボット型のセンシング玩具170 でも同様である。
【0075】
上述したように、家庭空間内に人が存在するときには、センシング対象検出手段200 によってその人の家庭空間内における位置が検出され、その検出結果は、センシング対象検出手段200 からセンシング玩具100 に送られる。
【0076】
センシング対象検出手段200 の検出結果を受けた制御手段101 は、その人をセンシング対象に設定しかつ、移動手段105 を制御することによって、センシング対象の近傍位置まで移動をする。そして、上記制御手段101 は発音手段108 の制御を行い、例えば「こっちをみて」や「こんにちわ」という音声を出力する。こうした呼びかけ(働きかけ)をセンシング対象に対して行うことにより、そのセンシング対象はその音声が発せられた方に顔を向けることになる。人は音が聞こえたときに、その音が出力された方向を見る傾向があるためである。また、人は顔であると認識できる部分が存在するときには、その部分を自然と見つめるという傾向を有している。このため、音声が出力された方向に顔を向けたセンシング対象は、そこに存在する人型(又はロボット型)玩具150 の頭部151 を見つめることになる。こうして、人型玩具150 の頭部151 に設けられたカメラ122 は、センシング対象の顔を正面から撮像することが可能になる。つまり、センシング手段122 は、検出の確度が高まった状態で、情報の検出を行うことになる。
【0077】
尚、センシング対象の顔画像を、さらに撮像する必要があるときには、制御手段101 は発音手段108 を制御することによってさらに別の言葉を出力し、それによって、センシング対象への呼びかけを継続させてもよい。こうすることで、センシング対象の顔がセンシング玩具150 の方向に向けた状態を比較的長時間維持することが可能になり、センシング対象の顔を正面から撮像する回数が増大して、検出精度の向上が図られる。
【0078】
上記制御手段101 は、上述したような発音手段108 の制御に代えて、又は発音手段108 の制御と共に、動作手段107 の制御を行ってもよい。つまり、カメラ122 が設けられた頭部151 の近傍で腕部153 を振る動作をさせてもよい。人は動いているものがあるときは、そのものを見つめる傾向があるため、こうすることでも、人型玩具150 の頭部151 に設けられたカメラ122 は、センシング対象の顔を正面から撮像することが可能になる。この場合に、カメラ122 は頭部151 ではなく、動作させる腕部153 に設けてもよい。
【0079】
尚、動作手段107 として、カメラ122 の近傍位置、又はカメラ位置に発光体(LED)を配置し、その発光体を点滅させる動作を行うことによっても、同様の効果が得られる。
【0080】
また、働きかけ手段110 は、上述したように、センシング対象に対して握手を促すような働きかけを行ってもよい。これに応じて、センシング対象がセンシング玩具150 の手に相当する部分を握ると、センシング対象はセンシング玩具150 に対して相対することになる。これにより、人型玩具150 の頭部151 に設けられたカメラ122 は、センシング対象の顔を正面から撮像することが可能になる。
【0081】
一方、猫型のセンシング玩具160 においては、制御手段101 は発音手段108 の制御を行い、例えば「にゃーにゃー」という猫の鳴き声を出力させる。こうした音による働きかけを行うことにより、センシング対象は音声を出力した猫型センシング玩具160 の方向に顔を向けて、このセンシング玩具160 を見つめることになる。これにより、猫型センシング玩具160 の頭部161 に設けたカメラ122 は、センシング対象の顔を正面から撮像することが可能になる。
【0082】
また、制御手段101 は動作手段107 の制御を行うことで、例えば首をかしげたり、尾を振ったりする動作をさせてもよい。こうした動作による働きかけを行うことによっても、センシング対象は猫型センシング玩具160 の方向に顔を向けて、このセンシング玩具160 を見つめることになり、センシング対象の顔を正面からカメラ122 によって撮像することが可能になる。
【0083】
また、フロントガラス183 ,192 内側にカメラ122 を設けた車型やヘリコプター型のセンシング玩具180 ,190 においては、制御手段101 は表示手段106 の制御を行い、例えば図11に示すように、フロントガラス183 に「こっちを見て!」という文章を表示させる。文章が表示されているときは、人はその文章を読もうとする。このため、こうした表示による働きかけを行うことで、センシング対象はフロントガラス183 の方に顔を向けて、そのフロントガラス183 を見つめることになる。このときに、フロントガラス183 内側に設けたカメラ122 によって、センシング対象の顔を正面から撮像することが可能になる。
【0084】
尚、車型玩具180 においては、制御手段101 は発音手段108 の制御を行うことで、例えば「ブーブー」というクラクション音を出力させたり、動作手段107 の制御を行うことで、ヘッドライト182 を点灯・点滅させたりしてもよい。こうした音又は動作による働きかけをセンシング対象に対して行うことにより、センシング対象が、センシング玩具180 の方に顔を向けることが期待される。
【0085】
また、人型及びロボット型玩具150 ,170 においても、制御手段101 が表示手段106 の制御を行うことで、その表示部106aに文章を表示させたときには、センシング対象が、センシング玩具150 ,170 の方に顔を向けることが期待される。このときに、カメラ122 は頭部151 ,171 に設けてもよいし、胴部152 ,172 (表示部106a)に設けてもよい。
【0086】
(音センサによる検出手法)
センシング手段が音センサ(マイクロフォン123 )であるときには、センシング玩具100 の形態としては、図3に示す人型150 又は図5に示すロボット型170 を採用することが好ましい。この内、人型150 、ロボット型玩具170 では、マイクロフォン123 は頭部151 ,171 (特に耳に相当する部分)に設けることが好ましい。
【0087】
センシング手段がマイクロフォン123 であって、センシング手段123 が検出した人の声を声紋認証に利用するときには、検出した音声にノイズが存在すると認証精度が低下してしまう。このため、働きかけ手段110 は、マイクロフォン123 の近傍で発声させるようにセンシング対象に働きかけ、それによって、検出した音声のSN比が高くなるようにする。
【0088】
尚、声紋認証には、予め登録している文脈を発声させることによって認証を行う文脈依存型と、任意の文脈を発声させることによって認証を行う文脈独立型の2つの形式が存在するが、いずれの型の声紋認証も採用することが可能である。以下、頭部151 にマイクロフォン123 を設けた人型のセンシング玩具150 による情報の検出手法について具体的に説明する。尚、ロボット型のセンシング玩具170 でも同様である。またここでは、文脈依存型の認証を行うものとし、登録される文脈はセンシング対象の名前であるとする。
【0089】
上述したように、家庭空間内に人が存在するときには、センシング対象検出手段200 によってその人の家庭空間内における位置が検出され、その検出結果は、センシング対象検出手段200 からセンシング玩具100 に送られる。
【0090】
センシング対象検出手段200 の検出結果を受けた制御手段101 は移動手段105 の制御を行い、それによって、センシング対象の近傍位置となるようにセンシング玩具150 を移動させる。
【0091】
そして、センシング対象の近傍位置まで移動をすれば、制御手段101 は、発音手段の制御を行う。これにより、例えば「名前をそっと教えて」という音声を出力する。このときに、制御手段101 は動作手段107 の制御を行い、手を耳にかざすような動作をさせてもよい。
【0092】
こうした音による働きかけ(及び動作による働きかけ)をセンシング対象に対して行うことにより、そのセンシング対象は、センシング玩具150 の頭部151 の近傍で自分の名前を発声することになる。人型の玩具150 が「そっと教えて」という言葉を発することにより、センシング対象は、その人型の玩具150 の耳元で発生するように誘導されるためである。その結果、センシング玩具150 の頭部151 に設けられたマイクロフォン123 によって、センシング対象の音声をSN比の高い状態で検出することができる。
【0093】
尚、発音手段108 が出力する音声は、人が耳元で自分の名前を発声することを促すものであればどのようなものであってもよい。
【0094】
また、例えば、発音手段108 に「握手をしようよ」という音声を出力させることで、センシング対象がセンシング玩具150 の腕部153 を握るように誘導し、これによって、センシング対象をマイクロフォン123 の近傍にまで移動させた後に、「名前は?」等の音声を出力させることによっても、センシング対象の音声をSN比の高い状態で検出することができる。
【0095】
尚、文脈独立型の声紋認証を行う場合には、センシング対象が発声する文脈に制限がないため、例えば発音手段108 に「秘密のお話をしようよ」という音声を出力させてもよい。こうした働きかけを行うことで、センシング対象がセンシング玩具150 の頭部151 の近傍で発声することが期待でき、それによって、センシング対象の音声をSN比の高い状態で検出することができる。
【0096】
このように、マイクロフォン123 の近傍で発声させるようにセンシング対象に働きかけを行った場合であっても、例えば雑音源(家庭空間では、例えばテレビ等が挙げられる)が近傍にあるときには、音声の検出精度が低下してしまう虞がある。そこで、働きかけ手段110 は、雑音源の少ない位置にセンシング対象を移動させる働きかけを行うようにしてもよい。
【0097】
具体的には、制御手段101 は発音手段108 の制御を行い、例えば「こっちで話そうよ」という音声を出力させると共に、移動手段105 の制御を行い、センシング玩具150 を雑音源の少ない位置まで移動させる。こうすることで、センシング対象は、センシング玩具150 の後を追って移動し、結果として、センシング対象を雑音源の少ない位置に誘導することが可能になる。こうした状態で、センシング対象の音声を検出する。このときは、上述したように、マイクロフォン123 の近傍で発声させるように、センシング対象に対する働きかけをさらに行ってもよいし、働きかけは行わなくてもよい。
【0098】
以上のように、センシング玩具100 が様々な玩具行動を行っているときに(行っている最中に)、センシング手段120 はセンシング対象に関する情報を検出するが、この玩具行動は、センシング対象に対する働きかけとなっている。そうして、その働きかけにより検出の確度が高まった状態において、センシング手段120 はセンシング対象に関する様々な情報を検出するようにしている。
【0099】
(アプリケーションの実行)
制御手段101 は、上記センシング手段120 によって検出されたセンシング対象に関する情報(状態情報及び識別情報)を受けて、各種アプリケーションの実行を行う。
【0100】
以下、制御手段101 によって実行されるアプリケーションについて説明する。
【0101】
(状態情報の検出に伴うアプリケーション)
上述したように、接触型のセンシング手段121 によって、センシング対象の体温、脈拍、手の湿り気が検出されたときには、制御手段101 は、設備制御手段104 に対して、空調装置の制御、窓開閉装置による窓の開閉制御を実行させ、それによって、家庭空間内の空調を行う。例えば、センシング対象の体温が所定よりも低いときには空調装置を制御することによって、家庭空間内の温度を上げるようにしてもよい。
【0102】
また、脈拍や湿り気の検出結果に基づいてセンシング対象が緊張状態にあるか否かを判断することが可能であるため、制御手段101 は、センシング対象の状態情報に基づいて、そのセンシング対象が緊張状態にあるか否かを判断する。そして、緊張状態にあると判断したときには、設備制御手段104 に、音響装置や芳香装置の制御を実行させる。これにより、家庭空間内に気持ちを落ち着かせる音楽を流させたり、気持ちを落ち着かせる香りを流させたりする。
【0103】
さらに、人の顔を構成する各パーツの動きを感情ごとに分類しパターンマッチングを行うことで顔画像から感情を認識する公知の方法を採用すれば、制御手段101 は、カメラ122 によって撮像したセンシング対象の顔画像に基づいて、そのセンシング対象の感情(喜怒哀楽)を検出することができる。そこで、制御手段101 は、カメラ122 が撮像した顔画像に基づいて、そのセンシング対象の感情を検出し、それに応じて設備制御手段104 に 音響装置や芳香装置の制御を実行させる。これによって、センシング対象の感情に応じた音楽を家庭空間内に出力したり、その感情に応じた芳香を家庭空間内に流したりする。
【0104】
検出したセンシング対象の感情に応じて、センシング玩具自体の行動パターンを変えてもよい。例えばセンシング対象の感情が哀であるときには、制御手段101 は発音手段108 を制御することによって、センシング対象を元気付けるような言葉を出力させてもよい。
【0105】
センシング手段120 は、センシング対象の行動に同期したタイミングで、そのセンシング対象に関する情報を検出してもよい。例えば、センシング対象が帰宅したタイミング、就寝するタイミング、起床するタイミングで、センシング対象に関する情報を検出してもよい。センシング玩具100 と時計(目覚まし時計)とを連動させることによって、センシング玩具100 は、センシング対象の起床予定時刻の情報が得られる。そこで、その情報に基づいて、センシング玩具100 はセンシング対象に関する情報の検出を行えば、センシング対象が起床したタイミングでの検出が可能になる。尚、センシング玩具100 自体に、アラーム機能を備えるようにしてもよい。また、センシング対象検出手段200 が、人が玄関を通過して家の中に入ったことを検出したタイミングで、センシング玩具100 は、そのセンシング対象に関する情報の検出を行えば、センシング対象が帰宅したタイミングでの検出が可能になる。さらに、寝室の電灯が消灯したタイミングで、そのセンシング対象に関する情報の検出を行えば、センシング対象が就寝するタイミングでの検出が可能になる。
【0106】
センシング対象の行動に同期したタイミングで検出を行う場合には、制御手段101 は、センシング手段120 の検出タイミングに応じたアプリケーションの実行を行ってもよい。
【0107】
例えば、センシング対象が起床したタイミングで、センシング手段120 が情報の検出する場合は、センシング手段120 によって検出されたセンシング対象の体温、脈拍、手の湿り気、顔色に基づいて、制御手段101 は、そのセンシング対象の体調を判断する。
【0108】
センシング対象の起床時に体調が良いと判断されるときには、制御手段101 は、設備制御手段104 に、家庭空間内の電灯を点灯制御を実行させたり、空調装置の制御を実行させたり、窓開閉装置の制御を実行させたり、テレビやラジオのスイッチ制御を実行させたりする。こうして、センシング対象の起床に応じた環境を整える。
【0109】
また、制御手段101 は、センシング玩具100 がセンシング対象の起床を促す動作を行うように、発音手段108 や、動作手段107 を制御してもよい。例えば、猫型のセンシング玩具160 であれば、発音手段108 に「にゃーにゃー」といった音声を出力させたり、動作手段107 の制御によって、センシング対象に顔を摺り寄せる動作をさせたり、布団を引っ張る動作をさせたりしてもよい。
【0110】
一方、センシング対象の起床時に体調が悪いと判断されるときには、制御手段101 は、設備制御手段104 に通信装置の制御を実行させる、これにより、病院に、電話やインターネットを介してその状態を通知して、病院に対して処方を求めるようにする。このときに、制御手段101 は、センシング手段120 に対して、病院側からの要求に応じてセンシング対象の状態情報をさらに検出させ、その検出結果を病院側にフィードバックするようにしてもよい。例えば病院側から、喉内のカメラ画像が要求されたときには、その画像をカメラ122 で撮像して送信したり、聴診のために体内音が要求されたときに、その音をマイクロフォン123 で検出して送信したりすればよい。こうした状態情報の検出は、センシング玩具が自動的に行ってもよいし、センシング対象(人)がセンシング玩具100 を用いて要求された情報を検出してもよい。
【0111】
その結果、安静にする必要があるときには、制御手段101 は、設備制御手段104 に通信装置の制御を実行させ、それによって、学校や会社に、電話やインターネットを介してその旨を通知させてもよい。
【0112】
(識別情報の検出に伴うアプリケーション)
センシング手段120 によってセンシング対象の識別情報が検出されたときには、制御手段101 は、識別手段103 にそのセンシング対象の識別を実行させる。識別手段103 は、上記センシング手段120 によって検出された識別情報に基づいて、顔認証、虹彩認証、指紋認証、又は静脈認証のバイオメトリクス認証を行い、それによって、センシング対象の識別を行う。
【0113】
この識別手段103 による識別結果を受けて、制御手段101 は、設備制御手段104 に対し、識別したセンシング対象に応じた設備300 の制御を実行させる。設備制御手段104 は、データベース109 (図1参照)を参照しながら設備300 の制御を行う。
【0114】
具体的に、上記データベース109 には、個人毎に好みの室温を予め登録しておく。設備制御手段104 は、データベース109 を参照することにより識別した個人の好みの室温になるように、空調装置や窓開閉装置の制御を行う。例えばセンシング対象がお父さんであったときには、データベース109 に登録されているお父さんの好みの室温を参照し、その室温となるように空調装置及び窓開閉装置を制御する。
【0115】
また、上記データベース109 に、帰宅時や、起床時等の行動タイミングにおける各個人の行動パターンを登録しておくことにより、その行動パターンに応じた設備の制御が実現する。
【0116】
例えば、上記データベース109 に、お父さんの帰宅時の行動パターンとして、玄関から自分の部屋(お父さんの部屋)に行った後で、お風呂に入るという行動パターンが登録されていれば、設備制御手段104 は、玄関からお父さんの部屋までの経路上の電灯を点灯させる制御を行うと共に、お父さんの部屋の空調装置の制御を行い、さらに、お風呂の準備をすべく給湯装置の制御を行う。また、帰宅したセンシング対象が子供であるときには、設備制御手段104 は、データベース109 に登録されている子供の帰宅時の行動パターンを参照し、それによって、例えば食事の用意をすべく電子レンジを制御して食品の温めを行う。
【0117】
このように、識別手段103 による識別結果に応じて設備300 の制御を行うときにも、センシング対象の状態情報に応じて各設備300 の制御を行ってもよい。例えば、帰宅したお父さんの体温を検出し、その体温に応じてお風呂のお湯の温度を調節する、等を行ってもよい。
【0118】
さらに、データベース109 に、各個人の外出時の持ち物リストを登録しておけば、外出しようとするセンシング対象の識別を行うことによって、データベース109 に登録されている持ち物リストを、そのセンシング対象に提示する(例えば表示部106aにリストを表示してもよいし、発音手段によってリストを読み上げるようにしてもよい)ことが可能になる。
【0119】
また、識別手段103 による識別結果を受けて、制御手段101 は、その識別した個人の好みに応じてセンシング玩具100 自体の行動パターンを変えてもよい。例えばデータベース109 に各個人の好みを登録しておくことで、識別したセンシング対象が騒がしいことを嫌う傾向にあるときには、センシング玩具100 は、発音手段108 による音の出力を抑制し、動作手段107 による動作や表示手段106 による表示によってセンシング対象に対する働きかけ(玩具行動)を行うようにする。一方で、識別したセンシング対象が騒がしいことを好む傾向にあるときには、センシング玩具100 は、発音手段108 や移動手段105 によって、センシング対象に対して積極的な働きかけを行うようにする。
【0120】
また、センシング対象が子供であるか大人であるかに応じて、発音手段108 によって出力する音声(言葉)を変えたり、表示手段106 によって表示する内容を変更させたりしてもよい。
【0121】
また、センシング玩具100 の識別手段103 は認証を行うことから、その認証結果を家庭空間内の各設備300 におけるユーザ認証に利用してもよい。つまり、センシング玩具100 による認証(識別)を行うことによって、家庭空間内の全ての設備300 のユーザ認証が完了するようにしてもよい。こうすることで、家庭空間内の各設備一つ一つについて認証処理を行う必要がなくなり、しかも、センシング玩具100 による認証は、人(センシング対象)が意識することなく行われるため、認証処理の煩わしさが解消される。
【0122】
(識別情報の検出と状態情報の検出との組み合わせによるアプリケーション)
センシング手段120 によってセンシング対象の識別情報を検出し、識別手段103 によってセンシング対象の識別を行った後に、制御手段101 は、センシング手段120 に対してその識別したセンシング対象の状態情報を検出させてもよい。こうすることで、各個人毎に、体温、脈拍、血圧、血糖値等の履歴を管理することが可能になる。また、制御手段101 は、設備制御手段104 に、通信装置を制御させて、これらのデータを病院に送信させてもよい。こうすることで、データの提供を受けた病院においてデータ解析が可能になる。
【0123】
また、センシング玩具100 の制御手段101 がデータの解析を行い、その解析結果から人の体調を判断し、それに応じて薬の処方を行ったり、体調に応じた食事を提案したりしてもよい。これは、データベース109 に薬や食事に関する情報を蓄積しておき、データ解析の結果に応じて必要な情報をデータベースから抽出すればよい。
【0124】
−実施形態2−
実施形態1のセンシング玩具100 は、働きかけ手段110 を備えていて、その働きかけ手段110 がセンシング対象に対する働きかけを行うことによって、検出の確度が高まった状態にしたが、実施形態2のセンシング玩具500 は、図12に示すように、センシング対象の状態に応じて、検出の確度が高まった状態となるように、センシング手段120 のセンシング態様を変更させるセンシング態様変更手段112 を備える。
【0125】
上記センシング態様変更手段112 は、制御手段101 と、移動手段105 と、行動予測手段111とから構成される。
【0126】
尚、実施形態2のセンシング玩具500 において、実施形態1のセンシング玩具100 を同じ手段については、同一の符号を付してその詳細な説明は省略する。また、このセンシング玩具500 の人に関する情報の検出態様は、実施形態1のセンシング玩具100 とは異なるが、アプリケーションの実行態様は、実施形態1のセンシング玩具100 と同じであるため、ここではその説明は省略する。
【0127】
実施形態2に係るセンシング玩具500 のセンシング手段120 は、非接触型とすることが好ましい。以下、実施形態2に係るセンシング玩具500 の検出手法について、「その1」〜「その3」に分けて説明する。
【0128】
(その1)
その1は、センシング手段がカメラ122 であるときの例であり、センシング玩具500 の形態としては、図3〜7に示す人型150 、猫型160 、ロボット型170 、車型180 、ヘリコプター型190 のいずれの型も採用することができる。
【0129】
上述したように、センシング手段がカメラ122 であるときに、検出の確度を高めるには、センシング対象の顔を正面から撮像することが必要となる。そこで、センシング態様変更手段112 は、センシング対象の顔の向きに応じてセンシング玩具500 を移動させる。
【0130】
以下、頭部151 にカメラ122 を設けた人型のセンシング玩具150 による情報の検出手法について、図13を参照しながら具体的に説明する。尚、猫型160 、ロボット型170 、車型180 ヘリコプター型190 のセンシング玩具170 でも検出手法は略同じである。
【0131】
上述したように、家庭空間内に人が存在するときには、センシング対象検出手段200 によってその人の家庭空間内における位置が検出される。実施形態2ではさらに、上記センシング対象検出手段200 は、センシング対象の顔の向きを検出する。人の顔の向きを検出する手法としては種々の方法が存在する。その一つは、先ず人の頭部を検出し、その検出した頭部領域から目、鼻、口、耳等の顔を構成する各パーツを、パターンマッチングによって求め、その位置関係から顔の向きを検出する方法である。尚、人の頭部を検出する方法としては、人の頭部が丸いことを利用する公知の方法がある。具体的には、カメラ画像において、Hough変換によって円形領域を検出し、それによって、人の頭部を検出する方法である。
【0132】
また、皮膚の色が肌色であるということを利用して、頭部領域における肌色の領域を抽出することで、顔の向きを検出してもよい。尚、頭部領域を抽出しなくても、顔を構成する各パーツを直接求めることで顔の向きを判断してもよい。
【0133】
こうして、家庭空間内におけるセンシング対象の位置、及びその顔の向きを検出すれば、センシング対象検出手段200 は、その情報をセンシング玩具500 に送信する。
【0134】
センシング対象検出手段200 の検出結果を受けた制御手段101 は、その人をセンシング対象に設定しかつ、移動手段105 を制御することによって、センシング対象の近傍位置まで移動をする。この移動の際には、センシング対象に対して最短距離で近づく経路ではなく、センシング対象検出手段200 の検出結果に基づいてセンシング対象の顔が向いている方向から、このセンシング対象に接近するような経路を設定する(図13の破線参照)。こうすることで、カメラ122 がセンシング対象の顔を正面から撮像する回数が増大し、それによって、検出の確度を高めることができる。
【0135】
尚、センシング玩具500 を移動させる際には、制御手段101 は発音手段108 を制御することによって、例えば「こんにちわ」等の音声を出力するようにすれば、センシング対象の違和感を軽減させることができ、好ましい。
【0136】
(その2)
「その1」では、センシング態様変更手段112 が、センシング対象の顔の向きに応じてセンシング玩具500 を移動させたが、「その2」では、センシング態様変更手段112 が、センシング対象の行動を予測して、その予測に応じてセンシング玩具500 を移動させる。つまり、人の顔が向く方向を予測して、その予測に基づいてセンシング玩具500 を、予めその人の顔が向く方向に移動させておくのである。
【0137】
センシング対象の行動は、人の習慣に基づいて予測することができる。センシング対象の行動を最も容易に予測することができるのは、その帰宅時である。帰宅した人は、その後、靴を脱いで家に上がる際に玄関の扉を背にして家の中の方に顔を向ける行動をとることが予測される。
【0138】
そこで、センシング対象が帰宅したことを、センシング対象検出手段200 が検出したことを受けて、制御手段101 は、そのセンシング対象が靴を脱いでいるときに移動手段105 を制御することによって、次にセンシング対象が顔を向ける方向、つまり、玄関の扉の方から家の中の方に向かう方向に相対するように、センシング玩具500 を移動させる(図13の一点鎖線参照)。こうすることで、センシング対象が予測した通りに顔の向きを変えれば、カメラ122 はそのセンシング対象の顔を正面から撮像することになる。また、顔画像を撮像する回数も増大することで、検出の確度を高めることができる。
【0139】
(その3)
「その3」は、センシング手段が音センサ123 であるときのセンシング態様変更手段112 の動作に関する。
【0140】
センシング手段が音センサ123 であるときには、上述したように、検出した音声にノイズが存在すると認証精度が低下してしまう。このため、センシング態様変更手段112 は、SN比が高くなるように音センサ123 のセンシング態様を変更する。
【0141】
具体的には、音センサ123 を、指向性を有するマイクロフォンや、マイクロフォンアレイで構成する。こうして、音声の取得に指向性を持たせるようにし、センシング対象から発せられた音声のみを検出するようにする。
【0142】
上記制御手段101 は、センシング対象検出手段200 によって検出されたセンシング対象の位置情報に基づいて、そのセンシング対象の方向に音センサ123 の指向性を変化させる。そうして、発音手段108 を制御することにより、センシング対象が発声するように働きかける。例えば「名前を教えて」という音声を出力させてもよい。この場合は、実施形態1とは異なり、センシング対象にマイクロフォン123 の近傍で発声させる必要はない。
【0143】
こうすることで、センシング対象が発声をしたときには、音センサ123 の嗜好性がそのセンシング対象の方向に設定されているため、センシング対象が発した音声を、SN比が高い状態で検出することができる。
【0144】
−実施形態3−
実施形態3は、センシング玩具を用いたセンシングシステムに係る。このセンシングシステムは、図14に示すように、センシング玩具600 と、空間管理サーバ700 と、設備300 とを備え、これらがネットワークを介して互いに接続されて構成されている。
【0145】
上記センシング玩具600 は、センシング手段120 と、働きかけ手段110 と、送受信手段302 とを備える。送受信手段302 は、空間管理サーバ700 や設備300 との間でネットワークを介して種々のデータの送受信を行うものである。
【0146】
センシング手段120 及び働きかけ手段110 の構成は、上記実施形態1と同じであるため、同じ符号を付してここではその説明は省略する。
【0147】
上記空間管理サーバ700 は、家庭空間の管理を行うものであって、制御手段701 と、識別手段103 と、設備制御手段104 とデータベース109 と、送受信手段302 とを備えている。送受信手段302 は、センシング玩具600 に設けられたものと同じであって、センシング玩具600 や設備300 との間でネットワークを介した種々のデータの送受信を行うものである。このため、同一の符号を付すこととする。また、識別手段103 並びに設備制御手段104 及びデータベース109 は、実施形態1,2のセンシング玩具100 ,500 (図1及び図12参照)に設けられていたものと同じであり、同じ符号を付す。識別手段103 は、センシング玩具600 によって検出されたセンシング対象に関する情報に応じて、顔認証、虹彩認証、指紋認証等によってセンシング対象の識別を行うものであり、設備制御手段104 は、センシング対象に関する情報、又は識別手段103 の識別結果に応じて、ネットワークを介して設備300 の制御を行うものである。
【0148】
また、この空間管理サーバ700 には、家庭空間内において、センシング玩具600 のセンシング対象となる人の存在を検出するセンシング対象検出手段200 が接続されていて、上記空間管理サーバ700 は、このセンシング対象検出手段200 の検出結果を、センシング玩具600 に転送する。
【0149】
上記設備300 は、制御手段301 と、送受信手段302 とを備えている。送受信手302 段は、センシング玩具600 に設けられたものと同じであって、空間管理サーバ700 やセンシング玩具600 との間でネットワークを介した種々のデータの送受信を行うものである。このため、同一の符号を付すこととする。また、制御手段301 は、空間管理サーバ700 からの制御信号に応じて、その設備300 の動作を制御するものである。
【0150】
このセンシングシステムの動作について説明すると、先ず、センシング対象検出手段200 が家庭空間内で人の存在を検出すれば、その検出結果が上記空間管理サーバ700 に送られる。空間管理サーバ700 の制御手段701 は、その検出結果を受けて、その情報を送受信手段302 によってセンシング玩具600 に送信する。
【0151】
空間管理サーバ700 からの情報を受信したセンシング玩具600 は、上述したように、働きかけ手段110 によってセンシング対象に対する働きかけを行い、センシング手段120 は、そのセンシング対象が働きかけに応じることで、検出の確度が高まったときにセンシング対象に関する情報の検出を行う。
【0152】
こうして検出した情報は、送受信手段302 によって空間管理サーバ700 に送られる。空間管理サーバ700 の制御手段701 は、必要に応じて識別手段103 にセンシング対象の識別をさせる。また、設備制御手段104 に設備300 の制御を実行させるべく、設備制御コマンドを作成させる。作成された設備制御コマンドは、空間管理サーバ700 から設備300 にネットワークを介して送信され、その設備制御コマンドを受信した設備300 の制御手段301 は、それに応じた設備300 の制御を実行する。
【0153】
尚、センシングシステムのセンシング玩具は、センシング手段120 と、センシング態様変更手段112 と、送受信手段302 とを備えるものとしてもよい。
【0154】
以上説明したように,本発明のセンシング玩具100 ,600 は、人に関する情報の検出を行う玩具であって、人に関する情報の検出を行うセンシング手段120 と、上記センシング手段のセンシング対象に情報検出の実行を意識させることなく、上記センシング対象に対して情報検出の実行に関連する働きかけを行う働きかけ手段110 と、を備える。
【0155】
そして、上記センシング手段120 は、上記センシング対象が、上記働きかけ手段110 による働きかけに応じることによって検出の確度が高まった状態になったときに、当該センシング対象に関する情報の検出を行う。つまり、働きかけ手段110 は、センシング対象を検出の確度が高まる状態に誘導する。
【0156】
これにより、働きかけ手段110 が、センシング対象に対して情報検出の実行に関連する働きかけを行い、上記センシング対象がその働きかけに応じれば、検出の確度が高まった状態となる。この状態で、センシング手段120 が情報の検出を行うため、情報を確実かつ精度よく検出することができる。
【0157】
一方、働きかけ手段110 の働きかけは、握手をすることを求めたり、挨拶をしたりするものであるため、センシング対象に情報検出の実行を意識させることがないものである。このように、情報検出の実行についての直接的な働きかけ(例えば、「センサを触れてください」といった音声を出力することにより、センシング対象に情報検出の実行を明示して、接触型のセンシング手段に触れさせる働きかけ)とは異なり、情報検出の実行についての間接的な働きかけ(働きかけ自体は情報検出の実行とは関連しないが、センシング対象がその働きかけに応じることによって情報検出の実行に関連することになる働きかけ)を行うことにより、センシング対象に情報検出の実行を意識させることがない。こうして、人の違和感の低減と、検出の確度の向上とを両立させることができる。
【0158】
また、人に関する情報を検出するものが玩具であることによって、一般家庭を含む生活空間内で人に与える違和感を軽減することができる。
【0159】
上記働きかけ手段110 は、センシング対象に対して、音、動作,及び/又は表示による働きかけを行うことにより、センシング対象に、効果的な働きかけを行うことができる。
【0160】
また、本発明の他のセンシング玩具500 は、人に関する情報の検出を行うセンシング手段120 と、上記センシング手段120 のセンシング対象に情報検出の実行を意識させることなく、上記センシング手段120 のセンシング態様を変更させるセンシング態様変更手段112 と、を備える。そして、上記センシング態様変更手段112 は、上記センシング対象の行動予測に基づいて、該センシング対象が予測した行動をとったときに検出の確度が高まる位置に、上記センシング手段120 の位置を予め移動させる。
【0161】
これにより、センシング態様変更手段112 が、検出の確度が高まるであろう位置にセンシング手段120 の位置を予め移動させ、センシング対象が予測された行動をとったときに、言い換えると検出の確度が高まったときに、センシング手段120 がセンシング対象に関する情報を検出する。このため、情報を確実かつ精度よく検出することができる。
【0162】
また、センシング態様変更手段112 は、センシング対象の行動を予測してセンシング手段120 の位置を移動させるため、センシング対象は、情報検出の実行を意識することなく振舞っていればよく、情報検出の確度が高まるように、センシング対象側が行動する必要はない。その結果、センシング対象の違和感を軽減することができ、人の違和感の低減と、検出の確度の向上とを両立することができる。
【0163】
また、上記センシング態様変更手段は、人の習慣に基づいてセンシング対象の行動を予測するため、その予測を的確に行うことができる。
【0164】
上記センシング玩具100 ,500 は、上記センシング手段120 が検出した人の状態情報に応じて設備300 の制御を行う制御手段101 (設備制御手段104 )をさらに備えることで、生活環境を快適にすることができる。
【0165】
また、センシング玩具100 ,500 は、上記センシング手段120 が検出した人の識別情報に基づいてセンシング対象の識別を行う識別手段103 をさらに備えることで、センシング対象を特定することができる。
【0166】
このときに、その識別手段103 の識別結果に応じて、設備300 の制御を行う制御手段101 (設備制御手段103 ,データベース109 )をさらに備えることで、特定した各個人に最適な生活環境を作り出すことができる。
【0167】
また、センシング手段120 は、識別手段103 の識別結果を受けてセンシング対象の状態情報(体温、脈拍、接触した部分の湿り気、血圧、血糖値)の検出を行うことにより、個人毎に、その状態を管理することができる。
【0168】
上記センシング手段120 は、センシング対象検出手段200 によって検出された人の位置情報を受けて、当該人をセンシング対象に設定することにより、センシング手段120 は、センシング対象検出手段200 が人を検出する毎に、その人をセンシング対象として、情報の検出を行うことになる。このように、センシング玩具100 ,500 ,600 側が、センシング対象に対して自発的に情報の検出を行うため、センシング対象側は意識しなくても必要な情報が自動的に検出される。こうして、例えば状態情報(体温等)の情報の管理を的確に行うことができる。
【0169】
上記センシング手段120 の検出結果を外部に送信する送信手段(送受信手段302 )をさらに備えることにより、センシングシステムに最適なセンシング玩具600 が構成される。
【0170】
本発明のさらに他のセンシング玩具は、人に関する情報の検出を行う玩具であって、人に関する情報の検出を行うセンシング手段120 と、上記センシング手段のセンシング対象に情報検出の実行を意識させることなく、上記センシング手段による検出の確度を高める確度向上手段110 ,112 とを備える。
【0171】
この確度向上手段110 ,112 によって、人に関する情報を検出する場合において、人の違和感の低減と、検出の確度の向上とを両立させることができる。
【0172】
本発明のさらに他のセンシング玩具は、人に関する情報の検出を行うセンシング手段120 と、予め設定された行動プログラムに従って玩具行動の制御を行う制御手段101 と、を備え、上記センシング手段120 は、上記制御手段101 が玩具行動の制御を実行しているときに、人に関する情報の検出を行う。
【0173】
この構成によると、制御手段101 が玩具行動の制御を実行しているとき、つまり、センシング玩具が、玩具としての行動を行っているときに、センシング手段120 は人に関する情報を検出するため、人に情報検出の実行を意識させることなく、その人に関する情報を検出することが可能になる。
【0174】
また、上記センシング手段120 は、上記制御手段101 が玩具行動の制御を実行している最中であって、検出の確度が高まった状態になったときに、人に関する情報の検出を行うようにしてもよい。こうすることで、人の違和感の低減と、検出の確度の向上とを両立させることができる。
【0175】
−他の実施形態−
尚、上記各実施形態では、一般家庭内を対象としてセンシング玩具について説明したが、センシング玩具は、一般家庭内に限らず、オフィス、ホテル、店舗、病院、工場等において利用することも可能である。
【0176】
また、上記各実施形態で説明したセンシング玩具の構成は、例えば作業用ロボットや介護用ロボットに適用することも可能である。こうしたロボットでは、検出したセンシング対象に関する情報(状態情報又は識別情報)に基づいて、種々の作業を行うように構成すればよい。
【0177】
例えば、作業用又は介護用ロボットでは、センシング対象の起床時にそのセンシング対象の体温や手の湿り気等を検出した結果に応じて、シーツの洗濯作業を行ったり、布団を干す作業を行ったりしてもよい。
【0178】
【発明の効果】
以上説明したように、本発明によるセンシング玩具によると、働きかけ手段や、センシング態様変更手段によって、センシング対象に情報検出を意識させることなく、検出の確度が高まった状態を作りだすことができるため、人の違和感の低減と、検出の確度の向上とを両立させることができる。
【0179】
また、(設備)制御手段や、識別手段が、検出した情報を利用して種々のアプリケーションを実行することにより、センシング対象が存在する空間内の環境を向上させることができる。
【図面の簡単な説明】
【図1】実施形態1に係るセンシング玩具の構成の一例を示すブロック図である。
【図2】背景差分法の原理を示す説明図である。
【図3】人型のセンシング玩具の形態の一例を示す図である。
【図4】猫型のセンシング玩具の形態の一例を示す図である。
【図5】ロボット型のセンシング玩具の形態の一例を示す図である。
【図6】車型のセンシング玩具の形態の一例を示す図である。
【図7】ヘリコプター型のセンシング玩具の形態の一例を示す図である。
【図8】センシング玩具が生活空間内に配置されたときの様子を示す図である。
【図9】センシング玩具の表示部に表示される画面の一例を示す図である。
【図10】ハーフミラーを用いたときの表示手段とセンシング手段との構成を示す説明図である。
【図11】表示部に表示をしている状態の車型玩具を示す図である。
【図12】実施形態2に係るセンシング玩具の構成の一例を示すブロック図である。
【図13】センシング態様変更手段によって設定される玩具の移動経路の例を示す説明図である。
【図14】実施形態3に係るセンシングシステムの構成の一例を示すブロック図である。
【符号の説明】
100・・・センシング玩具
500・・・センシング玩具
600・・・センシング玩具
101・・・制御手段
103・・・識別手段
104・・・設備制御手段(制御手段)
106・・・動作手段
107・・・表示手段
108・・・発音手段
109・・・データベース
110・・・働きかけ手段(確度向上手段)
112・・・センシング態様変更手段(確度向上手段)
120・・・センシング手段
200・・・センシング対象検出手段
300・・・設備
302・・・送受信手段(送信手段)[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a toy for detecting information about a person.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, there has been known a system that identifies a person in a general household and controls each device in the household according to the identification result (for example, see Patent Document 1).
[0003]
There is also known a general home-use robot that identifies a person by face authentication (for example, see Patent Document 2).
[0004]
[Patent Document 1]
JP-A-2002-278639
[Patent Document 2]
JP-A-2002-304629
[0005]
[Problems to be solved by the invention]
As described above, in recent years, there has been an increasing demand for detecting information about a person in a living space (a space where a person performs activities, including a general home, an office, a hotel, a store, a hospital, and the like). However, a person may feel uncomfortable with the detection of information by the sensing means for detecting such information. Therefore, there is a demand for detecting information about a person without giving a sense of incongruity.
[0006]
However, in order to increase the accuracy of detection by the sensing means (the degree of certainty of the detection result), a person acts so as to be able to detect by the sensing means or increases the number of times of detection. Or need to act. For example, when information is detected by a contact-type sensing means, a person must touch the sensing means without fail, and a non-contact-type sensing means such as when a face image is captured by a camera. Even when information is detected by a person, a person must move so that the camera captures the face from the front. For this reason, a person who is a sensing target has to be aware that information is detected.
[0007]
Therefore, when detecting information about a person, there is a conflicting demand between reducing the sense of discomfort of the person and improving the accuracy of the detection.
[0008]
The present invention has been made in view of such circumstances, and an object of the present invention is to detect information about a person without giving a feeling of strangeness to the person, and to improve the accuracy of the detection. Another object of the present invention is to execute an application for improving a living environment of a person using the detection result.
[0009]
[Means for Solving the Problems]
The sensing toy of the present invention is a toy for detecting information about a person.
[0010]
This sensing toy is a sensing means for detecting information about a person, and an action for performing an action related to the execution of information detection on the sensing object without making the sensing object of the sensing means aware of the execution of information detection. Means. Then, the sensing means detects information on the sensing target when the sensing target is in a state in which the accuracy of detection is increased by responding to the request by the pressing means.
[0011]
According to this configuration, the working unit performs a working related to the execution of the information detection on the sensing target. This action does not make the sensing target aware of the execution of information detection.
[0012]
Then, when the sensing object is in a state in which the accuracy of detection is increased by responding to the action, the sensing means detects information on the sensing object.
[0013]
Since the sensing object only responds to the action of the action means, the sensing object is not conscious of the execution of information detection. Thereby, the feeling of strangeness is reduced. On the other hand, since the accuracy of detection is increased by the sensing target responding to the action, information is reliably and accurately detected by the sensing means.
[0014]
The above-mentioned working means may work on the sensing target by sound, operation, and display.
[0015]
Another sensing toy of the present invention is a sensing means for detecting information about a person, and a sensing mode changing means for changing a sensing mode of the sensing module without making a sensing target of the sensing module aware of execution of information detection. And. Then, based on the behavior prediction of the sensing target, the sensing mode changing unit moves the position of the sensing unit in advance to a position where the accuracy of detection increases when the sensing target takes the predicted behavior.
[0016]
According to this configuration, the sensing mode changing unit moves the position of the sensing unit based on the behavior prediction of the sensing target. Thus, the sensing mode of the sensing means is changed without making the sensing target aware of the execution of information detection.
[0017]
Then, when the sensing target takes a predicted action and the detection accuracy is increased, the sensing means detects information on the sensing target.
[0018]
As described above, the sensing target does not need to take an action for information detection, and if the sensing target behaves without being conscious of the information detection, the sensing toy predicts the action to make the detection accuracy higher. For this reason, since the sensing target does not have to be conscious of the execution of the information detection, the sense of discomfort of the sensing target is reduced. On the other hand, information is detected in a state where detection accuracy is increased, so that information is detected reliably and accurately.
[0019]
The sensing mode changing means may predict the action of the sensing target based on the habit of the person.
[0020]
The sensing means may detect state information of a person, and the sensing toy may further include control means for controlling equipment in accordance with a result of detection of the state information by the sensing means.
[0021]
Further, the sensing means may detect identification information of a person, and the sensing toy may further include identification means for identifying a sensing target based on a detection result of the identification information by the sensing means.
[0022]
Further, the sensing toy may further include control means for controlling equipment in accordance with the identification result of the identification means.
[0023]
The sensing means may detect the state information of the sensing target in response to the identification result of the identification means.
[0024]
The sensing means may receive position detection information that has detected the position of a person in a predetermined space, and set the person as a sensing target.
[0025]
The sensing toy may further include a transmission unit that transmits a detection result of the sensing unit to the outside.
[0026]
Still another sensing toy of the present invention is a sensing means for detecting information about a person, and a precision improving means for increasing the accuracy of detection by the sensing means without making the sensing target of the sensing means aware of the execution of information detection. And
[0027]
Still another sensing toy of the present invention includes sensing means for detecting information about a person, and control means for controlling toy behavior in accordance with a preset behavior program, wherein the sensing means is such that the control means While controlling toy behavior, information about a person is detected.
[0028]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0029]
-Embodiment 1-
INDUSTRIAL APPLICABILITY The sensing toy according to the present invention detects information relating to a person, and particularly in a space (living space) where a person performs an activity, such as a general home, an office, a hotel, a store, and a hospital. An existing person is set as a sensing target. The information about the person detected by the sensing toy includes state information of the person (for example, including body temperature, pulse, emotion, etc.) and identification information of the person (information for identifying a person by an authentication process, Face image, iris image, voiceprint data, etc.). Thus, the information on the person detected by the sensing toy is used for various applications.
[0030]
In the present embodiment, a general household is defined as an action range of the sensing toy, and a space in the general household (the whole building or a specific room in the building) is hereinafter referred to as a home space.
[0031]
FIG. 1 shows a configuration of a
[0032]
Here, before describing the configuration of the
[0033]
(Sensing object detection means)
The sensing target detection means 200 detects the presence of the detection target (person) of the
[0034]
As a general method for detecting a person existing in a specific space, there is a background subtraction method using a camera image. The sensing target detecting means 200 can be configured to use an image sensor. Specifically, the sensing target detecting means 200 using an image sensor includes a camera fixed to a ceiling or a wall of a room, and detects a person or an object in the room based on a camera image captured by the camera. Is configured.
[0035]
Here, the background subtraction method is a method in which a model image as a background is prepared in advance, and an object is detected by taking a difference between a current camera image and the model image.
[0036]
The purpose of the sensing target detecting means 200 in the present system is to detect the presence of a person in the home space. Therefore, when the situation in the home space is small, a person in the home space may be used as a model image. What is necessary is just to use the image captured when it does not exist. When the situation in the home space fluctuates drastically, an image obtained by averaging a plurality of images taken at predetermined time intervals may be used as a model image.
[0037]
Specifically, a method of detecting a person by the background subtraction method will be described with reference to FIG. Here, FIG. 2A is a diagram illustrating an example of a model image, FIG. 2B is a diagram illustrating an image (input image) captured by a camera at a certain point in time, and FIG. FIG. 14 is a diagram illustrating an example of a background difference image obtained by subtracting a model image from an input image. As can be seen from FIG. 2C, in the background difference image, a part having a difference between the input image and the model image appears (see a shaded part in the figure). Therefore, a person existing in the home space can be detected by extracting only the protruding portion (difference value portion). The position of the person thus detected in the home space can be calculated by a general method based on the position of the difference value portion in the camera image.
[0038]
In this case, the sensing
[0039]
Further, the sensing
[0040]
In addition, the sensing
[0041]
(Facility)
There are various types of
[0042]
(Sensing toys)
As shown in FIG. 1, the
[0043]
The operating means 106, the display means 107, the sound generating means 108, and the control means 101 constitute a working means 110 for working on a sensing object as described later.
[0044]
The above means will be described in detail. The operation means 106 is a means for acting on a sensing target by performing various operations (including light emission), and the display means 107 is a means for performing sensing to perform sensing. The sounding
[0045]
Further, the control means 101 controls the operation means 106, the display means 107, and the sound generation means 108 according to a preset action program, thereby controlling the toy action. This toy action is an action performed by the
[0046]
The control means 101 executes such a toy action at an appropriate timing. Therefore, the toy action of the sensing toy is executed even when the information on the sensing target is not detected.
[0047]
The moving means 105 is a means for moving the
[0048]
Various shapes can be employed for the appearance of the
[0049]
The configuration of the
[0050]
The cat-shaped
[0051]
The
[0052]
In the
[0053]
In the
[0054]
As described above, all of the operation means 105, the display means 106, and the sound generation means 107 which constitute the above-mentioned working means 110 are not necessary, and may be omitted as appropriate according to the external shape of the
[0055]
As shown in FIG. 8, the
[0056]
In the
[0057]
(Detection of information about people)
The sensing means 120 included in the
[0058]
Among them, the contact-type sensing means 121 detects information about the sensing target by touching the sensing target, and the contact-type sensing means 121 detects human body temperature, pulse, Examples include state information such as wetness, blood pressure, and blood sugar level of a contact portion, and identification information such as a fingerprint. Among them, the contact-type sensing means 121 for detecting a blood sugar level may be configured to detect a blood sugar level by collecting a small amount of blood when in contact with a person.
[0059]
On the other hand, the non-contact type sensing means 122 and 123 detect information about the sensing target without touching the sensing target, and the image sensor 122 (camera) and the sound sensor 123 (microphone) are specific examples. Can be
[0060]
Among them, specific examples of the information detected by the
[0061]
The
[0062]
In addition, as a non-contact type sensing means, a means for detecting a vein pattern of a human hand or finger may be used. The vein pattern thus detected can be used as identification information for vein authentication.
[0063]
Hereinafter, a method of detecting information on the sensing target by the contact-type sensing means 121, a method of detecting information on the sensing target by the
[0064]
(Detection method using contact-type sensing means)
When the sensing means is a contact type, as the form of the
[0065]
When the sensing means is a contact type, the working means 110 works on the sensing object so that the sensing object touches the sensing means 121. Hereinafter, a method of detecting information using the human-type (or robot-type)
[0066]
When a person exists in the home space, the presence of the person is detected by the sensing target detection means 200, and the position of the person in the home space is detected. The sensing
[0067]
The control means 101 of the
[0068]
When the control means 101 moves to a position near the sensing target in this way, the control means 101 controls the display means 106 and displays an image (see, for example, FIG. 9) prompting a handshake on the
[0069]
The person (sensing target) who has received such an action from the
[0070]
On the other hand, in the cat-
[0071]
It is expected that the stimulating means 110 1 urges the sensing object to apply such a sound or action to the sensing object, so that the sensing object strokes the
[0072]
(Detection method by image sensor)
When the sensing means is an image sensor (camera 122), the form of the
[0073]
In the case of the car-type or helicopter-
[0074]
When the sensing means is the
[0075]
As described above, when a person is present in the home space, the position of the person in the home space is detected by the sensing
[0076]
The control means 101 having received the detection result of the sensing
[0077]
When it is necessary to further capture the face image of the sensing target, the control means 101 outputs still another word by controlling the sound generating means 108 so that the calling to the sensing target can be continued. Good. This makes it possible to maintain the state in which the face of the sensing target faces the direction of the
[0078]
The
[0079]
A similar effect can be obtained by arranging a light emitting body (LED) at a position near the
[0080]
Further, as described above, the approaching means 110 may perform an approach to prompt a handshake to the sensing target. In response to this, when the sensing target grips a portion corresponding to the hand of the
[0081]
On the other hand, in the cat-
[0082]
Further, the
[0083]
Further, in a car-type or helicopter-
[0084]
In the vehicle-
[0085]
Also, in the humanoid and
[0086]
(Detection method using sound sensor)
When the sensing means is a sound sensor (microphone 123), it is preferable to adopt the humanoid 150 shown in FIG. 3 or the
[0087]
When the sensing means is the
[0088]
Note that there are two types of voiceprint authentication: a context-dependent type in which authentication is performed by uttering a pre-registered context, and a context-independent type in which authentication is performed by uttering an arbitrary context. It is also possible to adopt voiceprint authentication of the type. Hereinafter, a method of detecting information by the human-shaped
[0089]
As described above, when a person is present in the home space, the position of the person in the home space is detected by the sensing
[0090]
The control means 101 having received the detection result of the sensing target detecting means 200 controls the moving means 105, thereby moving the
[0091]
Then, when the control means 101 moves to a position near the sensing target, the control means 101 controls the sound generation means. Thereby, for example, a voice saying “Tell me your name gently” is output. At this time, the
[0092]
By performing such a sound-based approach (and an action-based approach) to the sensing object, the sensing object utters its name near the
[0093]
The sound output by the sounding means 108 may be any sound that prompts a person to speak his or her own name at the ear.
[0094]
Also, for example, by causing the sounding means 108 to output a voice saying “Let's shake hands”, the sensing target is guided to grip the
[0095]
When context-independent voiceprint authentication is performed, there is no limitation on the context in which the sensing target utters, and therefore, for example, the
[0096]
As described above, even when the sensing target is made to utter in the vicinity of the
[0097]
More specifically, the control means 101 controls the sounding means 108 to output, for example, a voice saying "Let's talk here," and also controls the moving means 105 to move the
[0098]
As described above, when the
[0099]
(Execution of application)
The
[0100]
Hereinafter, an application executed by the
[0101]
(Application for detecting status information)
As described above, when the contact-type sensing means 121 detects the body temperature, pulse, and wetness of the hand to be sensed, the control means 101 instructs the equipment control means 104 to control the air conditioner, open and close the window. To control the opening and closing of the windows, thereby performing air conditioning in the home space. For example, when the body temperature of the sensing target is lower than a predetermined value, the temperature in the home space may be increased by controlling the air conditioner.
[0102]
Further, since it is possible to determine whether or not the sensing target is in a tension state based on the detection result of the pulse and the humidity, the
[0103]
Furthermore, if a known method of recognizing an emotion from a face image by classifying the movement of each part constituting a human face for each emotion and performing pattern matching is adopted, the
[0104]
The behavior pattern of the sensing toy itself may be changed according to the detected emotion of the sensing target. For example, when the emotion of the sensing object is sad, the
[0105]
The sensing means 120 may detect information about the sensing target at a timing synchronized with the action of the sensing target. For example, information on the sensing target may be detected at the timing when the sensing target returns home, goes to bed, or wakes up. By associating the
[0106]
When the detection is performed at a timing synchronized with the action of the sensing target, the
[0107]
For example, when the
[0108]
When it is determined that the physical condition is good when the sensing target wakes up, the
[0109]
Further, the
[0110]
On the other hand, when it is determined that the physical condition is poor when the sensing target is awakened, the control means 101 causes the equipment control means 104 to execute control of the communication device. And ask the hospital for a prescription. At this time, the
[0111]
As a result, when it is necessary to take a rest, the control means 101 causes the equipment control means 104 to execute the control of the communication device, thereby informing the school or the company of the fact via a telephone or the Internet. Good.
[0112]
(Application associated with detection of identification information)
When the
[0113]
In response to the identification result by the identification means 103, the control means 101 causes the equipment control means 104 to control the
[0114]
Specifically, a preferred room temperature is registered in the
[0115]
In addition, by registering the behavior pattern of each individual at the time of returning home, wake-up, or the like in the
[0116]
For example, if the behavior pattern of the father going home from the entrance to his / her room (dad's room) and then taking a bath is registered in the
[0117]
Thus, when controlling the
[0118]
Furthermore, if the personal belongings list of each individual when going out is registered in the
[0119]
Further, in response to the identification result by the
[0120]
Depending on whether the sensing target is a child or an adult, the sound (words) output by the sounding means 108 may be changed, or the content displayed by the display means 106 may be changed.
[0121]
Further, since the identification means 103 of the
[0122]
(Application by combining identification information detection and state information detection)
After detecting the identification information of the sensing target by the sensing means 120 and identifying the sensing target by the identification means 103, the control means 101 may cause the sensing means 120 to detect the state information of the identified sensing target. Good. By doing so, it is possible to manage histories such as body temperature, pulse, blood pressure, blood sugar level and the like for each individual. Further, the control means 101 may cause the equipment control means 104 to control the communication device to transmit these data to the hospital. In this way, data analysis can be performed at the hospital provided with the data.
[0123]
Further, the control means 101 of the
[0124]
-Embodiment 2
The
[0125]
The sensing
[0126]
In the
[0127]
The sensing means 120 of the
[0128]
(Part 1)
The first is an example in which the sensing means is the
[0129]
As described above, when the sensing means is the
[0130]
Hereinafter, a method of detecting information using the human-shaped
[0131]
As described above, when a person exists in the home space, the position of the person in the home space is detected by the sensing target detection means 200. In the second embodiment, the sensing
[0132]
In addition, the direction of the face may be detected by extracting the skin color region in the head region using the fact that the skin color is the skin color. Instead of extracting the head region, the orientation of the face may be determined by directly obtaining each part constituting the face.
[0133]
When the position of the sensing object in the home space and the orientation of the face are detected in this manner, the sensing
[0134]
The control means 101 having received the detection result of the sensing
[0135]
When the
[0136]
(Part 2)
In "
[0137]
The behavior of the sensing target can be predicted based on the habit of the person. The behavior of the sensing target can be most easily predicted when returning home. It is expected that those who return home will take the action of turning their doors behind and turning their faces toward the inside of the house when they take off their shoes and go home.
[0138]
Therefore, in response to the sensing
[0139]
(Part 3)
“Part 3” relates to the operation of the sensing
[0140]
When the sensing means is the
[0141]
Specifically, the
[0142]
The
[0143]
By doing so, when the sensing target utters, since the preference of the
[0144]
-Embodiment 3
Embodiment 3 relates to a sensing system using a sensing toy. As shown in FIG. 14, this sensing system includes a sensing toy 600, a
[0145]
The sensing toy 600 includes a
[0146]
Since the configurations of the sensing means 120 and the working means 110 are the same as those in the first embodiment, the same reference numerals are given and the description is omitted here.
[0147]
The
[0148]
The
[0149]
The
[0150]
The operation of this sensing system will be described. First, when the sensing
[0151]
As described above, the sensing toy 600 that has received the information from the
[0152]
The information thus detected is sent to the
[0153]
The sensing toy of the sensing system may include the sensing means 120, the sensing mode changing means 112, and the transmitting / receiving means 302.
[0154]
As described above, the sensing
[0155]
The sensing means 120 detects the information on the sensing object when the sensing object is in a state where the accuracy of the detection is increased by responding to the action by the engaging
[0156]
As a result, the
[0157]
On the other hand, since the action of the action means 110 1 is to request a handshake or to give a greeting, it does not make the sensing target aware of the execution of information detection. In this way, direct action on the execution of information detection (for example, by outputting a sound such as "Touch the sensor", the execution of information detection is clearly indicated to the sensing target, and Unlike the action of touching, the indirect action on the execution of information detection (the action itself is not related to the execution of information detection, but the sensing object responds to the action and is related to the execution of information detection. By doing so, the sensing target is not conscious of the execution of information detection. In this way, it is possible to achieve both a reduction in human discomfort and an improvement in detection accuracy.
[0158]
Further, since the toy detects information about a person, it is possible to reduce a sense of discomfort given to the person in a living space including a general household.
[0159]
The above-mentioned approaching
[0160]
Further, another
[0161]
Thus, when the sensing
[0162]
In addition, since the sensing
[0163]
In addition, since the sensing mode changing unit predicts the behavior of the sensing target based on the habit of a person, the prediction can be accurately performed.
[0164]
The sensing
[0165]
In addition, the sensing
[0166]
At this time, a control means 101 (equipment control means 103, database 109) for controlling the
[0167]
In addition, the sensing means 120 detects the state information (body temperature, pulse, wetness of the contact portion, blood pressure, blood sugar level) of the sensing object in response to the identification result of the identification means 103, and thereby, for each individual, Can be managed.
[0168]
The sensing means 120 receives the position information of the person detected by the sensing
[0169]
By further including a transmission unit (transmission / reception unit 302) for transmitting the detection result of the
[0170]
Still another sensing toy of the present invention is a toy for detecting information about a person, and a sensing means 120 for detecting information about a person, and without making a sensing target of the sensing means conscious of execution of information detection. And
[0171]
By means of the accuracy improving means 110 and 112, when detecting information about a person, it is possible to achieve both a reduction in the sense of discomfort of the person and an improvement in the accuracy of the detection.
[0172]
Still another sensing toy of the present invention includes a sensing means 120 for detecting information about a person, and a control means 101 for controlling toy behavior according to a preset behavior program. When the control means 101 is executing the control of the toy behavior, information on a person is detected.
[0173]
According to this configuration, when the control means 101 controls the behavior of the toy, that is, when the sensing toy is acting as a toy, the sensing means 120 detects information about a person. It is possible to detect information about the person without making the user aware of the execution of information detection.
[0174]
In addition, the sensing means 120 detects the information about a person when the control means 101 is executing the control of the toy behavior and the detection accuracy is increased. You may. By doing so, it is possible to achieve both a reduction in human discomfort and an improvement in detection accuracy.
[0175]
-Other embodiments-
In each of the above embodiments, the sensing toy has been described for a general household. However, the sensing toy can be used not only in a general household but also in an office, a hotel, a store, a hospital, a factory, and the like. .
[0176]
Further, the configuration of the sensing toy described in each of the above embodiments can be applied to, for example, a work robot or a care robot. Such a robot may be configured to perform various operations based on information (state information or identification information) on the detected sensing target.
[0177]
For example, in a work or nursing robot, when the sensing target wakes up, in accordance with the result of detecting the temperature of the sensing target, the humidity of the hand, and the like, the sheets are washed or the futon is dried. Is also good.
[0178]
【The invention's effect】
As described above, according to the sensing toy according to the present invention, it is possible to create a state in which the accuracy of detection is increased without making the sensing target aware of information detection by the action means or the sensing mode changing means, It is possible to achieve both a reduction in discomfort and an improvement in detection accuracy.
[0179]
In addition, the (equipment) control unit and the identification unit execute various applications using the detected information, whereby the environment in the space where the sensing target exists can be improved.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating an example of a configuration of a sensing toy according to a first embodiment.
FIG. 2 is an explanatory diagram showing the principle of the background subtraction method.
FIG. 3 is a diagram illustrating an example of a form of a humanoid sensing toy.
FIG. 4 is a diagram showing an example of a form of a cat-type sensing toy.
FIG. 5 is a diagram showing an example of a form of a robot-type sensing toy.
FIG. 6 is a diagram showing an example of a form of a car-shaped sensing toy.
FIG. 7 is a diagram illustrating an example of a form of a helicopter-type sensing toy.
FIG. 8 is a diagram showing a state when a sensing toy is arranged in a living space.
FIG. 9 is a diagram illustrating an example of a screen displayed on a display unit of the sensing toy.
FIG. 10 is an explanatory diagram showing a configuration of a display unit and a sensing unit when a half mirror is used.
FIG. 11 is a view showing the car-shaped toy in a state where it is displayed on the display unit.
FIG. 12 is a block diagram illustrating an example of a configuration of a sensing toy according to a second embodiment.
FIG. 13 is an explanatory diagram showing an example of a moving path of a toy set by a sensing mode changing unit.
FIG. 14 is a block diagram illustrating an example of a configuration of a sensing system according to a third embodiment.
[Explanation of symbols]
100 ・ ・ ・ Sensing toy
500 Sensing toy
600 Sensing toy
101 ... control means
103 ··· Identification means
104 ・ ・ ・ Equipment control means (control means)
106 ・ ・ ・ Operation means
107 ··· Display means
108 ... sounding means
109 ・ ・ ・ Database
110 ・ ・ ・ Working means (Accuracy improving means)
112: Sensing mode changing means (accuracy improving means)
120 sensing means
200: sensing object detection means
300 ・ ・ ・ Facilities
302: Transmission / reception means (transmission means)
Claims (14)
人に関する情報の検出を行うセンシング手段と、
上記センシング手段のセンシング対象に情報検出の実行を意識させることなく、上記センシング対象に対して情報検出の実行に関連する働きかけを行う働きかけ手段と、を備え、
上記センシング手段は、上記センシング対象が、上記働きかけ手段による働きかけに応じることによって検出の確度が高まった状態になったときに、当該センシング対象に関する情報の検出を行うセンシング玩具。A sensing toy that detects information about a person,
Sensing means for detecting information about a person;
Without making the sensing target of the sensing means aware of the execution of information detection, comprising: a working means for performing a work related to the execution of information detection on the sensing target,
The sensing toy is a sensing toy that detects information about the sensing target when the sensing target is in a state where the accuracy of detection is increased by responding to the challenge by the challenger.
働きかけ手段は、センシング対象に対して、音による働きかけを行うセンシング玩具。In claim 1,
The approaching means is a sensing toy that uses sound to approach the sensing target.
働きかけ手段は、センシング対象に対して、動作による働きかけを行うセンシング玩具。In claim 1,
The action means is a sensing toy that works on the sensing target by action.
働きかけ手段は、センシング対象に対して、表示による働きかけを行うセンシング玩具。In claim 1,
The action means is a sensing toy that works on the sensing target by display.
人に関する情報の検出を行うセンシング手段と、
上記センシング手段のセンシング対象に情報検出の実行を意識させることなく、上記センシング手段のセンシング態様を変更させるセンシング態様変更手段と、を備え、
上記センシング態様変更手段は、上記センシング対象の行動予測に基づいて、該センシング対象が予測した行動をとったときに検出の確度が高まる位置に、上記センシング手段の位置を予め移動させるセンシング玩具。A sensing toy that detects information about a person,
Sensing means for detecting information about a person;
Without making the sensing target of the sensing means aware of execution of information detection, a sensing mode changing means for changing the sensing mode of the sensing means,
The sensing toy, wherein the sensing mode changing unit moves the position of the sensing unit in advance to a position where the accuracy of detection increases when the sensing target takes the predicted behavior based on the behavior prediction of the sensing target.
センシング態様変更手段は、人の習慣に基づいてセンシング対象の行動を予測するセンシング玩具。In claim 5,
The sensing toy changing means is a sensing toy for predicting a behavior of a sensing target based on a human habit.
センシング手段は、人の状態情報を検出し、
上記センシング手段による状態情報の検出結果に応じて設備の制御を行う制御手段をさらに備えるセンシング玩具。In claim 1 or claim 5,
The sensing means detects state information of a person,
A sensing toy further comprising control means for controlling equipment according to a result of detection of state information by the sensing means.
センシング手段は、人の識別情報を検出し、
上記センシング手段による識別情報の検出結果に基づいてセンシング対象の識別を行う識別手段をさらに備えるセンシング玩具。In claim 1 or claim 5,
The sensing means detects human identification information,
A sensing toy further comprising identification means for identifying a sensing target based on a detection result of identification information by the sensing means.
識別手段の識別結果に応じて、設備の制御を行う制御手段をさらに備えるセンシング玩具。In claim 8,
A sensing toy further comprising control means for controlling equipment according to the identification result of the identification means.
センシング手段は、識別手段の識別結果を受けてセンシング対象の状態情報の検出を行うセンシング玩具。In claim 8,
The sensing means is a sensing toy that detects state information of a sensing target in response to an identification result of the identification means.
センシング手段は、所定の空間内における人の位置を検出した位置検出情報を受けて、当該人をセンシング対象に設定するセンシング玩具。In claim 1 or claim 5,
The sensing means is a sensing toy that receives position detection information that detects a position of a person in a predetermined space and sets the person as a sensing target.
センシング手段の検出結果を外部に送信する送信手段をさらに備えるセンシング玩具。In claim 1 or claim 5,
A sensing toy further comprising a transmitting means for transmitting a detection result of the sensing means to the outside.
人に関する情報の検出を行うセンシング手段と、
上記センシング手段のセンシング対象に情報検出の実行を意識させることなく、上記センシング手段による検出の確度を高める確度向上手段とを備えるセンシング玩具。A sensing toy that detects information about a person,
Sensing means for detecting information about a person;
A sensing toy comprising: a means for improving the accuracy of detection by the sensing means without making the sensing target of the sensing means aware of the execution of information detection.
人に関する情報の検出を行うセンシング手段と、
予め設定された行動プログラムに従って玩具行動の制御を行う制御手段と、を備え、
上記センシング手段は、上記制御手段が玩具行動の制御を実行しているときに、人に関する情報の検出を行うセンシング玩具。A sensing toy that detects information about a person,
Sensing means for detecting information about a person;
Control means for controlling toy behavior according to a preset behavior program,
The sensing toy, wherein the sensing means is configured to detect information about a person when the control means is controlling the behavior of the toy.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003159593A JP2004357915A (en) | 2003-06-04 | 2003-06-04 | Sensing toy |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003159593A JP2004357915A (en) | 2003-06-04 | 2003-06-04 | Sensing toy |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004357915A true JP2004357915A (en) | 2004-12-24 |
Family
ID=34052612
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003159593A Pending JP2004357915A (en) | 2003-06-04 | 2003-06-04 | Sensing toy |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004357915A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005305631A (en) * | 2004-03-25 | 2005-11-04 | Nec Corp | Robot and its controlling method |
US7539556B2 (en) | 2004-01-09 | 2009-05-26 | Honda Motor Co., Ltd. | Face image acquisition method and face image acquisition system |
JP2009183538A (en) * | 2008-02-07 | 2009-08-20 | Saitama Univ | Wheelchair with autonomous traveling ability |
JP2010510895A (en) * | 2006-11-30 | 2010-04-08 | 韓國電子通信研究院 | Robot posture detection apparatus and method |
WO2013052644A1 (en) | 2011-10-04 | 2013-04-11 | Children's Medical Center Coporation | Emotional control methods and apparatus |
JP2017010516A (en) * | 2015-06-24 | 2017-01-12 | 百度在線網絡技術(北京)有限公司 | Method, apparatus, and terminal device for human-computer interaction based on artificial intelligence |
US10835188B2 (en) | 2016-09-23 | 2020-11-17 | Casio Computer Co., Ltd. | Robot providing health support with communication, robot control method, and non-transitory recording medium |
JP2021021852A (en) * | 2019-07-29 | 2021-02-18 | シャープ株式会社 | Voice recognition device, electronic apparatus, control method and control program |
JP2021036993A (en) * | 2019-08-31 | 2021-03-11 | 学校法人拓殖大学 | Vital sign measuring robot |
-
2003
- 2003-06-04 JP JP2003159593A patent/JP2004357915A/en active Pending
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7539556B2 (en) | 2004-01-09 | 2009-05-26 | Honda Motor Co., Ltd. | Face image acquisition method and face image acquisition system |
JP2005305631A (en) * | 2004-03-25 | 2005-11-04 | Nec Corp | Robot and its controlling method |
JP4595436B2 (en) * | 2004-03-25 | 2010-12-08 | 日本電気株式会社 | Robot, control method thereof and control program |
US8376803B2 (en) | 2004-03-25 | 2013-02-19 | Nec Corporation | Child-care robot and a method of controlling the robot |
JP2010510895A (en) * | 2006-11-30 | 2010-04-08 | 韓國電子通信研究院 | Robot posture detection apparatus and method |
JP2009183538A (en) * | 2008-02-07 | 2009-08-20 | Saitama Univ | Wheelchair with autonomous traveling ability |
WO2013052644A1 (en) | 2011-10-04 | 2013-04-11 | Children's Medical Center Coporation | Emotional control methods and apparatus |
JP2014528806A (en) * | 2011-10-04 | 2014-10-30 | チルドレンズ メディカル センター コーポレーション | Emotion control method and apparatus |
EP2763763A4 (en) * | 2011-10-04 | 2015-07-22 | Childrens Medical Center | Emotional control methods and apparatus |
JP2017010516A (en) * | 2015-06-24 | 2017-01-12 | 百度在線網絡技術(北京)有限公司 | Method, apparatus, and terminal device for human-computer interaction based on artificial intelligence |
US10835188B2 (en) | 2016-09-23 | 2020-11-17 | Casio Computer Co., Ltd. | Robot providing health support with communication, robot control method, and non-transitory recording medium |
JP2021021852A (en) * | 2019-07-29 | 2021-02-18 | シャープ株式会社 | Voice recognition device, electronic apparatus, control method and control program |
JP2021036993A (en) * | 2019-08-31 | 2021-03-11 | 学校法人拓殖大学 | Vital sign measuring robot |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7320239B2 (en) | A robot that recognizes the direction of a sound source | |
CN109475781B (en) | Behavioral autonomous robot understanding physical contact | |
JP6409206B2 (en) | Autonomous robot that welcomes you | |
JP6402320B2 (en) | An autonomous behavioral robot | |
JP6472113B2 (en) | Autonomous robots and programs that maintain a natural sense of distance | |
JP7400923B2 (en) | Information processing device and information processing method | |
JP7205148B2 (en) | ROBOT, CONTROL METHOD AND PROGRAM | |
JP2004357915A (en) | Sensing toy | |
US11511410B2 (en) | Artificial intelligence (AI) robot and control method thereof | |
US20220288791A1 (en) | Information processing device, information processing method, and program | |
JP7296626B2 (en) | Information processing device and program | |
US11938625B2 (en) | Information processing apparatus, information processing method, and program | |
KR102519599B1 (en) | Multimodal based interaction robot, and control method for the same | |
WO2019088160A1 (en) | Autonomously acting robot capable of executing reflex action | |
JP2020091636A (en) | Voice interactive device control method | |
WO2021085175A1 (en) | Autonomous mobile object, information processing method, program, and information processing device | |
US11687049B2 (en) | Information processing apparatus and non-transitory computer readable medium storing program | |
WO2020202540A1 (en) | Characteristic data setting device, robot, terminal device, and characteristic data setting method | |
Puehn et al. | Design of a low-cost social robot: Towards personalized human-robot interaction | |
JP2004017185A (en) | Robot control device | |
US20220413795A1 (en) | Autonomous mobile body, information processing method, program, and information processing apparatus | |
KR200386045Y1 (en) | Humanoid Robot using Emotion Expression based on the Embedded System | |
JP2004046400A (en) | Speaking method of robot | |
JP2003190651A (en) | False creature device | |
JP2003190650A (en) | False creature device |