JP2004357915A - Sensing toy - Google Patents

Sensing toy Download PDF

Info

Publication number
JP2004357915A
JP2004357915A JP2003159593A JP2003159593A JP2004357915A JP 2004357915 A JP2004357915 A JP 2004357915A JP 2003159593 A JP2003159593 A JP 2003159593A JP 2003159593 A JP2003159593 A JP 2003159593A JP 2004357915 A JP2004357915 A JP 2004357915A
Authority
JP
Japan
Prior art keywords
sensing
toy
information
person
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003159593A
Other languages
Japanese (ja)
Inventor
Satoshi Sato
智 佐藤
Kazuo Nobori
一生 登
Shusaku Okamoto
修作 岡本
Yoshihiko Matsukawa
善彦 松川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2003159593A priority Critical patent/JP2004357915A/en
Publication of JP2004357915A publication Critical patent/JP2004357915A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Toys (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To detect information relating to a person without making the person have the feeling of incompatibility, to improve the certainty of the detection and to perform an application for improving the life environment of the person by utilizing the detected result. <P>SOLUTION: A sensing toy is provided with an appealing means 110 for performing appealing relating to the performance of information detection to a sensing object without making the sensing object be conscious of the performance of the information detection. A sensing means 120 detects the information relating to the sensing object when the sensing object becomes a state where the certainty of the detection is increased by responding to appealing by the appealing means 110. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、人に関する情報の検出を行う玩具に関する。
【0002】
【従来の技術】
従来より、一般家庭内において人の識別を行い、その識別結果に応じて家庭内の各機器の制御を行うシステムが知られている(例えば、特許文献1参照)。
【0003】
また、一般家庭用のロボットであって、顔認証により人の識別を行うロボットも知られている(例えば、特許文献2参照)。
【0004】
【特許文献1】
特開2002−278639号公報
【特許文献2】
特開2002−304629号公報
【0005】
【発明が解決しようとする課題】
このように近年、生活空間(人が活動を行う空間であって、一般家庭、オフィス、ホテル、店舗及び病院等を含む)において、人に関する情報を検出する要求が高まっている。ところが、こうした情報を検出するセンシング手段によって、情報の検出が行われることに対して、人は違和感を感じる場合がある。このため、違和感を与えることなく人に関する情報の検出を行いたいという要求がある。
【0006】
しかしながら、センシング手段による検出の確度(検出結果の確かさの度合い)を高めようとすれば、人は、センシング手段による検出が可能な状態となるように行動したり、検出の回数が増えるように行動したりする必要がある。例えば、接触型のセンシング手段によって情報の検出が行われるときには、人はそのセンシング手段を確実に触れなければならず、また例えばカメラで顔画像を撮像するときのように、非接触型のセンシング手段によって情報の検出が行われるときにも、カメラが顔を正面から捕らえるように、人が移動をしなければならない。このためセンシング対象である人は、情報の検出が行われることを意識せざるを得ない。
【0007】
従って、人に関する情報を検出する場合において、人の違和感の低減と、検出の確度の向上とは相反する要求となってしまう。
【0008】
本発明は、このような事情に鑑みてなされたものであり、その目的とするところは、人に関する情報を、その人に違和感を与えることなく検出する一方で、その検出の確度の向上を図ることにあり、さらには、その検出結果を利用して人の生活環境を向上させるアプリケーションを実行することにある。
【0009】
【課題を解決するための手段】
本発明のセンシング玩具は、人に関する情報の検出を行う玩具である。
【0010】
このセンシング玩具は、人に関する情報の検出を行うセンシング手段と、上記センシング手段のセンシング対象に情報検出の実行を意識させることなく、上記センシング対象に対して情報検出の実行に関連する働きかけを行う働きかけ手段と、を備える。そして、上記センシング手段は、上記センシング対象が、上記働きかけ手段による働きかけに応じることによって検出の確度が高まった状態になったときに、当該センシング対象に関する情報の検出を行う。
【0011】
この構成によると、働きかけ手段は、センシング対象に対して、情報検出の実行に関連する働きかけを行う。この働きかけは、センシング対象に情報検出の実行を意識させることがないものである。
【0012】
そして、上記センシング対象が、働きかけに応じることによって検出の確度が高まった状態になったときに、センシング手段は、そのセンシング対象に関する情報の検出を行う。
【0013】
センシング対象は働きかけ手段の働きかけに応じるだけであるため、センシング対象は情報検出の実行を意識しない。これにより、違和感の軽減が図られる。一方、センシング対象が働きかけに応じることによって検出の確度が高まった状態になるため、センシング手段により確実かつ精度よく情報が検出される。
【0014】
上記働きかけ手段は、センシング対象に対して、音、動作、表示による働きかけを行えばよい。
【0015】
本発明の他のセンシング玩具は、人に関する情報の検出を行うセンシング手段と、上記センシング手段のセンシング対象に情報検出の実行を意識させることなく、上記センシング手段のセンシング態様を変更させるセンシング態様変更手段と、を備える。そして、上記センシング態様変更手段は、上記センシング対象の行動予測に基づいて、該センシング対象が予測した行動をとったときに検出の確度が高まる位置に、上記センシング手段の位置を予め移動させる。
【0016】
この構成によると、センシング態様変更手段は、センシング対象の行動予測に基づいてセンシング手段の位置を移動させる。こうして、センシング対象に情報検出の実行を意識させることなく、センシング手段のセンシング態様が変更される。
【0017】
そして、上記センシング対象が予測された行動をとって、検出の確度が高まった状態になったときに、上記センシング手段が、そのセンシング対象に関する情報の検出を行う。
【0018】
このように、センシング対象は、情報検出のための行動をとる必要がなく、情報検出を意識せずに振舞っていれば、センシング玩具側がその行動を予測して検出の確度が高まる状態にする。このため、センシング対象は、情報検出の実行を意識することがないため、センシング対象の違和感が軽減される。一方、検出の確度が高まった状態で情報の検出が行われるため、確実かつ精度よく情報が検出される。
【0019】
上記センシング態様変更手段は、人の習慣に基づいてセンシング対象の行動を予測すればよい。
【0020】
上記センシング手段は、人の状態情報を検出し、上記センシング玩具は、該センシング手段による状態情報の検出結果に応じて設備の制御を行う制御手段をさらに備えてもよい。
【0021】
また、上記センシング手段は、人の識別情報を検出し、上記センシング玩具は、該センシング手段による識別情報の検出結果に基づいてセンシング対象の識別を行う識別手段をさらに備えてもよい。
【0022】
さらに、上記センシング玩具は、上記識別手段の識別結果に応じて、設備の制御を行う制御手段をさらに備えてもよい。
【0023】
上記センシング手段は、上記識別手段の識別結果を受けてセンシング対象の状態情報の検出を行うようにしてもよい。
【0024】
上記センシング手段は、所定の空間内における人の位置を検出した位置検出情報を受けて、当該人をセンシング対象に設定すればよい。
【0025】
上記センシング玩具は、センシング手段の検出結果を外部に送信する送信手段をさらに備えてもよい。
【0026】
本発明のさらに他のセンシング玩具は、人に関する情報の検出を行うセンシング手段と、上記センシング手段のセンシング対象に情報検出の実行を意識させることなく、上記センシング手段による検出の確度を高める確度向上手段とを備える。
【0027】
本発明のさらに他のセンシング玩具は、人に関する情報の検出を行うセンシング手段と、予め設定された行動プログラムに従って玩具行動の制御を行う制御手段と、を備え、上記センシング手段は、上記制御手段が玩具行動の制御を実行しているときに、人に関する情報の検出を行う。
【0028】
【発明の実施の形態】
以下、本発明の実施の形態について、図面を参照しながら説明する。
【0029】
−実施形態1−
本発明に係るセンシング玩具は、人に関する情報を検出するものであり、特に、一般家庭、オフィス、ホテル、店舗及び病院等の、人が活動を行う空間(生活空間)において、その生活空間内に存在する人をセンシング対象とする。このセンシング玩具が検出する人に関する情報としては、人の状態情報(例えば、体温、脈拍、感情等を含む)と、人の識別情報(認証処理によって人の識別を行うための情報であって、顔画像、虹彩画像、声紋データ等を含む)との2種類がある。こうして、センシング玩具によって検出された人に関する情報は、各種のアプリケーションに利用される。
【0030】
本実施形態では、一般家庭をセンシング玩具の行動範囲とし、以下では、その一般家庭内の空間(建物全体、又は建物内の特定の部屋)を家庭空間と呼ぶ。
【0031】
図1は、本実施形態に係るセンシング玩具100 の構成を示していて、このセンシング玩具100 には、センシング玩具100 のセンシング対象となる人の存在を検出するセンシング対象検出手段200 と、センシング玩具100 によって検出された情報に基づいて制御される設備300 とのそれぞれが接続されている。
【0032】
ここで、上記センシング玩具100 の構成について説明する前に、センシング対象検出手段200 及び設備300 について説明する。
【0033】
(センシング対象検出手段)
センシング対象検出手段200 は、センシング玩具100 の行動範囲(本実施形態では、家庭空間内)において、センシング玩具100 の検出対象(人)の存在を検出するものである。
【0034】
特定の空間内に存在する人を検出する一般的な方法として、カメラ画像を用いた背景差分法がある。センシング対象検出手段200 は、画像センサを用いるものに構成することができる。具体的に、画像センサを用いたセンシング対象検出手段200 は、部屋の天井や壁等に固定したカメラを備えていて、そのカメラが撮像したカメラ画像によって、室内の人や物の検出を行うように構成される。
【0035】
ここで、背景差分法とは、背景としてのモデル画像を予め用意しておき、現在のカメラ画像と上記モデル画像との差分を取ることによって、対象を検出する方法である。
【0036】
本システムにおけるセンシング対象検出手段200 は、家庭空間内の人の存在を検出することが目的であるため、モデル画像としては、家庭空間内の状況変動が少ない場合は、その家庭空間内に人が存在していないときに撮像した画像を用いればよい。尚、家庭空間内の状況変動が激しい場合は、所定の時間間隔を空けて撮影された複数の画像を平均して得られた画像を、モデル画像として用いればよい。
【0037】
具体的に、背景差分法による人の検出方法について、図2を参照しながら説明する。ここで、図2(a)はモデル画像の例を示す図であり、図2(b)はある時点でカメラが撮影した画像(入力画像)を示す図であり、図2(c)は、入力画像からモデル画像を差し引くことによって得られた背景差分画像の例を示す図である。図2(c)から分かるように、背景差分画像では、入力画像とモデル画像との差のある部分が浮き出てくる(同図の網掛け部分参照)。このため、その浮き出た部分(差分値部分)のみを取り出すことで家庭空間内に存在する人を検出することができる。こうして検出した人の、家庭空間内における位置は、そのカメラ画像における差分値部分の位置に基づいて、一般的な手法により演算することが可能である。
【0038】
尚、ここでは、センシング対象検出手段200 を、家庭空間内に設置したカメラによって構成したが、カメラは家庭空間に設置しなくても、その他の物(例えば本センシング玩具100 とは異なる玩具等)にカメラを設置することによって構成することも可能である。
【0039】
また、センシング対象検出手段200 を、センシング玩具100 にカメラを取り付けることによって構成してもよい。この場合は、センシング玩具100 が、対象検出手段200 を有することになる。
【0040】
また、センシング対象検出手段200 は、カメラ画像を利用したものに限らず、例えば赤外線センサ、温度センサ、音センサ等を用いて人の存在を検出するものとしてもよい。
【0041】
(設備)
センシング玩具100 の検出結果に応じて制御される設備300 としては、種々のものが存在する。例えば、家庭空間の空調を行う空調装置(いわゆるエアコンディショナーの他に、ストーブ等の暖房器具を含む)、家庭空間に設けられている窓の開閉を行う窓開閉装置、家庭空間内に音楽を流す音響装置、家庭空間内に各種の香りを拡げる芳香装置、電話やインターネットを介して外部との通信を行う通信装置、が一例として挙げられる。この設備300 の具体的な制御については後述する。
【0042】
(センシング玩具)
センシング玩具100 は、図1に示すように、センシング対象検出手段200 の検出結果を受けて、後述する各手段を制御する制御手段101 と、センシング対象に関する情報を検出するセンシング手段120 と、上記センシング手段120 の検出結果に基づいて人(センシング対象)の識別を行う識別手段103 と、上記センシング手段120 の検出結果に応じて上記設備300 の制御を行う設備制御手段104 と、センシング玩具100 自体を移動させる移動手段105 と、センシング玩具100 自体の動作を行う動作手段106 と、表示を行う表示手段107 と、音を出力する発音手段108 と、を備えている。
【0043】
上記動作手段106 、表示手段107 、発音手段108 及び制御手段101 によって、後述するように、センシング対象に対する働きかけを行う働きかけ手段110 が構成される。
【0044】
上記各手段について詳細に説明すると、上記動作手段106 は、各種の動作(発光を含む)を行うことによって、センシング対象に対する働きかけを行う手段であり、表示手段107 は、表示を行うことによって、センシング対象に対する働きかけを行う手段であり、発音手段108 は、音(言葉や音楽を含む)を出力することによって、センシング対象に対する働きかけを行う手段である。この発音手段108 は、各種の音声データを予め有していて、その音声データを選択して出力する構成としてもよいし、音声合成技術を利用して、波形合成を行うことにより種々の音声を出力する構成としてもよい。この発声手段が出力する音としては、後述するように「こっちをみて」や「こんにちわ」等の話言葉や、猫の鳴き声、クラクション音等がある。
【0045】
また、上記制御手段101 は、予め設定された行動プログラムに従って、上記動作手段106 、表示手段107 、及び発音手段108 を制御し、それによって、玩具行動の制御を行う。この玩具行動は、センシング玩具100 が玩具として行う行動であり、その行動自体は、センシング対象に対する働きかけの際の行動と略同じである。例えば、後述するように、人型の玩具150 やロボット型の玩具170 では、人に握手を求める動作や表示、「握手をして下さい」「こっちをみて」「こんにちわ」等の人への呼びかけに係る音声の出力、腕部を振る動作、はそれぞれ玩具行動の一例である。また、猫型の玩具160 では、「にゃーにゃー」という猫の鳴き声の出力、首・尾・脚を動かすことによる猫が人にじゃれるような動作、はそれぞれ玩具行動の一例である。さらに、車型の玩具180 やヘリコプター型の玩具190 における、「こっちを見て!」という文章の表示、クラクション音の出力、ヘッドライトの点灯・点滅、はそれぞれ玩具行動の一例である。
【0046】
上記制御手段101 は、こうした玩具行動を適宜のタイミングで実行する。従って、センシング対象に関する情報の検出を行わないときでも、センシング玩具の玩具行動は実行される。
【0047】
上記移動手段105 は、センシング玩具100 自体を移動させる手段であり、この移動手段105 は省略することが可能である。つまり、センシング玩具100 は移動するものであってもよいし、移動しないものであってもよい。
【0048】
こうしたセンシング玩具100 の外観形状は、種々のものを採用することができる。具体例としては、図3〜5に示す動物型玩具(図3は人型玩具、図4は猫型玩具、図5はロボット型玩具である)や、図6,7に示す乗り物型玩具(図6は車型玩具、図7はヘリコプター型玩具)が挙げられる。尚、センシング玩具100 の外観形状はこれに限るものではない。
【0049】
各図に示すセンシング玩具100 の構成について説明すると、図3に示す人型玩具150 は、頭部151 、胴部152 、2つの腕部153 、2つの脚部154 を備えている。移動手段105 は、脚部154 によって構成され、この玩具150 は2足歩行型に構成されている。動作手段107 は、頭部151 、腕部153 によって構成される。これにより、人型玩具150 は、腕を振ったり、センシング対象と握手したりする動作を行うように構成される。また、表示手段106 (表示部106a)が胴部152 に設けられ、発音手段108 (スピーカ108a)が頭部151 に設けられている。
【0050】
図4に示す猫型玩具160 は、頭部161 、胴部162 、4つの脚部163 、尾部164 を備えている。移動手段105 は脚部163 によって構成され、この玩具160 は4足歩行型に構成されている。動作手段107 は頭部161 、脚部163 及び尾部164 によって構成される。これにより、猫型玩具160 は、首をかしげたり、尾を振ったり、前後脚を動かしたりする動作を行うように構成される。また、発音手段108 (108a)が頭部161 に設けられている。尚、図例の猫型玩具160 では、表示手段106 が省略されている。
【0051】
図5に示すロボット型玩具170 は、頭部171 、胴部172 、腕部173 、無限軌道部174 (キャタピラ)を備えている。移動手段105 は無限軌道部174 によって構成され、動作手段107 は頭部171 、腕部173 によって構成されている。また、表示手段106 (106a)が胴部172 に設けられ、発音手段108 (108a)が頭部171 に設けられている。
【0052】
また、図6に示す車型玩具180 では、移動手段105 は、車輪181 によって構成され、動作手段107 は、玩具180 の前面に設けられた発光を行うヘッドライト182 によって構成される。この車型玩具180 では、表示手段106 はフロントガラス183 部分に設ければよい。例えばフロントガラス183 部分をCRTや液晶ディスプレイによって構成してもよいし、後述するように、フロントガラス183 をハーフミラーにして、このフロントガラス183 を投影機のスクリーンとしてもよい。また、発音手段108 は車体内部に設けられている。
【0053】
図7に示すヘリコプター型玩具190 では、移動手段105 は回転翼191 によって構成され、この玩具190 は、回転翼191 の駆動によって空中を飛行することで移動する。また、表示手段106 は、車型玩具180 と同様に、フロントガラス192 部分に設ければよい。また、発音手段108 は機体内に設けられている。尚、図例のヘリコプター型玩具190 では、動作手段107 は省略されている。
【0054】
このように、上記働きかけ手段110 を構成する動作手段105 、表示手段106 、発音手段107 は全て必要ではなく、センシング玩具100 の外観形状に応じて適宜省略すればよい。
【0055】
このセンシング玩具100 は、図8に示すように、家庭空間内に配置され、必要に応じて空間内を移動し、その空間内に存在する人に関する情報を検出する。
【0056】
センシング玩具100 において、家庭空間内に存在する人に関する情報の検出は、センシング手段120 及び働きかけ手段110 によって行われ、検出結果を利用したアプリケーションの実行は、設備制御手段104 及び働きかけ手段110 によって行われる。そこで先ず、センシング手段120 及び働きかけ手段110 による人に関する情報の検出の様々な形態について説明し、その後に、設備制御手段104 及び働きかけ手段110 による各種アプリケーションの実行について説明する。
【0057】
(人に関する情報の検出)
本実施形態に係るセンシング玩具100 が備えるセンシング手段120 は、接触型のセンシング手段121 と、非接触型のセンシング手段122 ,123 とに大別することができる。
【0058】
この内、接触型のセンシング手段121 は、センシング対象に触れることで、そのセンシング対象に関する情報を検出するものであり、この接触型のセンシング手段121 が検出するものとしては、人の体温、脈拍、接触した部分の湿り気、血圧、血糖値等の状態情報、及び指紋等の識別情報が一例として挙げられる。この内、血糖値の検出を行う接触型のセンシング手段121 は、人に接触しているときに微量の血液を採取して血糖値の検出を行うように構成すればよい。
【0059】
一方、非接触型のセンシング手段122 ,123 は、センシング対象に触れることなく、そのセンシング対象に関する情報を検出するものであり、画像センサ122 (カメラ)及び音センサ123 (マイクロフォン)が具体例として挙げられる。
【0060】
この内、画像センサ122 が検出する情報としては、人の顔画像、虹彩画像等が具体例として挙げられる。顔画像を状態情報として用いれば人の感情の検出や顔色の検出に利用することができる。また、顔画像を識別情報として用いれば、顔認証に利用することができる。
【0061】
音センサ123 が検出するものとしては、人の発声が挙げられる。こうして検出した人の発声は識別情報として、声紋認証に利用することができる。
【0062】
尚、非接触型のセンシング手段としては、人の手や指の静脈パターンを検出するものも挙げられる。こうして検出した静脈パターンは識別情報として、静脈認証に利用することができる。
【0063】
以下、接触型のセンシング手段121 によるセンシング対象に関する情報の検出手法と、非接触型のセンシング手段として、画像センサ122 によるセンシング対象に関する情報の検出手法と、音センサ123 によるセンシング対象に関する情報の検出手法とについて、説明する。
【0064】
(接触型のセンシング手段による検出手法)
センシング手段が接触型であるときには、センシング玩具100 の形態としては、図3に示す人型玩具150 や、図5に示すロボット型玩具170 を採用することができる。この場合に、接触型のセンシング手段121 は腕部153 ,173 (特に人の手に相当する部分)に設けることが好ましい。また、図4に示す猫型玩具160 を採用することも可能であり、この場合は、胴部162 (首の後ろや、あごの下、背中、お腹の位置)に、接触型のセンシング手段121 を設けることが好ましい。つまり、接触型のセンシング手段121 は、センシング玩具100 の形態に応じて、人が触れる確率の高い位置に配置することが好ましい。
【0065】
センシング手段が接触型であるときには、働きかけ手段110 は、センシング対象がセンシング手段121 を触れるようにこのセンシング対象に対する働きかけを行う。以下、腕部153 に接触型のセンシング手段121 を設けた人型(又はロボット型)のセンシング玩具150 による情報の検出手法について具体的に説明する。
【0066】
家庭空間内に人が存在するときには、センシング対象検出手段200 によってその人の存在が検出され、それと共に、その人の家庭空間内における位置が検出される。センシング対象検出手段200 は、その検出結果をセンシング玩具100 に送る。このときに送られるデータは、人の現在位置である。
【0067】
センシング玩具100 の制御手段101 は、センシング対象検出手段200 の検出結果を受けて、その人をセンシング対象に設定して、情報の検出を行う。そのために先ず、制御手段101 は移動手段105 の制御を行い、センシング玩具100 の位置がそのセンシング対象の近傍位置となるように、センシング玩具100 を移動させる。
【0068】
こうして、センシング対象の近傍位置まで移動をすれば、制御手段101 は、表示手段106 の制御を行い、胴部152 に設けた表示部106aに握手することを促す画像(例えば図9参照)を表示させる。尚、こうした画像に代えて「握手をして下さい」という文章を表示部106aに表示してもよい。また、制御手段101 は、発音手段108 の制御を行い、「握手をして下さい」という音声を出力させる。さらに、制御手段101 は、動作手段107 の制御を行い、図3に示すように、腕部153 を斜め前方に位置付けて握手を求めるような動作をさせる。このようにして働きかけ手段110 は、表示、音、動作によって握手をすることを促す働きかけを、センシング対象に対して行う。
【0069】
人型センシング玩具150 からのこうした働きかけを受けた人(センシング対象)は、人型玩具150 の、手に相当する部分を握る動作を行うことになる。これにより、センシング対象の手が腕部153 に設けられた接触型のセンシング手段121 と接触することになる。こうして、センシング手段121 は、検出の確度が高まった状態で、そのセンシング対象の体温、脈拍、手の湿り気、指紋、血圧、血糖値等を検出することが可能になる。
【0070】
一方、胴部162 に接触型のセンシング手段121 を設けた猫型のセンシング玩具160 では、制御手段101 は、発音手段108 の制御を行い、例えば「にゃーにゃー」という猫の鳴き声を出力させる。また、制御手段101 は動作手段107 の制御を行い、玩具160 の首、尾、脚を動かすことによって、猫が人にじゃれるような動作をさせる。
【0071】
働きかけ手段110 が、こうした音、動作による働きかけをセンシング対象に対して行うことにより、センシング対象が猫型玩具160 の胴部162 を撫でたりすることが期待される。これにより、センシング対象の手がその胴部162 に設けられた接触型のセンシング手段121 と接触することになり、そのセンシング手段121 は、検出の確度が高まった状態でそのセンシング対象に関する情報を検出することが可能になる。
【0072】
(画像センサによる検出手法)
センシング手段が画像センサ(カメラ122 )であるときには、センシング玩具100 の形態としては、図3〜7に示す人型150 、猫型160 、ロボット型170 、車型180 、ヘリコプター型190 のいずれの型も採用することができる。この内、人型、猫型、ロボット型玩具150 ,160 ,170 では、カメラ122は頭部151 ,161 ,171 (顔に相当する部分)に設けることが好ましい。
【0073】
また、車型やヘリコプター型玩具180 ,190 では、カメラ122 はフロントガラス183 ,192 の内側に設けることが好ましい。ここで、上記フロントガラス183 ,192 をハーフミラーにしたときには、図10に示すように、このフロントガラス183 ,192 を投影機400 のスクリーンとして利用する一方で、カメラ122 は、このフロントガラス183 ,192 を介して外部を撮像することが可能になる。
【0074】
センシング手段がカメラ122 であり、特にそのカメラ画像を顔認証や虹彩認証に利用するときには、働きかけ手段110 は、カメラ122 がセンシング対象の顔を正面から捕らえることができるように、そのセンシング対象に対する働きかけを行う。以下、頭部151 にカメラ122 を設けた人型のセンシング玩具150 による情報の検出手法について具体的に説明する。尚、ロボット型のセンシング玩具170 でも同様である。
【0075】
上述したように、家庭空間内に人が存在するときには、センシング対象検出手段200 によってその人の家庭空間内における位置が検出され、その検出結果は、センシング対象検出手段200 からセンシング玩具100 に送られる。
【0076】
センシング対象検出手段200 の検出結果を受けた制御手段101 は、その人をセンシング対象に設定しかつ、移動手段105 を制御することによって、センシング対象の近傍位置まで移動をする。そして、上記制御手段101 は発音手段108 の制御を行い、例えば「こっちをみて」や「こんにちわ」という音声を出力する。こうした呼びかけ(働きかけ)をセンシング対象に対して行うことにより、そのセンシング対象はその音声が発せられた方に顔を向けることになる。人は音が聞こえたときに、その音が出力された方向を見る傾向があるためである。また、人は顔であると認識できる部分が存在するときには、その部分を自然と見つめるという傾向を有している。このため、音声が出力された方向に顔を向けたセンシング対象は、そこに存在する人型(又はロボット型)玩具150 の頭部151 を見つめることになる。こうして、人型玩具150 の頭部151 に設けられたカメラ122 は、センシング対象の顔を正面から撮像することが可能になる。つまり、センシング手段122 は、検出の確度が高まった状態で、情報の検出を行うことになる。
【0077】
尚、センシング対象の顔画像を、さらに撮像する必要があるときには、制御手段101 は発音手段108 を制御することによってさらに別の言葉を出力し、それによって、センシング対象への呼びかけを継続させてもよい。こうすることで、センシング対象の顔がセンシング玩具150 の方向に向けた状態を比較的長時間維持することが可能になり、センシング対象の顔を正面から撮像する回数が増大して、検出精度の向上が図られる。
【0078】
上記制御手段101 は、上述したような発音手段108 の制御に代えて、又は発音手段108 の制御と共に、動作手段107 の制御を行ってもよい。つまり、カメラ122 が設けられた頭部151 の近傍で腕部153 を振る動作をさせてもよい。人は動いているものがあるときは、そのものを見つめる傾向があるため、こうすることでも、人型玩具150 の頭部151 に設けられたカメラ122 は、センシング対象の顔を正面から撮像することが可能になる。この場合に、カメラ122 は頭部151 ではなく、動作させる腕部153 に設けてもよい。
【0079】
尚、動作手段107 として、カメラ122 の近傍位置、又はカメラ位置に発光体(LED)を配置し、その発光体を点滅させる動作を行うことによっても、同様の効果が得られる。
【0080】
また、働きかけ手段110 は、上述したように、センシング対象に対して握手を促すような働きかけを行ってもよい。これに応じて、センシング対象がセンシング玩具150 の手に相当する部分を握ると、センシング対象はセンシング玩具150 に対して相対することになる。これにより、人型玩具150 の頭部151 に設けられたカメラ122 は、センシング対象の顔を正面から撮像することが可能になる。
【0081】
一方、猫型のセンシング玩具160 においては、制御手段101 は発音手段108 の制御を行い、例えば「にゃーにゃー」という猫の鳴き声を出力させる。こうした音による働きかけを行うことにより、センシング対象は音声を出力した猫型センシング玩具160 の方向に顔を向けて、このセンシング玩具160 を見つめることになる。これにより、猫型センシング玩具160 の頭部161 に設けたカメラ122 は、センシング対象の顔を正面から撮像することが可能になる。
【0082】
また、制御手段101 は動作手段107 の制御を行うことで、例えば首をかしげたり、尾を振ったりする動作をさせてもよい。こうした動作による働きかけを行うことによっても、センシング対象は猫型センシング玩具160 の方向に顔を向けて、このセンシング玩具160 を見つめることになり、センシング対象の顔を正面からカメラ122 によって撮像することが可能になる。
【0083】
また、フロントガラス183 ,192 内側にカメラ122 を設けた車型やヘリコプター型のセンシング玩具180 ,190 においては、制御手段101 は表示手段106 の制御を行い、例えば図11に示すように、フロントガラス183 に「こっちを見て!」という文章を表示させる。文章が表示されているときは、人はその文章を読もうとする。このため、こうした表示による働きかけを行うことで、センシング対象はフロントガラス183 の方に顔を向けて、そのフロントガラス183 を見つめることになる。このときに、フロントガラス183 内側に設けたカメラ122 によって、センシング対象の顔を正面から撮像することが可能になる。
【0084】
尚、車型玩具180 においては、制御手段101 は発音手段108 の制御を行うことで、例えば「ブーブー」というクラクション音を出力させたり、動作手段107 の制御を行うことで、ヘッドライト182 を点灯・点滅させたりしてもよい。こうした音又は動作による働きかけをセンシング対象に対して行うことにより、センシング対象が、センシング玩具180 の方に顔を向けることが期待される。
【0085】
また、人型及びロボット型玩具150 ,170 においても、制御手段101 が表示手段106 の制御を行うことで、その表示部106aに文章を表示させたときには、センシング対象が、センシング玩具150 ,170 の方に顔を向けることが期待される。このときに、カメラ122 は頭部151 ,171 に設けてもよいし、胴部152 ,172 (表示部106a)に設けてもよい。
【0086】
(音センサによる検出手法)
センシング手段が音センサ(マイクロフォン123 )であるときには、センシング玩具100 の形態としては、図3に示す人型150 又は図5に示すロボット型170 を採用することが好ましい。この内、人型150 、ロボット型玩具170 では、マイクロフォン123 は頭部151 ,171 (特に耳に相当する部分)に設けることが好ましい。
【0087】
センシング手段がマイクロフォン123 であって、センシング手段123 が検出した人の声を声紋認証に利用するときには、検出した音声にノイズが存在すると認証精度が低下してしまう。このため、働きかけ手段110 は、マイクロフォン123 の近傍で発声させるようにセンシング対象に働きかけ、それによって、検出した音声のSN比が高くなるようにする。
【0088】
尚、声紋認証には、予め登録している文脈を発声させることによって認証を行う文脈依存型と、任意の文脈を発声させることによって認証を行う文脈独立型の2つの形式が存在するが、いずれの型の声紋認証も採用することが可能である。以下、頭部151 にマイクロフォン123 を設けた人型のセンシング玩具150 による情報の検出手法について具体的に説明する。尚、ロボット型のセンシング玩具170 でも同様である。またここでは、文脈依存型の認証を行うものとし、登録される文脈はセンシング対象の名前であるとする。
【0089】
上述したように、家庭空間内に人が存在するときには、センシング対象検出手段200 によってその人の家庭空間内における位置が検出され、その検出結果は、センシング対象検出手段200 からセンシング玩具100 に送られる。
【0090】
センシング対象検出手段200 の検出結果を受けた制御手段101 は移動手段105 の制御を行い、それによって、センシング対象の近傍位置となるようにセンシング玩具150 を移動させる。
【0091】
そして、センシング対象の近傍位置まで移動をすれば、制御手段101 は、発音手段の制御を行う。これにより、例えば「名前をそっと教えて」という音声を出力する。このときに、制御手段101 は動作手段107 の制御を行い、手を耳にかざすような動作をさせてもよい。
【0092】
こうした音による働きかけ(及び動作による働きかけ)をセンシング対象に対して行うことにより、そのセンシング対象は、センシング玩具150 の頭部151 の近傍で自分の名前を発声することになる。人型の玩具150 が「そっと教えて」という言葉を発することにより、センシング対象は、その人型の玩具150 の耳元で発生するように誘導されるためである。その結果、センシング玩具150 の頭部151 に設けられたマイクロフォン123 によって、センシング対象の音声をSN比の高い状態で検出することができる。
【0093】
尚、発音手段108 が出力する音声は、人が耳元で自分の名前を発声することを促すものであればどのようなものであってもよい。
【0094】
また、例えば、発音手段108 に「握手をしようよ」という音声を出力させることで、センシング対象がセンシング玩具150 の腕部153 を握るように誘導し、これによって、センシング対象をマイクロフォン123 の近傍にまで移動させた後に、「名前は?」等の音声を出力させることによっても、センシング対象の音声をSN比の高い状態で検出することができる。
【0095】
尚、文脈独立型の声紋認証を行う場合には、センシング対象が発声する文脈に制限がないため、例えば発音手段108 に「秘密のお話をしようよ」という音声を出力させてもよい。こうした働きかけを行うことで、センシング対象がセンシング玩具150 の頭部151 の近傍で発声することが期待でき、それによって、センシング対象の音声をSN比の高い状態で検出することができる。
【0096】
このように、マイクロフォン123 の近傍で発声させるようにセンシング対象に働きかけを行った場合であっても、例えば雑音源(家庭空間では、例えばテレビ等が挙げられる)が近傍にあるときには、音声の検出精度が低下してしまう虞がある。そこで、働きかけ手段110 は、雑音源の少ない位置にセンシング対象を移動させる働きかけを行うようにしてもよい。
【0097】
具体的には、制御手段101 は発音手段108 の制御を行い、例えば「こっちで話そうよ」という音声を出力させると共に、移動手段105 の制御を行い、センシング玩具150 を雑音源の少ない位置まで移動させる。こうすることで、センシング対象は、センシング玩具150 の後を追って移動し、結果として、センシング対象を雑音源の少ない位置に誘導することが可能になる。こうした状態で、センシング対象の音声を検出する。このときは、上述したように、マイクロフォン123 の近傍で発声させるように、センシング対象に対する働きかけをさらに行ってもよいし、働きかけは行わなくてもよい。
【0098】
以上のように、センシング玩具100 が様々な玩具行動を行っているときに(行っている最中に)、センシング手段120 はセンシング対象に関する情報を検出するが、この玩具行動は、センシング対象に対する働きかけとなっている。そうして、その働きかけにより検出の確度が高まった状態において、センシング手段120 はセンシング対象に関する様々な情報を検出するようにしている。
【0099】
(アプリケーションの実行)
制御手段101 は、上記センシング手段120 によって検出されたセンシング対象に関する情報(状態情報及び識別情報)を受けて、各種アプリケーションの実行を行う。
【0100】
以下、制御手段101 によって実行されるアプリケーションについて説明する。
【0101】
(状態情報の検出に伴うアプリケーション)
上述したように、接触型のセンシング手段121 によって、センシング対象の体温、脈拍、手の湿り気が検出されたときには、制御手段101 は、設備制御手段104 に対して、空調装置の制御、窓開閉装置による窓の開閉制御を実行させ、それによって、家庭空間内の空調を行う。例えば、センシング対象の体温が所定よりも低いときには空調装置を制御することによって、家庭空間内の温度を上げるようにしてもよい。
【0102】
また、脈拍や湿り気の検出結果に基づいてセンシング対象が緊張状態にあるか否かを判断することが可能であるため、制御手段101 は、センシング対象の状態情報に基づいて、そのセンシング対象が緊張状態にあるか否かを判断する。そして、緊張状態にあると判断したときには、設備制御手段104 に、音響装置や芳香装置の制御を実行させる。これにより、家庭空間内に気持ちを落ち着かせる音楽を流させたり、気持ちを落ち着かせる香りを流させたりする。
【0103】
さらに、人の顔を構成する各パーツの動きを感情ごとに分類しパターンマッチングを行うことで顔画像から感情を認識する公知の方法を採用すれば、制御手段101 は、カメラ122 によって撮像したセンシング対象の顔画像に基づいて、そのセンシング対象の感情(喜怒哀楽)を検出することができる。そこで、制御手段101 は、カメラ122 が撮像した顔画像に基づいて、そのセンシング対象の感情を検出し、それに応じて設備制御手段104 に 音響装置や芳香装置の制御を実行させる。これによって、センシング対象の感情に応じた音楽を家庭空間内に出力したり、その感情に応じた芳香を家庭空間内に流したりする。
【0104】
検出したセンシング対象の感情に応じて、センシング玩具自体の行動パターンを変えてもよい。例えばセンシング対象の感情が哀であるときには、制御手段101 は発音手段108 を制御することによって、センシング対象を元気付けるような言葉を出力させてもよい。
【0105】
センシング手段120 は、センシング対象の行動に同期したタイミングで、そのセンシング対象に関する情報を検出してもよい。例えば、センシング対象が帰宅したタイミング、就寝するタイミング、起床するタイミングで、センシング対象に関する情報を検出してもよい。センシング玩具100 と時計(目覚まし時計)とを連動させることによって、センシング玩具100 は、センシング対象の起床予定時刻の情報が得られる。そこで、その情報に基づいて、センシング玩具100 はセンシング対象に関する情報の検出を行えば、センシング対象が起床したタイミングでの検出が可能になる。尚、センシング玩具100 自体に、アラーム機能を備えるようにしてもよい。また、センシング対象検出手段200 が、人が玄関を通過して家の中に入ったことを検出したタイミングで、センシング玩具100 は、そのセンシング対象に関する情報の検出を行えば、センシング対象が帰宅したタイミングでの検出が可能になる。さらに、寝室の電灯が消灯したタイミングで、そのセンシング対象に関する情報の検出を行えば、センシング対象が就寝するタイミングでの検出が可能になる。
【0106】
センシング対象の行動に同期したタイミングで検出を行う場合には、制御手段101 は、センシング手段120 の検出タイミングに応じたアプリケーションの実行を行ってもよい。
【0107】
例えば、センシング対象が起床したタイミングで、センシング手段120 が情報の検出する場合は、センシング手段120 によって検出されたセンシング対象の体温、脈拍、手の湿り気、顔色に基づいて、制御手段101 は、そのセンシング対象の体調を判断する。
【0108】
センシング対象の起床時に体調が良いと判断されるときには、制御手段101 は、設備制御手段104 に、家庭空間内の電灯を点灯制御を実行させたり、空調装置の制御を実行させたり、窓開閉装置の制御を実行させたり、テレビやラジオのスイッチ制御を実行させたりする。こうして、センシング対象の起床に応じた環境を整える。
【0109】
また、制御手段101 は、センシング玩具100 がセンシング対象の起床を促す動作を行うように、発音手段108 や、動作手段107 を制御してもよい。例えば、猫型のセンシング玩具160 であれば、発音手段108 に「にゃーにゃー」といった音声を出力させたり、動作手段107 の制御によって、センシング対象に顔を摺り寄せる動作をさせたり、布団を引っ張る動作をさせたりしてもよい。
【0110】
一方、センシング対象の起床時に体調が悪いと判断されるときには、制御手段101 は、設備制御手段104 に通信装置の制御を実行させる、これにより、病院に、電話やインターネットを介してその状態を通知して、病院に対して処方を求めるようにする。このときに、制御手段101 は、センシング手段120 に対して、病院側からの要求に応じてセンシング対象の状態情報をさらに検出させ、その検出結果を病院側にフィードバックするようにしてもよい。例えば病院側から、喉内のカメラ画像が要求されたときには、その画像をカメラ122 で撮像して送信したり、聴診のために体内音が要求されたときに、その音をマイクロフォン123 で検出して送信したりすればよい。こうした状態情報の検出は、センシング玩具が自動的に行ってもよいし、センシング対象(人)がセンシング玩具100 を用いて要求された情報を検出してもよい。
【0111】
その結果、安静にする必要があるときには、制御手段101 は、設備制御手段104 に通信装置の制御を実行させ、それによって、学校や会社に、電話やインターネットを介してその旨を通知させてもよい。
【0112】
(識別情報の検出に伴うアプリケーション)
センシング手段120 によってセンシング対象の識別情報が検出されたときには、制御手段101 は、識別手段103 にそのセンシング対象の識別を実行させる。識別手段103 は、上記センシング手段120 によって検出された識別情報に基づいて、顔認証、虹彩認証、指紋認証、又は静脈認証のバイオメトリクス認証を行い、それによって、センシング対象の識別を行う。
【0113】
この識別手段103 による識別結果を受けて、制御手段101 は、設備制御手段104 に対し、識別したセンシング対象に応じた設備300 の制御を実行させる。設備制御手段104 は、データベース109 (図1参照)を参照しながら設備300 の制御を行う。
【0114】
具体的に、上記データベース109 には、個人毎に好みの室温を予め登録しておく。設備制御手段104 は、データベース109 を参照することにより識別した個人の好みの室温になるように、空調装置や窓開閉装置の制御を行う。例えばセンシング対象がお父さんであったときには、データベース109 に登録されているお父さんの好みの室温を参照し、その室温となるように空調装置及び窓開閉装置を制御する。
【0115】
また、上記データベース109 に、帰宅時や、起床時等の行動タイミングにおける各個人の行動パターンを登録しておくことにより、その行動パターンに応じた設備の制御が実現する。
【0116】
例えば、上記データベース109 に、お父さんの帰宅時の行動パターンとして、玄関から自分の部屋(お父さんの部屋)に行った後で、お風呂に入るという行動パターンが登録されていれば、設備制御手段104 は、玄関からお父さんの部屋までの経路上の電灯を点灯させる制御を行うと共に、お父さんの部屋の空調装置の制御を行い、さらに、お風呂の準備をすべく給湯装置の制御を行う。また、帰宅したセンシング対象が子供であるときには、設備制御手段104 は、データベース109 に登録されている子供の帰宅時の行動パターンを参照し、それによって、例えば食事の用意をすべく電子レンジを制御して食品の温めを行う。
【0117】
このように、識別手段103 による識別結果に応じて設備300 の制御を行うときにも、センシング対象の状態情報に応じて各設備300 の制御を行ってもよい。例えば、帰宅したお父さんの体温を検出し、その体温に応じてお風呂のお湯の温度を調節する、等を行ってもよい。
【0118】
さらに、データベース109 に、各個人の外出時の持ち物リストを登録しておけば、外出しようとするセンシング対象の識別を行うことによって、データベース109 に登録されている持ち物リストを、そのセンシング対象に提示する(例えば表示部106aにリストを表示してもよいし、発音手段によってリストを読み上げるようにしてもよい)ことが可能になる。
【0119】
また、識別手段103 による識別結果を受けて、制御手段101 は、その識別した個人の好みに応じてセンシング玩具100 自体の行動パターンを変えてもよい。例えばデータベース109 に各個人の好みを登録しておくことで、識別したセンシング対象が騒がしいことを嫌う傾向にあるときには、センシング玩具100 は、発音手段108 による音の出力を抑制し、動作手段107 による動作や表示手段106 による表示によってセンシング対象に対する働きかけ(玩具行動)を行うようにする。一方で、識別したセンシング対象が騒がしいことを好む傾向にあるときには、センシング玩具100 は、発音手段108 や移動手段105 によって、センシング対象に対して積極的な働きかけを行うようにする。
【0120】
また、センシング対象が子供であるか大人であるかに応じて、発音手段108 によって出力する音声(言葉)を変えたり、表示手段106 によって表示する内容を変更させたりしてもよい。
【0121】
また、センシング玩具100 の識別手段103 は認証を行うことから、その認証結果を家庭空間内の各設備300 におけるユーザ認証に利用してもよい。つまり、センシング玩具100 による認証(識別)を行うことによって、家庭空間内の全ての設備300 のユーザ認証が完了するようにしてもよい。こうすることで、家庭空間内の各設備一つ一つについて認証処理を行う必要がなくなり、しかも、センシング玩具100 による認証は、人(センシング対象)が意識することなく行われるため、認証処理の煩わしさが解消される。
【0122】
(識別情報の検出と状態情報の検出との組み合わせによるアプリケーション)
センシング手段120 によってセンシング対象の識別情報を検出し、識別手段103 によってセンシング対象の識別を行った後に、制御手段101 は、センシング手段120 に対してその識別したセンシング対象の状態情報を検出させてもよい。こうすることで、各個人毎に、体温、脈拍、血圧、血糖値等の履歴を管理することが可能になる。また、制御手段101 は、設備制御手段104 に、通信装置を制御させて、これらのデータを病院に送信させてもよい。こうすることで、データの提供を受けた病院においてデータ解析が可能になる。
【0123】
また、センシング玩具100 の制御手段101 がデータの解析を行い、その解析結果から人の体調を判断し、それに応じて薬の処方を行ったり、体調に応じた食事を提案したりしてもよい。これは、データベース109 に薬や食事に関する情報を蓄積しておき、データ解析の結果に応じて必要な情報をデータベースから抽出すればよい。
【0124】
−実施形態2−
実施形態1のセンシング玩具100 は、働きかけ手段110 を備えていて、その働きかけ手段110 がセンシング対象に対する働きかけを行うことによって、検出の確度が高まった状態にしたが、実施形態2のセンシング玩具500 は、図12に示すように、センシング対象の状態に応じて、検出の確度が高まった状態となるように、センシング手段120 のセンシング態様を変更させるセンシング態様変更手段112 を備える。
【0125】
上記センシング態様変更手段112 は、制御手段101 と、移動手段105 と、行動予測手段111とから構成される。
【0126】
尚、実施形態2のセンシング玩具500 において、実施形態1のセンシング玩具100 を同じ手段については、同一の符号を付してその詳細な説明は省略する。また、このセンシング玩具500 の人に関する情報の検出態様は、実施形態1のセンシング玩具100 とは異なるが、アプリケーションの実行態様は、実施形態1のセンシング玩具100 と同じであるため、ここではその説明は省略する。
【0127】
実施形態2に係るセンシング玩具500 のセンシング手段120 は、非接触型とすることが好ましい。以下、実施形態2に係るセンシング玩具500 の検出手法について、「その1」〜「その3」に分けて説明する。
【0128】
(その1)
その1は、センシング手段がカメラ122 であるときの例であり、センシング玩具500 の形態としては、図3〜7に示す人型150 、猫型160 、ロボット型170 、車型180 、ヘリコプター型190 のいずれの型も採用することができる。
【0129】
上述したように、センシング手段がカメラ122 であるときに、検出の確度を高めるには、センシング対象の顔を正面から撮像することが必要となる。そこで、センシング態様変更手段112 は、センシング対象の顔の向きに応じてセンシング玩具500 を移動させる。
【0130】
以下、頭部151 にカメラ122 を設けた人型のセンシング玩具150 による情報の検出手法について、図13を参照しながら具体的に説明する。尚、猫型160 、ロボット型170 、車型180 ヘリコプター型190 のセンシング玩具170 でも検出手法は略同じである。
【0131】
上述したように、家庭空間内に人が存在するときには、センシング対象検出手段200 によってその人の家庭空間内における位置が検出される。実施形態2ではさらに、上記センシング対象検出手段200 は、センシング対象の顔の向きを検出する。人の顔の向きを検出する手法としては種々の方法が存在する。その一つは、先ず人の頭部を検出し、その検出した頭部領域から目、鼻、口、耳等の顔を構成する各パーツを、パターンマッチングによって求め、その位置関係から顔の向きを検出する方法である。尚、人の頭部を検出する方法としては、人の頭部が丸いことを利用する公知の方法がある。具体的には、カメラ画像において、Hough変換によって円形領域を検出し、それによって、人の頭部を検出する方法である。
【0132】
また、皮膚の色が肌色であるということを利用して、頭部領域における肌色の領域を抽出することで、顔の向きを検出してもよい。尚、頭部領域を抽出しなくても、顔を構成する各パーツを直接求めることで顔の向きを判断してもよい。
【0133】
こうして、家庭空間内におけるセンシング対象の位置、及びその顔の向きを検出すれば、センシング対象検出手段200 は、その情報をセンシング玩具500 に送信する。
【0134】
センシング対象検出手段200 の検出結果を受けた制御手段101 は、その人をセンシング対象に設定しかつ、移動手段105 を制御することによって、センシング対象の近傍位置まで移動をする。この移動の際には、センシング対象に対して最短距離で近づく経路ではなく、センシング対象検出手段200 の検出結果に基づいてセンシング対象の顔が向いている方向から、このセンシング対象に接近するような経路を設定する(図13の破線参照)。こうすることで、カメラ122 がセンシング対象の顔を正面から撮像する回数が増大し、それによって、検出の確度を高めることができる。
【0135】
尚、センシング玩具500 を移動させる際には、制御手段101 は発音手段108 を制御することによって、例えば「こんにちわ」等の音声を出力するようにすれば、センシング対象の違和感を軽減させることができ、好ましい。
【0136】
(その2)
「その1」では、センシング態様変更手段112 が、センシング対象の顔の向きに応じてセンシング玩具500 を移動させたが、「その2」では、センシング態様変更手段112 が、センシング対象の行動を予測して、その予測に応じてセンシング玩具500 を移動させる。つまり、人の顔が向く方向を予測して、その予測に基づいてセンシング玩具500 を、予めその人の顔が向く方向に移動させておくのである。
【0137】
センシング対象の行動は、人の習慣に基づいて予測することができる。センシング対象の行動を最も容易に予測することができるのは、その帰宅時である。帰宅した人は、その後、靴を脱いで家に上がる際に玄関の扉を背にして家の中の方に顔を向ける行動をとることが予測される。
【0138】
そこで、センシング対象が帰宅したことを、センシング対象検出手段200 が検出したことを受けて、制御手段101 は、そのセンシング対象が靴を脱いでいるときに移動手段105 を制御することによって、次にセンシング対象が顔を向ける方向、つまり、玄関の扉の方から家の中の方に向かう方向に相対するように、センシング玩具500 を移動させる(図13の一点鎖線参照)。こうすることで、センシング対象が予測した通りに顔の向きを変えれば、カメラ122 はそのセンシング対象の顔を正面から撮像することになる。また、顔画像を撮像する回数も増大することで、検出の確度を高めることができる。
【0139】
(その3)
「その3」は、センシング手段が音センサ123 であるときのセンシング態様変更手段112 の動作に関する。
【0140】
センシング手段が音センサ123 であるときには、上述したように、検出した音声にノイズが存在すると認証精度が低下してしまう。このため、センシング態様変更手段112 は、SN比が高くなるように音センサ123 のセンシング態様を変更する。
【0141】
具体的には、音センサ123 を、指向性を有するマイクロフォンや、マイクロフォンアレイで構成する。こうして、音声の取得に指向性を持たせるようにし、センシング対象から発せられた音声のみを検出するようにする。
【0142】
上記制御手段101 は、センシング対象検出手段200 によって検出されたセンシング対象の位置情報に基づいて、そのセンシング対象の方向に音センサ123 の指向性を変化させる。そうして、発音手段108 を制御することにより、センシング対象が発声するように働きかける。例えば「名前を教えて」という音声を出力させてもよい。この場合は、実施形態1とは異なり、センシング対象にマイクロフォン123 の近傍で発声させる必要はない。
【0143】
こうすることで、センシング対象が発声をしたときには、音センサ123 の嗜好性がそのセンシング対象の方向に設定されているため、センシング対象が発した音声を、SN比が高い状態で検出することができる。
【0144】
−実施形態3−
実施形態3は、センシング玩具を用いたセンシングシステムに係る。このセンシングシステムは、図14に示すように、センシング玩具600 と、空間管理サーバ700 と、設備300 とを備え、これらがネットワークを介して互いに接続されて構成されている。
【0145】
上記センシング玩具600 は、センシング手段120 と、働きかけ手段110 と、送受信手段302 とを備える。送受信手段302 は、空間管理サーバ700 や設備300 との間でネットワークを介して種々のデータの送受信を行うものである。
【0146】
センシング手段120 及び働きかけ手段110 の構成は、上記実施形態1と同じであるため、同じ符号を付してここではその説明は省略する。
【0147】
上記空間管理サーバ700 は、家庭空間の管理を行うものであって、制御手段701 と、識別手段103 と、設備制御手段104 とデータベース109 と、送受信手段302 とを備えている。送受信手段302 は、センシング玩具600 に設けられたものと同じであって、センシング玩具600 や設備300 との間でネットワークを介した種々のデータの送受信を行うものである。このため、同一の符号を付すこととする。また、識別手段103 並びに設備制御手段104 及びデータベース109 は、実施形態1,2のセンシング玩具100 ,500 (図1及び図12参照)に設けられていたものと同じであり、同じ符号を付す。識別手段103 は、センシング玩具600 によって検出されたセンシング対象に関する情報に応じて、顔認証、虹彩認証、指紋認証等によってセンシング対象の識別を行うものであり、設備制御手段104 は、センシング対象に関する情報、又は識別手段103 の識別結果に応じて、ネットワークを介して設備300 の制御を行うものである。
【0148】
また、この空間管理サーバ700 には、家庭空間内において、センシング玩具600 のセンシング対象となる人の存在を検出するセンシング対象検出手段200 が接続されていて、上記空間管理サーバ700 は、このセンシング対象検出手段200 の検出結果を、センシング玩具600 に転送する。
【0149】
上記設備300 は、制御手段301 と、送受信手段302 とを備えている。送受信手302 段は、センシング玩具600 に設けられたものと同じであって、空間管理サーバ700 やセンシング玩具600 との間でネットワークを介した種々のデータの送受信を行うものである。このため、同一の符号を付すこととする。また、制御手段301 は、空間管理サーバ700 からの制御信号に応じて、その設備300 の動作を制御するものである。
【0150】
このセンシングシステムの動作について説明すると、先ず、センシング対象検出手段200 が家庭空間内で人の存在を検出すれば、その検出結果が上記空間管理サーバ700 に送られる。空間管理サーバ700 の制御手段701 は、その検出結果を受けて、その情報を送受信手段302 によってセンシング玩具600 に送信する。
【0151】
空間管理サーバ700 からの情報を受信したセンシング玩具600 は、上述したように、働きかけ手段110 によってセンシング対象に対する働きかけを行い、センシング手段120 は、そのセンシング対象が働きかけに応じることで、検出の確度が高まったときにセンシング対象に関する情報の検出を行う。
【0152】
こうして検出した情報は、送受信手段302 によって空間管理サーバ700 に送られる。空間管理サーバ700 の制御手段701 は、必要に応じて識別手段103 にセンシング対象の識別をさせる。また、設備制御手段104 に設備300 の制御を実行させるべく、設備制御コマンドを作成させる。作成された設備制御コマンドは、空間管理サーバ700 から設備300 にネットワークを介して送信され、その設備制御コマンドを受信した設備300 の制御手段301 は、それに応じた設備300 の制御を実行する。
【0153】
尚、センシングシステムのセンシング玩具は、センシング手段120 と、センシング態様変更手段112 と、送受信手段302 とを備えるものとしてもよい。
【0154】
以上説明したように,本発明のセンシング玩具100 ,600 は、人に関する情報の検出を行う玩具であって、人に関する情報の検出を行うセンシング手段120 と、上記センシング手段のセンシング対象に情報検出の実行を意識させることなく、上記センシング対象に対して情報検出の実行に関連する働きかけを行う働きかけ手段110 と、を備える。
【0155】
そして、上記センシング手段120 は、上記センシング対象が、上記働きかけ手段110 による働きかけに応じることによって検出の確度が高まった状態になったときに、当該センシング対象に関する情報の検出を行う。つまり、働きかけ手段110 は、センシング対象を検出の確度が高まる状態に誘導する。
【0156】
これにより、働きかけ手段110 が、センシング対象に対して情報検出の実行に関連する働きかけを行い、上記センシング対象がその働きかけに応じれば、検出の確度が高まった状態となる。この状態で、センシング手段120 が情報の検出を行うため、情報を確実かつ精度よく検出することができる。
【0157】
一方、働きかけ手段110 の働きかけは、握手をすることを求めたり、挨拶をしたりするものであるため、センシング対象に情報検出の実行を意識させることがないものである。このように、情報検出の実行についての直接的な働きかけ(例えば、「センサを触れてください」といった音声を出力することにより、センシング対象に情報検出の実行を明示して、接触型のセンシング手段に触れさせる働きかけ)とは異なり、情報検出の実行についての間接的な働きかけ(働きかけ自体は情報検出の実行とは関連しないが、センシング対象がその働きかけに応じることによって情報検出の実行に関連することになる働きかけ)を行うことにより、センシング対象に情報検出の実行を意識させることがない。こうして、人の違和感の低減と、検出の確度の向上とを両立させることができる。
【0158】
また、人に関する情報を検出するものが玩具であることによって、一般家庭を含む生活空間内で人に与える違和感を軽減することができる。
【0159】
上記働きかけ手段110 は、センシング対象に対して、音、動作,及び/又は表示による働きかけを行うことにより、センシング対象に、効果的な働きかけを行うことができる。
【0160】
また、本発明の他のセンシング玩具500 は、人に関する情報の検出を行うセンシング手段120 と、上記センシング手段120 のセンシング対象に情報検出の実行を意識させることなく、上記センシング手段120 のセンシング態様を変更させるセンシング態様変更手段112 と、を備える。そして、上記センシング態様変更手段112 は、上記センシング対象の行動予測に基づいて、該センシング対象が予測した行動をとったときに検出の確度が高まる位置に、上記センシング手段120 の位置を予め移動させる。
【0161】
これにより、センシング態様変更手段112 が、検出の確度が高まるであろう位置にセンシング手段120 の位置を予め移動させ、センシング対象が予測された行動をとったときに、言い換えると検出の確度が高まったときに、センシング手段120 がセンシング対象に関する情報を検出する。このため、情報を確実かつ精度よく検出することができる。
【0162】
また、センシング態様変更手段112 は、センシング対象の行動を予測してセンシング手段120 の位置を移動させるため、センシング対象は、情報検出の実行を意識することなく振舞っていればよく、情報検出の確度が高まるように、センシング対象側が行動する必要はない。その結果、センシング対象の違和感を軽減することができ、人の違和感の低減と、検出の確度の向上とを両立することができる。
【0163】
また、上記センシング態様変更手段は、人の習慣に基づいてセンシング対象の行動を予測するため、その予測を的確に行うことができる。
【0164】
上記センシング玩具100 ,500 は、上記センシング手段120 が検出した人の状態情報に応じて設備300 の制御を行う制御手段101 (設備制御手段104 )をさらに備えることで、生活環境を快適にすることができる。
【0165】
また、センシング玩具100 ,500 は、上記センシング手段120 が検出した人の識別情報に基づいてセンシング対象の識別を行う識別手段103 をさらに備えることで、センシング対象を特定することができる。
【0166】
このときに、その識別手段103 の識別結果に応じて、設備300 の制御を行う制御手段101 (設備制御手段103 ,データベース109 )をさらに備えることで、特定した各個人に最適な生活環境を作り出すことができる。
【0167】
また、センシング手段120 は、識別手段103 の識別結果を受けてセンシング対象の状態情報(体温、脈拍、接触した部分の湿り気、血圧、血糖値)の検出を行うことにより、個人毎に、その状態を管理することができる。
【0168】
上記センシング手段120 は、センシング対象検出手段200 によって検出された人の位置情報を受けて、当該人をセンシング対象に設定することにより、センシング手段120 は、センシング対象検出手段200 が人を検出する毎に、その人をセンシング対象として、情報の検出を行うことになる。このように、センシング玩具100 ,500 ,600 側が、センシング対象に対して自発的に情報の検出を行うため、センシング対象側は意識しなくても必要な情報が自動的に検出される。こうして、例えば状態情報(体温等)の情報の管理を的確に行うことができる。
【0169】
上記センシング手段120 の検出結果を外部に送信する送信手段(送受信手段302 )をさらに備えることにより、センシングシステムに最適なセンシング玩具600 が構成される。
【0170】
本発明のさらに他のセンシング玩具は、人に関する情報の検出を行う玩具であって、人に関する情報の検出を行うセンシング手段120 と、上記センシング手段のセンシング対象に情報検出の実行を意識させることなく、上記センシング手段による検出の確度を高める確度向上手段110 ,112 とを備える。
【0171】
この確度向上手段110 ,112 によって、人に関する情報を検出する場合において、人の違和感の低減と、検出の確度の向上とを両立させることができる。
【0172】
本発明のさらに他のセンシング玩具は、人に関する情報の検出を行うセンシング手段120 と、予め設定された行動プログラムに従って玩具行動の制御を行う制御手段101 と、を備え、上記センシング手段120 は、上記制御手段101 が玩具行動の制御を実行しているときに、人に関する情報の検出を行う。
【0173】
この構成によると、制御手段101 が玩具行動の制御を実行しているとき、つまり、センシング玩具が、玩具としての行動を行っているときに、センシング手段120 は人に関する情報を検出するため、人に情報検出の実行を意識させることなく、その人に関する情報を検出することが可能になる。
【0174】
また、上記センシング手段120 は、上記制御手段101 が玩具行動の制御を実行している最中であって、検出の確度が高まった状態になったときに、人に関する情報の検出を行うようにしてもよい。こうすることで、人の違和感の低減と、検出の確度の向上とを両立させることができる。
【0175】
−他の実施形態−
尚、上記各実施形態では、一般家庭内を対象としてセンシング玩具について説明したが、センシング玩具は、一般家庭内に限らず、オフィス、ホテル、店舗、病院、工場等において利用することも可能である。
【0176】
また、上記各実施形態で説明したセンシング玩具の構成は、例えば作業用ロボットや介護用ロボットに適用することも可能である。こうしたロボットでは、検出したセンシング対象に関する情報(状態情報又は識別情報)に基づいて、種々の作業を行うように構成すればよい。
【0177】
例えば、作業用又は介護用ロボットでは、センシング対象の起床時にそのセンシング対象の体温や手の湿り気等を検出した結果に応じて、シーツの洗濯作業を行ったり、布団を干す作業を行ったりしてもよい。
【0178】
【発明の効果】
以上説明したように、本発明によるセンシング玩具によると、働きかけ手段や、センシング態様変更手段によって、センシング対象に情報検出を意識させることなく、検出の確度が高まった状態を作りだすことができるため、人の違和感の低減と、検出の確度の向上とを両立させることができる。
【0179】
また、(設備)制御手段や、識別手段が、検出した情報を利用して種々のアプリケーションを実行することにより、センシング対象が存在する空間内の環境を向上させることができる。
【図面の簡単な説明】
【図1】実施形態1に係るセンシング玩具の構成の一例を示すブロック図である。
【図2】背景差分法の原理を示す説明図である。
【図3】人型のセンシング玩具の形態の一例を示す図である。
【図4】猫型のセンシング玩具の形態の一例を示す図である。
【図5】ロボット型のセンシング玩具の形態の一例を示す図である。
【図6】車型のセンシング玩具の形態の一例を示す図である。
【図7】ヘリコプター型のセンシング玩具の形態の一例を示す図である。
【図8】センシング玩具が生活空間内に配置されたときの様子を示す図である。
【図9】センシング玩具の表示部に表示される画面の一例を示す図である。
【図10】ハーフミラーを用いたときの表示手段とセンシング手段との構成を示す説明図である。
【図11】表示部に表示をしている状態の車型玩具を示す図である。
【図12】実施形態2に係るセンシング玩具の構成の一例を示すブロック図である。
【図13】センシング態様変更手段によって設定される玩具の移動経路の例を示す説明図である。
【図14】実施形態3に係るセンシングシステムの構成の一例を示すブロック図である。
【符号の説明】
100・・・センシング玩具
500・・・センシング玩具
600・・・センシング玩具
101・・・制御手段
103・・・識別手段
104・・・設備制御手段(制御手段)
106・・・動作手段
107・・・表示手段
108・・・発音手段
109・・・データベース
110・・・働きかけ手段(確度向上手段)
112・・・センシング態様変更手段(確度向上手段)
120・・・センシング手段
200・・・センシング対象検出手段
300・・・設備
302・・・送受信手段(送信手段)
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a toy for detecting information about a person.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, there has been known a system that identifies a person in a general household and controls each device in the household according to the identification result (for example, see Patent Document 1).
[0003]
There is also known a general home-use robot that identifies a person by face authentication (for example, see Patent Document 2).
[0004]
[Patent Document 1]
JP-A-2002-278639
[Patent Document 2]
JP-A-2002-304629
[0005]
[Problems to be solved by the invention]
As described above, in recent years, there has been an increasing demand for detecting information about a person in a living space (a space where a person performs activities, including a general home, an office, a hotel, a store, a hospital, and the like). However, a person may feel uncomfortable with the detection of information by the sensing means for detecting such information. Therefore, there is a demand for detecting information about a person without giving a sense of incongruity.
[0006]
However, in order to increase the accuracy of detection by the sensing means (the degree of certainty of the detection result), a person acts so as to be able to detect by the sensing means or increases the number of times of detection. Or need to act. For example, when information is detected by a contact-type sensing means, a person must touch the sensing means without fail, and a non-contact-type sensing means such as when a face image is captured by a camera. Even when information is detected by a person, a person must move so that the camera captures the face from the front. For this reason, a person who is a sensing target has to be aware that information is detected.
[0007]
Therefore, when detecting information about a person, there is a conflicting demand between reducing the sense of discomfort of the person and improving the accuracy of the detection.
[0008]
The present invention has been made in view of such circumstances, and an object of the present invention is to detect information about a person without giving a feeling of strangeness to the person, and to improve the accuracy of the detection. Another object of the present invention is to execute an application for improving a living environment of a person using the detection result.
[0009]
[Means for Solving the Problems]
The sensing toy of the present invention is a toy for detecting information about a person.
[0010]
This sensing toy is a sensing means for detecting information about a person, and an action for performing an action related to the execution of information detection on the sensing object without making the sensing object of the sensing means aware of the execution of information detection. Means. Then, the sensing means detects information on the sensing target when the sensing target is in a state in which the accuracy of detection is increased by responding to the request by the pressing means.
[0011]
According to this configuration, the working unit performs a working related to the execution of the information detection on the sensing target. This action does not make the sensing target aware of the execution of information detection.
[0012]
Then, when the sensing object is in a state in which the accuracy of detection is increased by responding to the action, the sensing means detects information on the sensing object.
[0013]
Since the sensing object only responds to the action of the action means, the sensing object is not conscious of the execution of information detection. Thereby, the feeling of strangeness is reduced. On the other hand, since the accuracy of detection is increased by the sensing target responding to the action, information is reliably and accurately detected by the sensing means.
[0014]
The above-mentioned working means may work on the sensing target by sound, operation, and display.
[0015]
Another sensing toy of the present invention is a sensing means for detecting information about a person, and a sensing mode changing means for changing a sensing mode of the sensing module without making a sensing target of the sensing module aware of execution of information detection. And. Then, based on the behavior prediction of the sensing target, the sensing mode changing unit moves the position of the sensing unit in advance to a position where the accuracy of detection increases when the sensing target takes the predicted behavior.
[0016]
According to this configuration, the sensing mode changing unit moves the position of the sensing unit based on the behavior prediction of the sensing target. Thus, the sensing mode of the sensing means is changed without making the sensing target aware of the execution of information detection.
[0017]
Then, when the sensing target takes a predicted action and the detection accuracy is increased, the sensing means detects information on the sensing target.
[0018]
As described above, the sensing target does not need to take an action for information detection, and if the sensing target behaves without being conscious of the information detection, the sensing toy predicts the action to make the detection accuracy higher. For this reason, since the sensing target does not have to be conscious of the execution of the information detection, the sense of discomfort of the sensing target is reduced. On the other hand, information is detected in a state where detection accuracy is increased, so that information is detected reliably and accurately.
[0019]
The sensing mode changing means may predict the action of the sensing target based on the habit of the person.
[0020]
The sensing means may detect state information of a person, and the sensing toy may further include control means for controlling equipment in accordance with a result of detection of the state information by the sensing means.
[0021]
Further, the sensing means may detect identification information of a person, and the sensing toy may further include identification means for identifying a sensing target based on a detection result of the identification information by the sensing means.
[0022]
Further, the sensing toy may further include control means for controlling equipment in accordance with the identification result of the identification means.
[0023]
The sensing means may detect the state information of the sensing target in response to the identification result of the identification means.
[0024]
The sensing means may receive position detection information that has detected the position of a person in a predetermined space, and set the person as a sensing target.
[0025]
The sensing toy may further include a transmission unit that transmits a detection result of the sensing unit to the outside.
[0026]
Still another sensing toy of the present invention is a sensing means for detecting information about a person, and a precision improving means for increasing the accuracy of detection by the sensing means without making the sensing target of the sensing means aware of the execution of information detection. And
[0027]
Still another sensing toy of the present invention includes sensing means for detecting information about a person, and control means for controlling toy behavior in accordance with a preset behavior program, wherein the sensing means is such that the control means While controlling toy behavior, information about a person is detected.
[0028]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0029]
-Embodiment 1-
INDUSTRIAL APPLICABILITY The sensing toy according to the present invention detects information relating to a person, and particularly in a space (living space) where a person performs an activity, such as a general home, an office, a hotel, a store, and a hospital. An existing person is set as a sensing target. The information about the person detected by the sensing toy includes state information of the person (for example, including body temperature, pulse, emotion, etc.) and identification information of the person (information for identifying a person by an authentication process, Face image, iris image, voiceprint data, etc.). Thus, the information on the person detected by the sensing toy is used for various applications.
[0030]
In the present embodiment, a general household is defined as an action range of the sensing toy, and a space in the general household (the whole building or a specific room in the building) is hereinafter referred to as a home space.
[0031]
FIG. 1 shows a configuration of a sensing toy 100 according to the present embodiment. The sensing toy 100 includes a sensing target detecting means 200 for detecting the presence of a person to be sensed by the sensing toy 100, a sensing toy 100 And the equipment 300 that is controlled based on the information detected by the above.
[0032]
Here, before describing the configuration of the sensing toy 100, the sensing target detecting means 200 and the equipment 300 will be described.
[0033]
(Sensing object detection means)
The sensing target detection means 200 detects the presence of the detection target (person) of the sensing toy 100 in the action range of the sensing toy 100 (in the home space in this embodiment).
[0034]
As a general method for detecting a person existing in a specific space, there is a background subtraction method using a camera image. The sensing target detecting means 200 can be configured to use an image sensor. Specifically, the sensing target detecting means 200 using an image sensor includes a camera fixed to a ceiling or a wall of a room, and detects a person or an object in the room based on a camera image captured by the camera. Is configured.
[0035]
Here, the background subtraction method is a method in which a model image as a background is prepared in advance, and an object is detected by taking a difference between a current camera image and the model image.
[0036]
The purpose of the sensing target detecting means 200 in the present system is to detect the presence of a person in the home space. Therefore, when the situation in the home space is small, a person in the home space may be used as a model image. What is necessary is just to use the image captured when it does not exist. When the situation in the home space fluctuates drastically, an image obtained by averaging a plurality of images taken at predetermined time intervals may be used as a model image.
[0037]
Specifically, a method of detecting a person by the background subtraction method will be described with reference to FIG. Here, FIG. 2A is a diagram illustrating an example of a model image, FIG. 2B is a diagram illustrating an image (input image) captured by a camera at a certain point in time, and FIG. FIG. 14 is a diagram illustrating an example of a background difference image obtained by subtracting a model image from an input image. As can be seen from FIG. 2C, in the background difference image, a part having a difference between the input image and the model image appears (see a shaded part in the figure). Therefore, a person existing in the home space can be detected by extracting only the protruding portion (difference value portion). The position of the person thus detected in the home space can be calculated by a general method based on the position of the difference value portion in the camera image.
[0038]
In this case, the sensing target detecting means 200 is constituted by a camera installed in the home space, but the camera is not installed in the home space, but may be other objects (for example, a toy different from the present sensing toy 100). It is also possible to configure by installing a camera in the camera.
[0039]
Further, the sensing target detecting means 200 may be configured by attaching a camera to the sensing toy 100. In this case, the sensing toy 100 has the target detecting means 200.
[0040]
In addition, the sensing target detecting means 200 is not limited to one using a camera image, and may detect the presence of a person using, for example, an infrared sensor, a temperature sensor, a sound sensor, or the like.
[0041]
(Facility)
There are various types of equipment 300 controlled according to the detection result of the sensing toy 100. For example, an air conditioner (including a heater such as a stove in addition to a so-called air conditioner) that air-conditions a home space, a window opening / closing device that opens and closes a window provided in a home space, and plays music in a home space Examples include an audio device, an aroma device that spreads various scents in a home space, and a communication device that communicates with the outside via a telephone or the Internet. Specific control of the facility 300 will be described later.
[0042]
(Sensing toys)
As shown in FIG. 1, the sensing toy 100 receives a detection result of the sensing target detection unit 200, and controls a unit 101 to be described later, a sensing unit 120 for detecting information about a sensing target, An identification means 103 for identifying a person (a sensing object) based on the detection result of the means 120; an equipment control means 104 for controlling the equipment 300 in accordance with the detection result of the sensing means 120; A moving means 105 for moving, an operating means 106 for operating the sensing toy 100 itself, a display means 107 for displaying, and a sounding means 108 for outputting sound are provided.
[0043]
The operating means 106, the display means 107, the sound generating means 108, and the control means 101 constitute a working means 110 for working on a sensing object as described later.
[0044]
The above means will be described in detail. The operation means 106 is a means for acting on a sensing target by performing various operations (including light emission), and the display means 107 is a means for performing sensing to perform sensing. The sounding unit 108 is a unit that works on the sensing target by outputting sounds (including words and music). The sound generating means 108 may have various kinds of sound data in advance, and may select and output the sound data. Alternatively, the sound generating means 108 may synthesize various sounds by performing waveform synthesis using a sound synthesis technique. It may be configured to output. The sounds output by the utterance means include spoken words such as "Look at this place" and "Hello," as well as cat sounds and horn sounds, as described later.
[0045]
Further, the control means 101 controls the operation means 106, the display means 107, and the sound generation means 108 according to a preset action program, thereby controlling the toy action. This toy action is an action performed by the sensing toy 100 as a toy, and the action itself is substantially the same as the action when working on the sensing target. For example, as will be described later, in the human-type toy 150 and the robot-type toy 170, an operation or display requesting a handshake from a person, or a call to a person such as "Please shake handshake", "Look at this place", "Hello". The sound output and the motion of shaking the arm according to the above are examples of toy behavior. Further, in the cat-type toy 160, the output of the cat's cry “Nyanyu-ya” and the action of moving the cat by moving his / her neck, tail, and legs are examples of toy behavior. Further, the display of the sentence “Look at this!”, The output of the horn sound, and the lighting / flashing of the headlight in the car-shaped toy 180 and the helicopter-type toy 190 are examples of the toy behavior.
[0046]
The control means 101 executes such a toy action at an appropriate timing. Therefore, the toy action of the sensing toy is executed even when the information on the sensing target is not detected.
[0047]
The moving means 105 is a means for moving the sensing toy 100 itself, and the moving means 105 can be omitted. That is, the sensing toy 100 may move or may not move.
[0048]
Various shapes can be employed for the appearance of the sensing toy 100. As specific examples, animal toys shown in FIGS. 3 to 5 (FIG. 3 is a human toy, FIG. 4 is a cat toy, FIG. 5 is a robot toy), and a vehicle toy shown in FIGS. FIG. 6 shows a car-type toy, and FIG. 7 shows a helicopter-type toy. The external shape of the sensing toy 100 is not limited to this.
[0049]
The configuration of the sensing toy 100 shown in each drawing will be described. The humanoid toy 150 shown in FIG. 3 includes a head 151, a body 152, two arms 153, and two legs 154. The moving means 105 is constituted by legs 154, and the toy 150 is constituted by a bipedal walking type. The operating means 107 is constituted by a head 151 and an arm 153. Thus, the humanoid toy 150 is configured to perform an operation of shaking the arm or shaking hands with the sensing target. The display means 106 (display section 106a) is provided on the body 152, and the sound generating means 108 (speaker 108a) is provided on the head 151.
[0050]
The cat-shaped toy 160 shown in FIG. 4 includes a head 161, a trunk 162, four legs 163, and a tail 164. The moving means 105 is constituted by legs 163, and the toy 160 is constituted by a four-legged walking type. The operating means 107 includes a head 161, legs 163, and a tail 164. As a result, the cat-type toy 160 is configured to perform an operation of shaking the neck, shaking the tail, and moving the front and rear legs. Further, a sound generator 108 (108a) is provided on the head 161. In the illustrated cat-shaped toy 160, the display means 106 is omitted.
[0051]
The robot type toy 170 shown in FIG. 5 includes a head 171, a trunk 172, an arm 173, and an endless track 174 (caterpillar). The moving means 105 is constituted by an endless track section 174, and the operating means 107 is constituted by a head section 171 and an arm section 173. The display means 106 (106a) is provided on the body 172, and the sound generating means 108 (108a) is provided on the head 171.
[0052]
In the toy car 180 shown in FIG. 6, the moving means 105 is constituted by wheels 181, and the operating means 107 is constituted by headlights 182 provided on the front surface of the toy 180 and emitting light. In this car-shaped toy 180, the display means 106 may be provided on the windshield 183. For example, the windshield 183 may be configured by a CRT or a liquid crystal display, or, as described later, the windshield 183 may be a half mirror and the windshield 183 may be used as a screen of a projector. Further, the sound generating means 108 is provided inside the vehicle body.
[0053]
In the helicopter type toy 190 shown in FIG. 7, the moving means 105 is constituted by a rotary wing 191, and the toy 190 moves by flying in the air by driving the rotary wing 191. The display means 106 may be provided on the windshield 192 as in the case of the car-shaped toy 180. Further, the sound generator 108 is provided in the body. The operating means 107 is omitted from the helicopter type toy 190 shown in the figure.
[0054]
As described above, all of the operation means 105, the display means 106, and the sound generation means 107 which constitute the above-mentioned working means 110 are not necessary, and may be omitted as appropriate according to the external shape of the sensing toy 100.
[0055]
As shown in FIG. 8, the sensing toy 100 is disposed in a home space, moves in the space as needed, and detects information on a person existing in the space.
[0056]
In the sensing toy 100, information about a person existing in the home space is detected by the sensing means 120 and the action means 110, and an application using the detection result is executed by the facility control means 104 and the action means 110. . Therefore, first, various modes of detection of information about a person by the sensing means 120 and the action means 110 will be described, and then, execution of various applications by the equipment control means 104 and the action means 110 will be described.
[0057]
(Detection of information about people)
The sensing means 120 included in the sensing toy 100 according to the present embodiment can be broadly classified into a contact-type sensing means 121 and non-contact-type sensing means 122 and 123.
[0058]
Among them, the contact-type sensing means 121 detects information about the sensing target by touching the sensing target, and the contact-type sensing means 121 detects human body temperature, pulse, Examples include state information such as wetness, blood pressure, and blood sugar level of a contact portion, and identification information such as a fingerprint. Among them, the contact-type sensing means 121 for detecting a blood sugar level may be configured to detect a blood sugar level by collecting a small amount of blood when in contact with a person.
[0059]
On the other hand, the non-contact type sensing means 122 and 123 detect information about the sensing target without touching the sensing target, and the image sensor 122 (camera) and the sound sensor 123 (microphone) are specific examples. Can be
[0060]
Among them, specific examples of the information detected by the image sensor 122 include a human face image, an iris image, and the like. If a face image is used as state information, it can be used for detection of a person's emotion and detection of a complexion. If a face image is used as identification information, it can be used for face authentication.
[0061]
The sound sensor 123 detects a person's utterance. The utterance of the person thus detected can be used as identification information for voiceprint authentication.
[0062]
In addition, as a non-contact type sensing means, a means for detecting a vein pattern of a human hand or finger may be used. The vein pattern thus detected can be used as identification information for vein authentication.
[0063]
Hereinafter, a method of detecting information on the sensing target by the contact-type sensing means 121, a method of detecting information on the sensing target by the image sensor 122 as the non-contact sensing means, and a method of detecting the information on the sensing target by the sound sensor 123 Will be described.
[0064]
(Detection method using contact-type sensing means)
When the sensing means is a contact type, as the form of the sensing toy 100, a human toy 150 shown in FIG. 3 or a robot toy 170 shown in FIG. 5 can be adopted. In this case, the contact-type sensing means 121 is preferably provided on the arms 153 and 173 (particularly, a portion corresponding to a human hand). It is also possible to employ the cat-type toy 160 shown in FIG. 4, and in this case, the contact-type sensing means 121 is provided on the trunk 162 (at the back of the neck, under the chin, at the back, and at the stomach). Is preferably provided. That is, it is preferable that the contact-type sensing means 121 be disposed at a position where the probability of touch by a person is high, according to the form of the sensing toy 100.
[0065]
When the sensing means is a contact type, the working means 110 works on the sensing object so that the sensing object touches the sensing means 121. Hereinafter, a method of detecting information using the human-type (or robot-type) sensing toy 150 provided with the contact-type sensing means 121 on the arm 153 will be specifically described.
[0066]
When a person exists in the home space, the presence of the person is detected by the sensing target detection means 200, and the position of the person in the home space is detected. The sensing target detecting means 200 sends the detection result to the sensing toy 100 1. The data sent at this time is the current position of the person.
[0067]
The control means 101 of the sensing toy 100 receives the detection result of the sensing target detection means 200, sets the person as a sensing target, and detects information. For that purpose, first, the control means 101 controls the moving means 105 to move the sensing toy 100 so that the position of the sensing toy 100 becomes a position near the sensing target.
[0068]
When the control means 101 moves to a position near the sensing target in this way, the control means 101 controls the display means 106 and displays an image (see, for example, FIG. 9) prompting a handshake on the display section 106a provided on the body 152. Let it. Note that, instead of such an image, a sentence “Please shake hands” may be displayed on the display unit 106a. Further, the control means 101 controls the sound generation means 108 and outputs a voice "Please shake hands". Further, the control unit 101 controls the operation unit 107 to perform an operation of requesting a handshake by positioning the arm 153 diagonally forward as shown in FIG. In this way, the working unit 110 performs a work to encourage the handshake by the display, the sound, and the operation on the sensing object.
[0069]
The person (sensing target) who has received such an action from the humanoid sensing toy 150 performs an operation of gripping a portion corresponding to the hand of the humanoid toy 150. As a result, the hand to be sensed comes into contact with the contact-type sensing means 121 provided on the arm 153. In this way, the sensing means 121 can detect the temperature, pulse, wetness of the hand, fingerprint, blood pressure, blood sugar level, and the like of the sensing target with the detection accuracy increased.
[0070]
On the other hand, in the cat-type sensing toy 160 provided with the contact-type sensing means 121 on the body 162, the control means 101 controls the sound-generating means 108 to output, for example, a cat's cry, such as "ni-ni-i-". Further, the control means 101 controls the operation means 107 and moves the neck, tail and legs of the toy 160 to make the cat behave like a human being.
[0071]
It is expected that the stimulating means 110 1 urges the sensing object to apply such a sound or action to the sensing object, so that the sensing object strokes the trunk 162 of the cat-shaped toy 160. As a result, the hand to be sensed comes into contact with the contact-type sensing means 121 provided on the body 162, and the sensing means 121 detects information on the sensing object in a state where the detection accuracy is increased. It becomes possible to do.
[0072]
(Detection method by image sensor)
When the sensing means is an image sensor (camera 122), the form of the sensing toy 100 may be any of the humanoid 150, cat 160, robot 170, car 180, and helicopter 190 shown in FIGS. Can be adopted. Among them, the camera 122 is preferably provided on the heads 151, 161 and 171 (part corresponding to the face) in the human toys, cats and robot toys 150, 160 and 170.
[0073]
In the case of the car-type or helicopter-type toys 180, 190, the camera 122 is preferably provided inside the windshields 183, 192. Here, when the windshields 183, 192 are formed as half mirrors, as shown in FIG. 10, the windshields 183, 192 are used as screens of the projector 400, while the camera 122 is driven by the windshields 183, 192. 192 allows the outside to be imaged.
[0074]
When the sensing means is the camera 122, and particularly when the camera image is used for face authentication or iris authentication, the working means 110 works on the sensing object so that the camera 122 can capture the face of the sensing object from the front. I do. Hereinafter, a method for detecting information using the human-shaped sensing toy 150 having the camera 151 on the head 151 will be specifically described. The same applies to the robot-type sensing toy 170.
[0075]
As described above, when a person is present in the home space, the position of the person in the home space is detected by the sensing target detecting means 200, and the detection result is sent from the sensing target detecting means 200 to the sensing toy 100. .
[0076]
The control means 101 having received the detection result of the sensing object detecting means 200 sets the person as a sensing object and controls the moving means 105 to move to a position near the sensing object. Then, the control means 101 controls the sound generating means 108, and outputs, for example, a voice such as "Look at this" or "Hello". By making such a call (approach) to the sensing object, the sensing object turns its face toward the person from which the sound was emitted. This is because when a person hears a sound, he tends to look in the direction in which the sound was output. Also, when there is a part that can be recognized as a face, a person tends to look at that part naturally. Therefore, the sensing target whose face is turned in the direction in which the sound is output looks at the head 151 of the humanoid (or robotic) toy 150 existing there. In this manner, the camera 122 provided on the head 151 of the humanoid toy 150 can capture the face of the sensing target from the front. That is, the sensing unit 122 detects information in a state where the accuracy of detection is increased.
[0077]
When it is necessary to further capture the face image of the sensing target, the control means 101 outputs still another word by controlling the sound generating means 108 so that the calling to the sensing target can be continued. Good. This makes it possible to maintain the state in which the face of the sensing target faces the direction of the sensing toy 150 for a relatively long time, increases the number of times the face of the sensing target is imaged from the front, and increases the detection accuracy. Improvement is achieved.
[0078]
The control unit 101 may control the operation unit 107 instead of or together with the control of the sound generation unit 108 as described above. That is, an operation of swinging the arm 153 near the head 151 provided with the camera 122 may be performed. When a person is moving, the camera 122 provided on the head 151 of the humanoid toy 150 captures the face to be sensed from the front because the person tends to stare at the moving object. Becomes possible. In this case, the camera 122 may be provided not on the head 151 but on the arm 153 to be operated.
[0079]
A similar effect can be obtained by arranging a light emitting body (LED) at a position near the camera 122 or at the camera position as the operating means 107 and performing an operation of blinking the light emitting body.
[0080]
Further, as described above, the approaching means 110 may perform an approach to prompt a handshake to the sensing target. In response to this, when the sensing target grips a portion corresponding to the hand of the sensing toy 150, the sensing target faces the sensing toy 150. Thus, the camera 122 provided on the head 151 of the humanoid toy 150 can capture the face to be sensed from the front.
[0081]
On the other hand, in the cat-type sensing toy 160, the control means 101 controls the sound generation means 108 to output, for example, a cat's cry, such as “Nyanya”. By performing the action by such a sound, the sensing target faces the direction of the cat-shaped sensing toy 160 that has output the voice, and looks at the sensing toy 160. Accordingly, the camera 122 provided on the head 161 of the cat-type sensing toy 160 can capture the face of the sensing target from the front.
[0082]
Further, the control unit 101 may control the operation unit 107 to perform an operation of, for example, shaking the head or shaking the tail. By performing the action by such an operation, the sensing target faces his / her face in the direction of the cat-type sensing toy 160 and looks at the sensing toy 160, and the face of the sensing target can be imaged by the camera 122 from the front. Will be possible.
[0083]
Further, in a car-type or helicopter-type sensing toy 180, 190 provided with a camera 122 inside the windshields 183, 192, the control means 101 controls the display means 106, for example, as shown in FIG. Display the sentence "Look at this!" When a sentence is displayed, a person tries to read the sentence. For this reason, by performing the action based on the display, the sensing target faces the windshield 183 and looks at the windshield 183. At this time, the face to be sensed can be imaged from the front by the camera 122 provided inside the windshield 183.
[0084]
In the vehicle-type toy 180, the control means 101 controls the sounding means 108 to output, for example, a horn sound “boo-boo”, or controls the operation means 107 to turn on / off the headlights 182. It may blink. By performing such a sound or action on the sensing object, it is expected that the sensing object turns its face toward the sensing toy 180.
[0085]
Also, in the humanoid and robotic toys 150 and 170, when the control unit 101 controls the display unit 106 to display the text on the display unit 106 a, the sensing target is the sensing toys 150 and 170. It is expected that he will turn his face toward him. At this time, the camera 122 may be provided on the heads 151 and 171 or on the trunks 152 and 172 (display unit 106a).
[0086]
(Detection method using sound sensor)
When the sensing means is a sound sensor (microphone 123), it is preferable to adopt the humanoid 150 shown in FIG. 3 or the robot 170 shown in FIG. 5 as the form of the sensing toy 100. Of these, in the humanoid 150 and the robot-type toy 170, the microphone 123 is preferably provided on the heads 151 and 171 (particularly corresponding to the ears).
[0087]
When the sensing means is the microphone 123 and the voice of the person detected by the sensing means 123 is used for voiceprint authentication, if there is noise in the detected voice, the authentication accuracy is reduced. For this reason, the stimulating means 110 1 urges the sensing object to utter in the vicinity of the microphone 123, thereby increasing the SN ratio of the detected voice.
[0088]
Note that there are two types of voiceprint authentication: a context-dependent type in which authentication is performed by uttering a pre-registered context, and a context-independent type in which authentication is performed by uttering an arbitrary context. It is also possible to adopt voiceprint authentication of the type. Hereinafter, a method of detecting information by the human-shaped sensing toy 150 having the microphone 123 on the head 151 will be specifically described. The same applies to the robot-type sensing toy 170. Here, it is assumed that context-dependent authentication is performed, and the registered context is the name of the sensing target.
[0089]
As described above, when a person is present in the home space, the position of the person in the home space is detected by the sensing target detecting means 200, and the detection result is sent from the sensing target detecting means 200 to the sensing toy 100. .
[0090]
The control means 101 having received the detection result of the sensing target detecting means 200 controls the moving means 105, thereby moving the sensing toy 150 to a position near the sensing target.
[0091]
Then, when the control means 101 moves to a position near the sensing target, the control means 101 controls the sound generation means. Thereby, for example, a voice saying “Tell me your name gently” is output. At this time, the control unit 101 may control the operation unit 107 to perform an operation of holding the hand over the ear.
[0092]
By performing such a sound-based approach (and an action-based approach) to the sensing object, the sensing object utters its name near the head 151 of the sensing toy 150. This is because when the human-shaped toy 150 utters the words “Tell me softly”, the sensing target is guided to occur at the ear of the human-shaped toy 150. As a result, the microphone 123 provided on the head 151 of the sensing toy 150 can detect the sound to be sensed in a state with a high SN ratio.
[0093]
The sound output by the sounding means 108 may be any sound that prompts a person to speak his or her own name at the ear.
[0094]
Also, for example, by causing the sounding means 108 to output a voice saying “Let's shake hands”, the sensing target is guided to grip the arm 153 of the sensing toy 150, thereby moving the sensing target close to the microphone 123. Also, by outputting a sound such as "What is your name?" After moving the sound, the sound to be sensed can be detected in a state with a high SN ratio.
[0095]
When context-independent voiceprint authentication is performed, there is no limitation on the context in which the sensing target utters, and therefore, for example, the sound generator 108 may output a voice saying “let's talk a secret”. By performing such an action, it is possible to expect that the sensing target utters near the head 151 of the sensing toy 150, whereby the voice of the sensing target can be detected with a high SN ratio.
[0096]
As described above, even when the sensing target is made to utter in the vicinity of the microphone 123, for example, when a noise source (such as a television in a home space) is present, the sound is detected. There is a possibility that the accuracy is reduced. Therefore, the work unit 110 may work to move the sensing target to a position where the noise source is small.
[0097]
More specifically, the control means 101 controls the sounding means 108 to output, for example, a voice saying "Let's talk here," and also controls the moving means 105 to move the sensing toy 150 to a position with a small noise source. Move. By doing so, the sensing object moves following the sensing toy 150, and as a result, it becomes possible to guide the sensing object to a position with less noise source. In such a state, the sound to be sensed is detected. In this case, as described above, the action on the sensing target may be further performed so as to produce a voice near the microphone 123, or the action may not be performed.
[0098]
As described above, when the sensing toy 100 is performing various toy actions (while performing), the sensing means 120 detects information on the sensing object. It has become. Then, in a state where the accuracy of the detection is increased by the action, the sensing means 120 detects various information on the sensing target.
[0099]
(Execution of application)
The control unit 101 receives information (state information and identification information) on the sensing target detected by the sensing unit 120 and executes various applications.
[0100]
Hereinafter, an application executed by the control unit 101 will be described.
[0101]
(Application for detecting status information)
As described above, when the contact-type sensing means 121 detects the body temperature, pulse, and wetness of the hand to be sensed, the control means 101 instructs the equipment control means 104 to control the air conditioner, open and close the window. To control the opening and closing of the windows, thereby performing air conditioning in the home space. For example, when the body temperature of the sensing target is lower than a predetermined value, the temperature in the home space may be increased by controlling the air conditioner.
[0102]
Further, since it is possible to determine whether or not the sensing target is in a tension state based on the detection result of the pulse and the humidity, the control unit 101 determines whether the sensing target is in a tension state based on the state information of the sensing target. It is determined whether it is in the state. Then, when it is determined that the user is in a nervous state, the control unit 104 causes the equipment control unit 104 to control the acoustic device and the fragrance device. As a result, music that calms the mind is played in the home space, and a fragrance that calms the mind is played.
[0103]
Furthermore, if a known method of recognizing an emotion from a face image by classifying the movement of each part constituting a human face for each emotion and performing pattern matching is adopted, the control unit 101 can control the sensing performed by the camera 122. Based on the face image of the target, it is possible to detect the emotion (emotion, emotion, and pleasure) of the sensing target. Therefore, the control means 101 detects the emotion to be sensed based on the face image captured by the camera 122 and causes the equipment control means 104 to control the acoustic device and the fragrance device accordingly. As a result, music corresponding to the emotion to be sensed is output into the home space, and fragrance corresponding to the emotion is flown into the home space.
[0104]
The behavior pattern of the sensing toy itself may be changed according to the detected emotion of the sensing target. For example, when the emotion of the sensing object is sad, the control unit 101 may output a word that cheers the sensing object by controlling the sounding unit 108.
[0105]
The sensing means 120 may detect information about the sensing target at a timing synchronized with the action of the sensing target. For example, information on the sensing target may be detected at the timing when the sensing target returns home, goes to bed, or wakes up. By associating the sensing toy 100 with a clock (alarm clock), the sensing toy 100 can obtain information on the scheduled wake-up time of the sensing target. Therefore, if the sensing toy 100 detects information on the sensing target based on the information, the sensing toy 100 can be detected at the timing when the sensing target wakes up. Note that the sensing toy 100 itself may be provided with an alarm function. Also, at the timing when the sensing target detecting means 200 detects that a person has passed the entrance and entered the house, the sensing toy 100 detects the information on the sensing target and returns the sensing target. Detection at the timing becomes possible. Furthermore, if the information about the sensing target is detected at the timing when the electric lamp in the bedroom is turned off, the detection at the timing when the sensing target goes to bed can be performed.
[0106]
When the detection is performed at a timing synchronized with the action of the sensing target, the control unit 101 may execute an application according to the detection timing of the sensing unit 120.
[0107]
For example, when the sensing unit 120 detects information at the timing when the sensing target wakes up, based on the temperature, pulse, hand wetness, and face color of the sensing target detected by the sensing unit 120, the control unit 101 Judge the physical condition of the sensing target.
[0108]
When it is determined that the physical condition is good when the sensing target wakes up, the control unit 101 causes the facility control unit 104 to execute control of turning on a light in a home space, control of an air conditioner, and control of a window opening / closing device. Control, or switch control of a television or radio. In this way, the environment corresponding to the rising of the sensing target is prepared.
[0109]
Further, the control unit 101 may control the sound generation unit 108 and the operation unit 107 so that the sensing toy 100 2 performs an operation of urging the sensing target to wake up. For example, in the case of the cat-type sensing toy 160, the sound generation unit 108 outputs a sound such as “Nyanni-a”, the operation of controlling the operation unit 107 causes the face to move toward the sensing object, or the operation of pulling the futon. Or you may be.
[0110]
On the other hand, when it is determined that the physical condition is poor when the sensing target is awakened, the control means 101 causes the equipment control means 104 to execute control of the communication device. And ask the hospital for a prescription. At this time, the control unit 101 may cause the sensing unit 120 to further detect the state information of the sensing target in response to a request from the hospital, and feed back the detection result to the hospital. For example, when a hospital requests a camera image in the throat, the image is captured by the camera 122 and transmitted. When a body sound is requested for auscultation, the sound is detected by the microphone 123. And send it. The detection of such state information may be performed automatically by the sensing toy, or the information to be sensed by the sensing target (person) using the sensing toy 100 may be detected.
[0111]
As a result, when it is necessary to take a rest, the control means 101 causes the equipment control means 104 to execute the control of the communication device, thereby informing the school or the company of the fact via a telephone or the Internet. Good.
[0112]
(Application associated with detection of identification information)
When the sensing unit 120 detects the identification information of the sensing target, the control unit 101 causes the identification unit 103 to execute the identification of the sensing target. The identification unit 103 performs biometrics authentication such as face authentication, iris authentication, fingerprint authentication, or vein authentication based on the identification information detected by the sensing unit 120, and thereby identifies a sensing target.
[0113]
In response to the identification result by the identification means 103, the control means 101 causes the equipment control means 104 to control the equipment 300 according to the identified sensing target. The equipment control means 104 controls the equipment 300 with reference to the database 109 (see FIG. 1).
[0114]
Specifically, a preferred room temperature is registered in the database 109 in advance for each individual. The equipment control means 104 controls the air conditioner and the window opening / closing device so that the room temperature of the individual identified by referring to the database 109 is maintained. For example, when the sensing target is a father, the air conditioner and the window opening / closing device are controlled so as to refer to the father's favorite room temperature registered in the database 109 so as to reach the room temperature.
[0115]
In addition, by registering the behavior pattern of each individual at the time of returning home, wake-up, or the like in the database 109, control of the equipment according to the behavior pattern is realized.
[0116]
For example, if the behavior pattern of the father going home from the entrance to his / her room (dad's room) and then taking a bath is registered in the database 109 as the behavior pattern when the father returns home, the facility control means 104 Controls the lighting of the electric lights on the route from the entrance to the father's room, controls the air conditioner in the father's room, and further controls the hot water supply device in preparation for the bath. Further, when the sensing target that has returned home is a child, the equipment control means 104 refers to the behavior pattern of the child when returning home registered in the database 109, and thereby controls, for example, a microwave oven to prepare a meal. And warm the food.
[0117]
Thus, when controlling the equipment 300 according to the identification result by the identification means 103, the control of each equipment 300 may be performed according to the state information of the sensing target. For example, the temperature of a father who has returned home may be detected, and the temperature of hot water in a bath may be adjusted according to the detected temperature.
[0118]
Furthermore, if the personal belongings list of each individual when going out is registered in the database 109, the sensing target to go out is identified, and the personal belongings list registered in the database 109 is presented to the sensing target. (For example, the list may be displayed on the display unit 106a, or the list may be read aloud by the sounding unit).
[0119]
Further, in response to the identification result by the identification unit 103, the control unit 101 may change the action pattern of the sensing toy 100 itself according to the preference of the identified individual. For example, by registering the preference of each individual in the database 109, when the identified sensing object tends to dislike being noisy, the sensing toy 100 suppresses the sound output by the sounding means 108 and The action (toy action) on the sensing target is performed by the operation and the display by the display means 106. On the other hand, when the identified sensing object tends to be noisy, the sensing toy 100 causes the sounding means 108 and the moving means 105 to actively work on the sensing object.
[0120]
Depending on whether the sensing target is a child or an adult, the sound (words) output by the sounding means 108 may be changed, or the content displayed by the display means 106 may be changed.
[0121]
Further, since the identification means 103 of the sensing toy 100 performs authentication, the authentication result may be used for user authentication in each facility 300 in the home space. That is, by performing authentication (identification) using the sensing toy 100, the user authentication of all the facilities 300 in the home space may be completed. By doing so, it is not necessary to perform the authentication process for each of the facilities in the home space, and the authentication by the sensing toy 100 is performed without the human being (the sensing target) being conscious. The trouble is eliminated.
[0122]
(Application by combining identification information detection and state information detection)
After detecting the identification information of the sensing target by the sensing means 120 and identifying the sensing target by the identification means 103, the control means 101 may cause the sensing means 120 to detect the state information of the identified sensing target. Good. By doing so, it is possible to manage histories such as body temperature, pulse, blood pressure, blood sugar level and the like for each individual. Further, the control means 101 may cause the equipment control means 104 to control the communication device to transmit these data to the hospital. In this way, data analysis can be performed at the hospital provided with the data.
[0123]
Further, the control means 101 of the sensing toy 100 may analyze the data, determine the physical condition of the person from the analysis result, and prescribe a medicine accordingly, or propose a meal according to the physical condition. . This can be achieved by accumulating information on medicines and meals in the database 109 and extracting necessary information from the database according to the result of the data analysis.
[0124]
-Embodiment 2
The sensing toy 100 of the first embodiment is provided with a working means 110 1, and the working means 110 1 works on a sensing target to improve the detection accuracy. However, the sensing toy 500 of the second embodiment has As shown in FIG. 12, there is provided a sensing mode changing unit 112 for changing the sensing mode of the sensing unit 120 so that the detection accuracy is increased in accordance with the state of the sensing target.
[0125]
The sensing mode changing unit 112 includes a control unit 101, a moving unit 105, and an action prediction unit 111.
[0126]
In the sensing toy 500 of the second embodiment, the same reference numerals are given to the same means as the sensing toy 100 of the first embodiment, and a detailed description thereof will be omitted. Although the sensing mode of the information about the person of the sensing toy 500 is different from that of the sensing toy 100 of the first embodiment, the execution mode of the application is the same as that of the sensing toy 100 of the first embodiment. Is omitted.
[0127]
The sensing means 120 of the sensing toy 500 according to the second embodiment is preferably a non-contact type. Hereinafter, the detection method of the sensing toy 500 according to the second embodiment will be described separately for “Part 1” to “Part 3”.
[0128]
(Part 1)
The first is an example in which the sensing means is the camera 122. The form of the sensing toy 500 is a humanoid 150, a cat 160, a robot 170, a car 180, or a helicopter 190 shown in FIGS. Either type can be employed.
[0129]
As described above, when the sensing means is the camera 122, it is necessary to image the face to be sensed from the front in order to increase the accuracy of detection. Therefore, the sensing mode changing unit 112 moves the sensing toy 500 in accordance with the direction of the face to be sensed.
[0130]
Hereinafter, a method of detecting information using the human-shaped sensing toy 150 provided with the camera 122 on the head 151 will be specifically described with reference to FIG. The detection method is the same for the cat type 160, the robot type 170, the car type 180, the helicopter type 190, and the sensing toy 170.
[0131]
As described above, when a person exists in the home space, the position of the person in the home space is detected by the sensing target detection means 200. In the second embodiment, the sensing target detecting means 200 detects the direction of the face of the sensing target. There are various methods for detecting the direction of a human face. One of them is to first detect the head of a person, obtain the parts that make up the face such as eyes, nose, mouth, and ears from the detected head region by pattern matching, and determine the orientation of the face from the positional relationship. Is a method of detecting As a method for detecting the head of a person, there is a known method utilizing the fact that the head of a person is round. More specifically, a method of detecting a circular region in a camera image by Hough transform and thereby detecting a human head.
[0132]
In addition, the direction of the face may be detected by extracting the skin color region in the head region using the fact that the skin color is the skin color. Instead of extracting the head region, the orientation of the face may be determined by directly obtaining each part constituting the face.
[0133]
When the position of the sensing object in the home space and the orientation of the face are detected in this manner, the sensing object detecting means 200 transmits the information to the sensing toy 500.
[0134]
The control means 101 having received the detection result of the sensing object detecting means 200 sets the person as a sensing object and controls the moving means 105 to move to a position near the sensing object. At the time of this movement, instead of the route approaching the sensing target at the shortest distance, the sensing target may be approached from the direction in which the face of the sensing target is facing based on the detection result of the sensing target detection means 200. A route is set (see the broken line in FIG. 13). By doing so, the number of times that the camera 122 takes an image of the face to be sensed from the front is increased, thereby increasing the accuracy of detection.
[0135]
When the sensing toy 500 is moved, the control means 101 controls the sound generating means 108 to output a sound such as "Hello", thereby reducing the sense of discomfort of the sensing object. ,preferable.
[0136]
(Part 2)
In "Part 1," the sensing mode changing unit 112 moves the sensing toy 500 in accordance with the direction of the face of the sensing target. In "Part 2," the sensing mode changing unit 112 predicts the behavior of the sensing target. Then, the sensing toy 500 is moved according to the prediction. That is, the direction in which the face of the person faces is predicted, and the sensing toy 500 is moved in advance in the direction in which the face of the person faces based on the prediction.
[0137]
The behavior of the sensing target can be predicted based on the habit of the person. The behavior of the sensing target can be most easily predicted when returning home. It is expected that those who return home will take the action of turning their doors behind and turning their faces toward the inside of the house when they take off their shoes and go home.
[0138]
Therefore, in response to the sensing object detecting means 200 detecting that the sensing object has returned home, the control means 101 controls the moving means 105 when the sensing object is taking off the shoes, so that The sensing toy 500 is moved so that the sensing target faces the face, that is, the direction from the entrance door toward the inside of the house (see the dashed line in FIG. 13). In this way, if the direction of the face is changed as predicted by the sensing target, the camera 122 captures the face of the sensing target from the front. In addition, by increasing the number of times of capturing a face image, the accuracy of detection can be increased.
[0139]
(Part 3)
“Part 3” relates to the operation of the sensing mode changing unit 112 1 when the sensing unit is the sound sensor 123 1.
[0140]
When the sensing means is the sound sensor 123, as described above, if noise is present in the detected voice, the authentication accuracy is reduced. Therefore, the sensing mode changing unit 112 changes the sensing mode of the sound sensor 123 so that the SN ratio becomes higher.
[0141]
Specifically, the sound sensor 123 is configured by a microphone having directivity or a microphone array. In this way, the sound is obtained with directivity, and only the sound emitted from the sensing target is detected.
[0142]
The control unit 101 changes the directivity of the sound sensor 123 in the direction of the sensing target based on the position information of the sensing target detected by the sensing target detection unit 200. Thus, by controlling the sounding means 108, the sensing object works so as to utter. For example, a voice saying "Tell me your name" may be output. In this case, unlike the first embodiment, it is not necessary to cause the sensing target to utter near the microphone 123.
[0143]
By doing so, when the sensing target utters, since the preference of the sound sensor 123 is set in the direction of the sensing target, it is possible to detect the voice uttered by the sensing target in a state where the SN ratio is high. it can.
[0144]
-Embodiment 3
Embodiment 3 relates to a sensing system using a sensing toy. As shown in FIG. 14, this sensing system includes a sensing toy 600, a space management server 700, and equipment 300, which are connected to each other via a network.
[0145]
The sensing toy 600 includes a sensing unit 120, a working unit 110, and a transmitting / receiving unit 302. The transmission / reception unit 302 transmits / receives various data to / from the space management server 700 and the facility 300 via a network.
[0146]
Since the configurations of the sensing means 120 and the working means 110 are the same as those in the first embodiment, the same reference numerals are given and the description is omitted here.
[0147]
The space management server 700 manages a home space, and includes a control unit 701, an identification unit 103, a facility control unit 104, a database 109, and a transmission / reception unit 302. The transmission / reception means 302 is the same as that provided in the sensing toy 600, and transmits and receives various data to and from the sensing toy 600 and the equipment 300 via a network. Therefore, the same reference numerals are used. The identification means 103, the equipment control means 104, and the database 109 are the same as those provided in the sensing toys 100, 500 (see FIGS. 1 and 12) of the first and second embodiments, and are denoted by the same reference numerals. The identification means 103 performs identification of the sensing target by face authentication, iris authentication, fingerprint authentication, or the like in accordance with the information on the sensing target detected by the sensing toy 600. The equipment control means 104 includes information on the sensing target. Alternatively, the equipment 300 is controlled via the network according to the identification result of the identification means 103.
[0148]
The space management server 700 is connected to a sensing object detecting means 200 for detecting the presence of a person to be sensed by the sensing toy 600 in the home space. The detection result of the detecting means 200 is transferred to the sensing toy 600.
[0149]
The facility 300 includes a control unit 301 and a transmission / reception unit 302. The transmission / reception means 302 is the same as that provided in the sensing toy 600, and transmits and receives various data to and from the space management server 700 and the sensing toy 600 via the network. Therefore, the same reference numerals are used. Further, the control means 301 controls the operation of the equipment 300 in response to a control signal from the space management server 700.
[0150]
The operation of this sensing system will be described. First, when the sensing target detecting means 200 detects the presence of a person in a home space, the detection result is sent to the space management server 700. The control means 701 of the space management server 700 receives the detection result and transmits the information to the sensing toy 600 by the transmission / reception means 302.
[0151]
As described above, the sensing toy 600 that has received the information from the space management server 700 performs the action on the sensing object by the action means 110, and the sensing means 120 determines the accuracy of detection by the sensing object responding to the action. When the height increases, information about the sensing target is detected.
[0152]
The information thus detected is sent to the space management server 700 by the transmission / reception means 302. The control means 701 of the space management server 700 causes the identification means 103 to identify the sensing target as needed. Further, it causes the equipment control unit 104 to create an equipment control command so as to execute the control of the equipment 300. The created equipment control command is transmitted from the space management server 700 to the equipment 300 via the network, and the control means 301 of the equipment 300 receiving the equipment control command executes the control of the equipment 300 according to the command.
[0153]
The sensing toy of the sensing system may include the sensing means 120, the sensing mode changing means 112, and the transmitting / receiving means 302.
[0154]
As described above, the sensing toys 100 and 600 of the present invention are toys for detecting information about a person, and include a sensing unit 120 for detecting information about a person and a sensing target for sensing the information by the sensing unit. And an actor 110 that performs an act related to the execution of information detection on the sensing target without being conscious of the execution.
[0155]
The sensing means 120 detects the information on the sensing object when the sensing object is in a state where the accuracy of the detection is increased by responding to the action by the engaging means 110. In other words, the actor 110 guides the sensing target to a state in which the accuracy of detection is increased.
[0156]
As a result, the action unit 110 performs an action related to the execution of information detection on the sensing object, and if the sensing object responds to the action, the detection accuracy is increased. In this state, since the sensing means 120 detects the information, the information can be reliably and accurately detected.
[0157]
On the other hand, since the action of the action means 110 1 is to request a handshake or to give a greeting, it does not make the sensing target aware of the execution of information detection. In this way, direct action on the execution of information detection (for example, by outputting a sound such as "Touch the sensor", the execution of information detection is clearly indicated to the sensing target, and Unlike the action of touching, the indirect action on the execution of information detection (the action itself is not related to the execution of information detection, but the sensing object responds to the action and is related to the execution of information detection. By doing so, the sensing target is not conscious of the execution of information detection. In this way, it is possible to achieve both a reduction in human discomfort and an improvement in detection accuracy.
[0158]
Further, since the toy detects information about a person, it is possible to reduce a sense of discomfort given to the person in a living space including a general household.
[0159]
The above-mentioned approaching means 110 can perform an effective approach to the sensing object by performing an approach to the sensing object by sound, operation, and / or display.
[0160]
Further, another sensing toy 500 of the present invention includes a sensing means 120 for detecting information about a person, and a sensing mode of the sensing means 120 1 without making the sensing target of the sensing means 120 aware of the execution of information detection. And a sensing mode changing unit 112 for changing the mode. Then, based on the behavior prediction of the sensing target, the sensing mode changing unit 112 previously moves the position of the sensing unit 120 to a position where the accuracy of detection increases when the sensing target takes the predicted behavior. .
[0161]
Thus, when the sensing mode changing unit 112 previously moves the position of the sensing unit 120 to a position where the accuracy of the detection will increase, and when the sensing target takes the predicted action, in other words, the accuracy of the detection increases. The sensing means 120 detects information about the sensing target. For this reason, information can be reliably and accurately detected.
[0162]
In addition, since the sensing mode changing unit 112 predicts the behavior of the sensing object and moves the position of the sensing unit 120, the sensing object only needs to behave without being conscious of the execution of information detection, and the accuracy of information detection is high. It is not necessary for the sensing target to act so that the level increases. As a result, the sense of discomfort of the sensing target can be reduced, and both the reduction of discomfort to humans and the improvement of the accuracy of detection can be achieved.
[0163]
In addition, since the sensing mode changing unit predicts the behavior of the sensing target based on the habit of a person, the prediction can be accurately performed.
[0164]
The sensing toys 100 and 500 further include a control means 101 (equipment control means 104) for controlling the equipment 300 according to the state information of the person detected by the sensing means 120, thereby making the living environment comfortable. Can be.
[0165]
In addition, the sensing toys 100 and 500 further include an identification unit 103 that identifies the sensing target based on the identification information of the person detected by the sensing unit 120. Thus, the sensing target can be specified.
[0166]
At this time, a control means 101 (equipment control means 103, database 109) for controlling the equipment 300 is further provided according to the identification result of the identification means 103, thereby creating an optimal living environment for each identified individual. be able to.
[0167]
In addition, the sensing means 120 detects the state information (body temperature, pulse, wetness of the contact portion, blood pressure, blood sugar level) of the sensing object in response to the identification result of the identification means 103, and thereby, for each individual, Can be managed.
[0168]
The sensing means 120 receives the position information of the person detected by the sensing object detecting means 200 and sets the person as a sensing object, so that the sensing means 120 detects the person every time the sensing object detecting means 200 detects a person. Then, information is detected with the person as a sensing target. As described above, since the sensing toys 100, 500, and 600 voluntarily detect information on the sensing target, necessary information is automatically detected without the consciousness of the sensing target. In this way, for example, information on state information (such as body temperature) can be managed accurately.
[0169]
By further including a transmission unit (transmission / reception unit 302) for transmitting the detection result of the sensing unit 120 1 to the outside, a sensing toy 600 1 optimal for a sensing system is configured.
[0170]
Still another sensing toy of the present invention is a toy for detecting information about a person, and a sensing means 120 for detecting information about a person, and without making a sensing target of the sensing means conscious of execution of information detection. And accuracy improving means 110 and 112 for increasing the accuracy of detection by the sensing means.
[0171]
By means of the accuracy improving means 110 and 112, when detecting information about a person, it is possible to achieve both a reduction in the sense of discomfort of the person and an improvement in the accuracy of the detection.
[0172]
Still another sensing toy of the present invention includes a sensing means 120 for detecting information about a person, and a control means 101 for controlling toy behavior according to a preset behavior program. When the control means 101 is executing the control of the toy behavior, information on a person is detected.
[0173]
According to this configuration, when the control means 101 controls the behavior of the toy, that is, when the sensing toy is acting as a toy, the sensing means 120 detects information about a person. It is possible to detect information about the person without making the user aware of the execution of information detection.
[0174]
In addition, the sensing means 120 detects the information about a person when the control means 101 is executing the control of the toy behavior and the detection accuracy is increased. You may. By doing so, it is possible to achieve both a reduction in human discomfort and an improvement in detection accuracy.
[0175]
-Other embodiments-
In each of the above embodiments, the sensing toy has been described for a general household. However, the sensing toy can be used not only in a general household but also in an office, a hotel, a store, a hospital, a factory, and the like. .
[0176]
Further, the configuration of the sensing toy described in each of the above embodiments can be applied to, for example, a work robot or a care robot. Such a robot may be configured to perform various operations based on information (state information or identification information) on the detected sensing target.
[0177]
For example, in a work or nursing robot, when the sensing target wakes up, in accordance with the result of detecting the temperature of the sensing target, the humidity of the hand, and the like, the sheets are washed or the futon is dried. Is also good.
[0178]
【The invention's effect】
As described above, according to the sensing toy according to the present invention, it is possible to create a state in which the accuracy of detection is increased without making the sensing target aware of information detection by the action means or the sensing mode changing means, It is possible to achieve both a reduction in discomfort and an improvement in detection accuracy.
[0179]
In addition, the (equipment) control unit and the identification unit execute various applications using the detected information, whereby the environment in the space where the sensing target exists can be improved.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating an example of a configuration of a sensing toy according to a first embodiment.
FIG. 2 is an explanatory diagram showing the principle of the background subtraction method.
FIG. 3 is a diagram illustrating an example of a form of a humanoid sensing toy.
FIG. 4 is a diagram showing an example of a form of a cat-type sensing toy.
FIG. 5 is a diagram showing an example of a form of a robot-type sensing toy.
FIG. 6 is a diagram showing an example of a form of a car-shaped sensing toy.
FIG. 7 is a diagram illustrating an example of a form of a helicopter-type sensing toy.
FIG. 8 is a diagram showing a state when a sensing toy is arranged in a living space.
FIG. 9 is a diagram illustrating an example of a screen displayed on a display unit of the sensing toy.
FIG. 10 is an explanatory diagram showing a configuration of a display unit and a sensing unit when a half mirror is used.
FIG. 11 is a view showing the car-shaped toy in a state where it is displayed on the display unit.
FIG. 12 is a block diagram illustrating an example of a configuration of a sensing toy according to a second embodiment.
FIG. 13 is an explanatory diagram showing an example of a moving path of a toy set by a sensing mode changing unit.
FIG. 14 is a block diagram illustrating an example of a configuration of a sensing system according to a third embodiment.
[Explanation of symbols]
100 ・ ・ ・ Sensing toy
500 Sensing toy
600 Sensing toy
101 ... control means
103 ··· Identification means
104 ・ ・ ・ Equipment control means (control means)
106 ・ ・ ・ Operation means
107 ··· Display means
108 ... sounding means
109 ・ ・ ・ Database
110 ・ ・ ・ Working means (Accuracy improving means)
112: Sensing mode changing means (accuracy improving means)
120 sensing means
200: sensing object detection means
300 ・ ・ ・ Facilities
302: Transmission / reception means (transmission means)

Claims (14)

人に関する情報の検出を行うセンシング玩具であって、
人に関する情報の検出を行うセンシング手段と、
上記センシング手段のセンシング対象に情報検出の実行を意識させることなく、上記センシング対象に対して情報検出の実行に関連する働きかけを行う働きかけ手段と、を備え、
上記センシング手段は、上記センシング対象が、上記働きかけ手段による働きかけに応じることによって検出の確度が高まった状態になったときに、当該センシング対象に関する情報の検出を行うセンシング玩具。
A sensing toy that detects information about a person,
Sensing means for detecting information about a person;
Without making the sensing target of the sensing means aware of the execution of information detection, comprising: a working means for performing a work related to the execution of information detection on the sensing target,
The sensing toy is a sensing toy that detects information about the sensing target when the sensing target is in a state where the accuracy of detection is increased by responding to the challenge by the challenger.
請求項1において、
働きかけ手段は、センシング対象に対して、音による働きかけを行うセンシング玩具。
In claim 1,
The approaching means is a sensing toy that uses sound to approach the sensing target.
請求項1において、
働きかけ手段は、センシング対象に対して、動作による働きかけを行うセンシング玩具。
In claim 1,
The action means is a sensing toy that works on the sensing target by action.
請求項1において、
働きかけ手段は、センシング対象に対して、表示による働きかけを行うセンシング玩具。
In claim 1,
The action means is a sensing toy that works on the sensing target by display.
人に関する情報の検出を行うセンシング玩具であって、
人に関する情報の検出を行うセンシング手段と、
上記センシング手段のセンシング対象に情報検出の実行を意識させることなく、上記センシング手段のセンシング態様を変更させるセンシング態様変更手段と、を備え、
上記センシング態様変更手段は、上記センシング対象の行動予測に基づいて、該センシング対象が予測した行動をとったときに検出の確度が高まる位置に、上記センシング手段の位置を予め移動させるセンシング玩具。
A sensing toy that detects information about a person,
Sensing means for detecting information about a person;
Without making the sensing target of the sensing means aware of execution of information detection, a sensing mode changing means for changing the sensing mode of the sensing means,
The sensing toy, wherein the sensing mode changing unit moves the position of the sensing unit in advance to a position where the accuracy of detection increases when the sensing target takes the predicted behavior based on the behavior prediction of the sensing target.
請求項5において、
センシング態様変更手段は、人の習慣に基づいてセンシング対象の行動を予測するセンシング玩具。
In claim 5,
The sensing toy changing means is a sensing toy for predicting a behavior of a sensing target based on a human habit.
請求項1又は請求項5において、
センシング手段は、人の状態情報を検出し、
上記センシング手段による状態情報の検出結果に応じて設備の制御を行う制御手段をさらに備えるセンシング玩具。
In claim 1 or claim 5,
The sensing means detects state information of a person,
A sensing toy further comprising control means for controlling equipment according to a result of detection of state information by the sensing means.
請求項1又は請求項5において、
センシング手段は、人の識別情報を検出し、
上記センシング手段による識別情報の検出結果に基づいてセンシング対象の識別を行う識別手段をさらに備えるセンシング玩具。
In claim 1 or claim 5,
The sensing means detects human identification information,
A sensing toy further comprising identification means for identifying a sensing target based on a detection result of identification information by the sensing means.
請求項8において、
識別手段の識別結果に応じて、設備の制御を行う制御手段をさらに備えるセンシング玩具。
In claim 8,
A sensing toy further comprising control means for controlling equipment according to the identification result of the identification means.
請求項8において、
センシング手段は、識別手段の識別結果を受けてセンシング対象の状態情報の検出を行うセンシング玩具。
In claim 8,
The sensing means is a sensing toy that detects state information of a sensing target in response to an identification result of the identification means.
請求項1又は請求項5において、
センシング手段は、所定の空間内における人の位置を検出した位置検出情報を受けて、当該人をセンシング対象に設定するセンシング玩具。
In claim 1 or claim 5,
The sensing means is a sensing toy that receives position detection information that detects a position of a person in a predetermined space and sets the person as a sensing target.
請求項1又は請求項5において、
センシング手段の検出結果を外部に送信する送信手段をさらに備えるセンシング玩具。
In claim 1 or claim 5,
A sensing toy further comprising a transmitting means for transmitting a detection result of the sensing means to the outside.
人に関する情報の検出を行うセンシング玩具であって、
人に関する情報の検出を行うセンシング手段と、
上記センシング手段のセンシング対象に情報検出の実行を意識させることなく、上記センシング手段による検出の確度を高める確度向上手段とを備えるセンシング玩具。
A sensing toy that detects information about a person,
Sensing means for detecting information about a person;
A sensing toy comprising: a means for improving the accuracy of detection by the sensing means without making the sensing target of the sensing means aware of the execution of information detection.
人に関する情報の検出を行うセンシング玩具であって、
人に関する情報の検出を行うセンシング手段と、
予め設定された行動プログラムに従って玩具行動の制御を行う制御手段と、を備え、
上記センシング手段は、上記制御手段が玩具行動の制御を実行しているときに、人に関する情報の検出を行うセンシング玩具。
A sensing toy that detects information about a person,
Sensing means for detecting information about a person;
Control means for controlling toy behavior according to a preset behavior program,
The sensing toy, wherein the sensing means is configured to detect information about a person when the control means is controlling the behavior of the toy.
JP2003159593A 2003-06-04 2003-06-04 Sensing toy Pending JP2004357915A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003159593A JP2004357915A (en) 2003-06-04 2003-06-04 Sensing toy

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003159593A JP2004357915A (en) 2003-06-04 2003-06-04 Sensing toy

Publications (1)

Publication Number Publication Date
JP2004357915A true JP2004357915A (en) 2004-12-24

Family

ID=34052612

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003159593A Pending JP2004357915A (en) 2003-06-04 2003-06-04 Sensing toy

Country Status (1)

Country Link
JP (1) JP2004357915A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005305631A (en) * 2004-03-25 2005-11-04 Nec Corp Robot and its controlling method
US7539556B2 (en) 2004-01-09 2009-05-26 Honda Motor Co., Ltd. Face image acquisition method and face image acquisition system
JP2009183538A (en) * 2008-02-07 2009-08-20 Saitama Univ Wheelchair with autonomous traveling ability
JP2010510895A (en) * 2006-11-30 2010-04-08 韓國電子通信研究院 Robot posture detection apparatus and method
WO2013052644A1 (en) 2011-10-04 2013-04-11 Children's Medical Center Coporation Emotional control methods and apparatus
JP2017010516A (en) * 2015-06-24 2017-01-12 百度在線網絡技術(北京)有限公司 Method, apparatus, and terminal device for human-computer interaction based on artificial intelligence
US10835188B2 (en) 2016-09-23 2020-11-17 Casio Computer Co., Ltd. Robot providing health support with communication, robot control method, and non-transitory recording medium
JP2021021852A (en) * 2019-07-29 2021-02-18 シャープ株式会社 Voice recognition device, electronic apparatus, control method and control program
JP2021036993A (en) * 2019-08-31 2021-03-11 学校法人拓殖大学 Vital sign measuring robot

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7539556B2 (en) 2004-01-09 2009-05-26 Honda Motor Co., Ltd. Face image acquisition method and face image acquisition system
JP2005305631A (en) * 2004-03-25 2005-11-04 Nec Corp Robot and its controlling method
JP4595436B2 (en) * 2004-03-25 2010-12-08 日本電気株式会社 Robot, control method thereof and control program
US8376803B2 (en) 2004-03-25 2013-02-19 Nec Corporation Child-care robot and a method of controlling the robot
JP2010510895A (en) * 2006-11-30 2010-04-08 韓國電子通信研究院 Robot posture detection apparatus and method
JP2009183538A (en) * 2008-02-07 2009-08-20 Saitama Univ Wheelchair with autonomous traveling ability
WO2013052644A1 (en) 2011-10-04 2013-04-11 Children's Medical Center Coporation Emotional control methods and apparatus
JP2014528806A (en) * 2011-10-04 2014-10-30 チルドレンズ メディカル センター コーポレーション Emotion control method and apparatus
EP2763763A4 (en) * 2011-10-04 2015-07-22 Childrens Medical Center Emotional control methods and apparatus
JP2017010516A (en) * 2015-06-24 2017-01-12 百度在線網絡技術(北京)有限公司 Method, apparatus, and terminal device for human-computer interaction based on artificial intelligence
US10835188B2 (en) 2016-09-23 2020-11-17 Casio Computer Co., Ltd. Robot providing health support with communication, robot control method, and non-transitory recording medium
JP2021021852A (en) * 2019-07-29 2021-02-18 シャープ株式会社 Voice recognition device, electronic apparatus, control method and control program
JP2021036993A (en) * 2019-08-31 2021-03-11 学校法人拓殖大学 Vital sign measuring robot

Similar Documents

Publication Publication Date Title
JP7320239B2 (en) A robot that recognizes the direction of a sound source
CN109475781B (en) Behavioral autonomous robot understanding physical contact
JP6409206B2 (en) Autonomous robot that welcomes you
JP6402320B2 (en) An autonomous behavioral robot
JP6472113B2 (en) Autonomous robots and programs that maintain a natural sense of distance
JP7400923B2 (en) Information processing device and information processing method
JP7205148B2 (en) ROBOT, CONTROL METHOD AND PROGRAM
JP2004357915A (en) Sensing toy
US11511410B2 (en) Artificial intelligence (AI) robot and control method thereof
US20220288791A1 (en) Information processing device, information processing method, and program
JP7296626B2 (en) Information processing device and program
US11938625B2 (en) Information processing apparatus, information processing method, and program
KR102519599B1 (en) Multimodal based interaction robot, and control method for the same
WO2019088160A1 (en) Autonomously acting robot capable of executing reflex action
JP2020091636A (en) Voice interactive device control method
WO2021085175A1 (en) Autonomous mobile object, information processing method, program, and information processing device
US11687049B2 (en) Information processing apparatus and non-transitory computer readable medium storing program
WO2020202540A1 (en) Characteristic data setting device, robot, terminal device, and characteristic data setting method
Puehn et al. Design of a low-cost social robot: Towards personalized human-robot interaction
JP2004017185A (en) Robot control device
US20220413795A1 (en) Autonomous mobile body, information processing method, program, and information processing apparatus
KR200386045Y1 (en) Humanoid Robot using Emotion Expression based on the Embedded System
JP2004046400A (en) Speaking method of robot
JP2003190651A (en) False creature device
JP2003190650A (en) False creature device