JP2017029309A - 玩具 - Google Patents

玩具 Download PDF

Info

Publication number
JP2017029309A
JP2017029309A JP2015151127A JP2015151127A JP2017029309A JP 2017029309 A JP2017029309 A JP 2017029309A JP 2015151127 A JP2015151127 A JP 2015151127A JP 2015151127 A JP2015151127 A JP 2015151127A JP 2017029309 A JP2017029309 A JP 2017029309A
Authority
JP
Japan
Prior art keywords
unit
toy
control
information
baby
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015151127A
Other languages
English (en)
Other versions
JP6586810B2 (ja
Inventor
貴美 東里
Takami Aizato
貴美 東里
一樹 長村
Kazuki Nagamura
一樹 長村
直人 川島
Naoto Kawashima
直人 川島
悠磨 栗原
Yuma Kurihara
悠磨 栗原
広太郎 寺西
Kotaro Teranishi
広太郎 寺西
隼人 名越
Hayato Nagoshi
隼人 名越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015151127A priority Critical patent/JP6586810B2/ja
Priority to US15/195,284 priority patent/US9873060B2/en
Publication of JP2017029309A publication Critical patent/JP2017029309A/ja
Application granted granted Critical
Publication of JP6586810B2 publication Critical patent/JP6586810B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H33/00Other toys
    • A63H33/006Infant exercisers, e.g. for attachment to a crib
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H29/00Drive mechanisms for toys in general
    • A63H29/22Electric drives
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H5/00Musical or noise- producing devices for additional toy effects other than acoustical
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls

Landscapes

  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Pediatric Medicine (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Toys (AREA)

Abstract

【課題】育成のサポートを行う玩具を提供する。
【解決手段】玩具は、人感センサ16と、人感センサ16によって人の検知がなされると、対象をあやす動作制御を抑制する抑制モードに動作モードを変更する制御部15とを有する。
【選択図】図1

Description

本発明の実施形態は、玩具に関する。
従来、赤ちゃんなどを対象とする玩具として、メロディーを奏でると共に人形等を回転させて赤ちゃんをあやすメリーが知られている。お母さん等の保護者は、家事などを済ませる際にメリーを動作させ、赤ちゃんをメリーに注視させることで、育児と家事を両立させるのにメリーを役立てている。
特開2009−205322号公報
しかしながら、上述した従来技術では、保護者自身が赤ちゃんをあやす際にメリーが動作していると、赤ちゃんがメリーの方に注視してしまうという問題がある。このため、保護者自身が赤ちゃんをあやして育児を行っている際には、メリーの動作が邪魔となる場合があり、育児のサポートには不十分なところがある。
1つの側面では、育成のサポートを行うことを可能とする玩具を提供することを目的とする。
第1の案では、玩具は、人感センサと、人感センサによって人の検知がなされると、対象をあやす動作制御を抑制する抑制モードに動作モードを変更する制御部とを有する。
本発明の1実施態様によれば、育成のサポートを行うことができる。
図1は、実施形態にかかる玩具を含むシステムの一例を示すブロック図である。 図2は、実施形態にかかる玩具の外観を説明する説明図である。 図3は、実施形態にかかる玩具の外観を説明する説明図である。 図4は、実施形態にかかる玩具の動作モードの切り替え例を示すフローチャートである。 図5は、実施形態にかかる玩具の動作制御を例示するフローチャートである。
以下、図面を参照して、実施形態にかかる玩具を説明する。実施形態において同一の機能を有する構成には同一の符号を付し、重複する説明は省略する。なお、以下の実施形態で説明する玩具は、一例を示すに過ぎず、実施形態を限定するものではない。また、以下の各実施形態は、矛盾しない範囲内で適宜組みあわせてもよい。また、本実施形態では赤ちゃんを育成の対象とする玩具を例示するが、育成の対象は、赤ちゃんだけでなく、愛玩動物などであってもよい。
図1は、実施形態にかかる玩具1を含むシステムの一例を示すブロック図である。図1に示すシステムは、インターネット等のネットワークNを介して互いに通信可能に接続された玩具1と、サーバ装置2と端末装置3とを有する。
玩具1は、発光、釣り飾りや人形等の回転、メロディーを奏でるなどの動作により、対象とする赤ちゃんをあやすメリーなどと呼ばれる玩具である。玩具1は、例えば寝そべる赤ちゃんの上方に設置される吊り下げ型であり、釣り飾りの回転および発光やメロディーにより赤ちゃんをあやす。なお、本実施形態では赤ちゃんの上に吊り下げて使用する玩具1を例示するが、赤ちゃんの隣に置いて使用するものであってもよく、使用形態については特に限定しない。
サーバ装置2は、例えばPC(Personal Computer)等の情報処理装置であり、ネットワークNを介して接続する玩具1または端末装置3に対して各種サービスを提供する。具体的には、サーバ装置2は、音楽、映像、発光、回転などの玩具1の動作にかかる動作情報21を玩具1に対して配信する。動作情報21は、音楽、映像、発光、回転パターンなどの玩具1の動作内容(コンテンツ)を記述したデータファイルであり、例えばクリスマスシーズン等の季節に合わせたコンテンツが記述されている。玩具1は、サーバ装置2から配信された動作情報21を記憶部17に動作情報172として格納し、この動作情報172をもとに動作することで、例えば季節に合わせた動作を行うことができる。
また、サーバ装置2は、玩具1よりアップロードされた画像情報22を端末装置3に対して配信する画像配信サービスを提供する。画像情報22は、対象とする赤ちゃんを撮像して、記憶部17に格納された画像情報174が玩具1によりサーバ装置2にアップロードされたデータである。
端末装置3は、サーバ装置2が提供する画像配信サービスを利用する端末であり、例えばPC、スマートフォン、タブレット端末などの情報処理装置である。端末装置3は、ネットワークNを介してサーバ装置2へアクセスすることで、玩具1がアップデータした画像情報22をダウンロードし、ディスプレイに表示する。これにより、端末装置3のユーザは、玩具1が撮像した赤ちゃんの画像を確認できる。
玩具1は、操作部10、音声出力部11、発光部12、駆動部13、回転体13a、通信部14、制御部15、センサ部16、記憶部17および表示部18を有する。
操作部10は、ユーザからの各種操作(例えば動作のON/OFF、各種設定操作など)を受け付ける操作ボタンなどである。音声出力部11は、音声合成回路およびスピーカなどであり、制御部15の制御のもとで音楽などの音声を発音する。
発光部12は、LED(Light Emitting Diode)などであり、制御部15の制御のもとでの発光を行う。駆動部13は、制御部15の制御のもとで駆動するモータ等である。回転体13aは、駆動部13の駆動力により回転する人形や釣り飾りなどであり、例えば赤ちゃんをあやすための回転動作を行う。通信部14は、制御部15の制御のもとネットワークNを介したデータ通信を行う通信インターフェースである。
制御部15は、CPU(Central Processing Unit)やMPU(Micro-Processing Unit)等によって、内部の記憶装置に記憶されているプログラムがRAMを作業領域として実行されることにより実現される。また、制御部15は、例えば、ASICやFPGA等の集積回路により実現されるようにしてもよい。制御部15は、プログラムが実行されることにより、対象検知部151、人検知部152、動作モード切替部153、動作制御部154および送受信部155としての機能を有する(詳細は後述する)。
センサ部16は、玩具1の周囲の状態を検知し、検知したセンサ情報を制御部15へ出力するセンサであり、例えば第1カメラ161および第2カメラ162を有する。第1カメラ161は、床に寝そべる赤ちゃんを撮像の対象とするデジタルカメラである。例えば、第1カメラ161は、吊り下げられた玩具1の底面側から床方向(鉛直下向き)の撮像を行い、床に寝そべる赤ちゃんを撮像して赤ちゃんの検知を行う。第2カメラ162は、玩具1の周囲を撮像するデジタルカメラである。例えば、第2カメラ162は、玩具1の側面から周囲を撮像し、周囲を撮像した画像から玩具1の周囲にいる人を検知するためのセンサとして機能する。
記憶部17は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、ハードディスクや光ディスク等の記憶装置によって実現される。記憶部17は、設定情報171、動作情報172、学習情報173および画像情報174を記憶する。また、記憶部17は、制御部15での処理にかかるプログラムなどを記憶する。
設定情報171は、玩具1における各種設定であり、例えば玩具1の動作にかかる各動作モード(詳細は後述する)についての設定、ユーザについての設定などが含まれる。設定情報171は、制御部15による設定処理のもとで操作部10より受け付けた設定操作により、例えば各動作モードについての設定等の設定内容が変更される。
動作情報172は、音楽、映像、発光、回転パターンなどの玩具1の動作内容(コンテンツ)を記述したデータファイルであり、動作IDなどで識別される動作ごとに、動作パターンを示す情報が記述されている。例えば、動作情報172には、各動作について、音声出力部11より出力する音声パターン(メロディ内容、音量など)、表示部18で表示する画像データ、発光部12の発光パターン(発光タイミング、発光時間など)、回転体13aの駆動パターン(回転方向、回転量、回転タイミングなど)が記述されている。
学習情報173は、動作情報172をもとにした玩具1の各動作についての学習結果である。具体的には、学習情報173は、動作IDなどで識別される各動作に対し、第1カメラ161で撮像された赤ちゃんの状態(反応)をもとに赤ちゃんの好みの動作を評価した情報が記述される。例えば、学習情報173には、動作情報172をもとにした玩具1の動作ごとに、第1カメラ161で撮像された画像より検知した赤ちゃんの状態(「泣き」、「笑い」、「眠り」、「変わりなし」など)に対応する評価点が記述される。
表示部18は、制御部15の制御のもとに画像(映像)などの表示を行う表示装置であり、例えば第1プロジェクタ181および第2プロジェクタ182を有する。第1プロジェクタ181は、床に寝そべる赤ちゃんに対して画像を表示する液晶プロジェクタである。例えば、第1プロジェクタ181は、玩具1の底面に画像を投影し、床に寝そべる赤ちゃんに対する画像の表示を行う。第2プロジェクタ182は、玩具1の周囲にいる人に対して画像を表示する液晶プロジェクタである。例えば、第2プロジェクタ182は、玩具1の外周面(側面)に画像を投影し、周囲にいる人に対する画像の表示を行う。
図2、図3は、実施形態にかかる玩具1の外観を説明する説明図である。図2に示すように、玩具1は、回転体13aを有する筐体100が第1プロジェクタ181および第2プロジェクタ182の設けられた釣り具101より吊り下げられ、赤ちゃんBの上方に設置される。
図3に示すように、筐体100は、上部筐体110、下部筐体111および底板112を有する。上部筐体110は、お椀を逆さにしたドーム形状である。上部筐体110は、釣り具101よりドームの頂点部分で吊り下げられ、ドームの下部分で下部筐体111と接続する。上部筐体110の側壁には、第2プロジェクタ182からの画像が投影領域122に投影される。また、底板112には、第1プロジェクタ181からの画像が投影領域121に投影される。
下部筐体111には、赤ちゃんBのいる下向きに第1カメラ161が設けられ、横向きに第2カメラ162が設けられている。これにより、第1カメラ161は、床に寝そべる赤ちゃんBを撮像できる。また、第2カメラ162は、床に寝そべる赤ちゃんB以外の玩具1の周囲を撮像できる。
また、下部筐体111と底板112との間には、円環状の間隙113が設けられている。この間隙113からは、筐体100内部の駆動部13に接続された回転体13aが吊り下げられている。回転体13aは、駆動部13による動力により、円環状の間隙113に沿った回転移動や、上下方向の移動を行う。また、回転体13aの先端部分には、発光部12が設けられており、回転体13aの移動にともなって発光部12も移動する。
図1に戻り、対象検知部151は、センサ部16が検知したセンサ情報をもとに、対象である赤ちゃんBの検知を行う。具体的には、対象検知部151は、第1カメラ161により撮像された画像から公知の人物認証技術により赤ちゃんBの映り込みを検知することで、赤ちゃんBの有無を検知する。また、対象検知部151は、撮像された画像に含まれる赤ちゃんBの顔領域を抽出し、抽出した顔領域に含まれる部位(目、口、鼻等)の位置や形状をもとにした公知の表情判定技術を用いて「泣き」、「笑い」、「眠り」、「平常」などの赤ちゃんBの状態を検知してもよい。なお、対象である赤ちゃんBの検知は、第1カメラ161により撮像された画像を用いるものに限定するものではなく、赤外線センサを用いた温度分布をもとに検知してもよく、特に限定しない。
人検知部152は、センサ部16が検知したセンサ情報をもとに、玩具1の周囲における人(対象である赤ちゃんB以外)の検知を行う。具体的には、人検知部152は、第2カメラ162により撮像された玩具1の周囲の画像から公知の人物認証技術により人の映り込みを検知することで、人の有無を検知する。なお、玩具1の周囲における人の検知は、第2カメラ162により撮像された画像を用いるものに限定するものではなく、赤外線センサを用いた温度分布をもとに検知してもよく、特に限定しない。
また、人検知部152は、撮像された画像に含まれる人の顔領域を抽出し、抽出した顔領域と予め登録されている顔画像とを比較する公知の顔認証技術を用いて、予め登録された人物の検知を行ってもよい。具体的には、設定情報171におけるユーザの設定として顔画像を登録しておき、人検知部152は、設定情報171に登録された顔画像による顔認証を行い、予め登録されたユーザの検知を行ってもよい。これにより、例えば、赤ちゃんBの保護者をユーザとして登録しておくことで、保護者の検知を行うことができる。
動作モード切替部153は、玩具1の動作にかかる動作モードの切り替えを行う。例えば、動作モード切替部153は、対象検知部151による赤ちゃんBの検知に応じて赤ちゃんBをあやす動作を行う「あやす動作モード」とする。また、動作モード切替部153は、対象検知部151による赤ちゃんBの検知がない間は動作を休止する「休止モード」とする。また、動作モード切替部153は、玩具1の周囲における人(対象である赤ちゃんB以外)の検知に応じて赤ちゃんBをあやす動作を抑制または停止する「サポートモード」とする。
図4は、実施形態にかかる玩具1の動作モードの切り替え例を示すフローチャートである。図4に示すように、制御部15は、センサ部16よりセンサ情報を取得する(S1)。このセンサ情報をもとに、対象検知部151による対象(赤ちゃんB)の検知および人検知部152による玩具1の周囲における人(対象以外)の検知が行われる。
次いで、動作モード切替部153は、対象検知部151による検知結果をもとに、対象(赤ちゃんB)の検知の有無を判定する(S2)。赤ちゃんBの検知がない場合(S2:NO)、動作モード切替部153は、動作モードを「休止モード」とし(S3)、処理を戻す。
赤ちゃんBの検知がある場合(S2:YES)、動作モード切替部153は、動作モードを「あやす動作モード」とする(S4)。次いで、動作モード切替部153は、人検知部152による検知結果をもとに、玩具1の周囲における人(対象以外)の検知の有無を判定する(S5)。
玩具1の周囲における人の検知がない場合(S5:NO)、動作モード切替部153は、動作モードを「あやす動作モード」のままとして処理を戻す。玩具1の周囲における人の検知がある場合(S5:YES)、動作モード切替部153は、動作モードを「サポートモード」とし(S6)、処理を戻す。動作モード切替部153は、上述したS1〜S6の処理を所定の時間間隔で間欠的に繰り返すことで、動作モードの切り替えを行う。
動作制御部154は、動作モード切替部153による動作モードをもとに、玩具1における各部の動作を制御する。図5は、実施形態にかかる玩具1の動作制御を例示するフローチャートである。
図5に示すように、処理が開始されると、動作制御部154は、記憶部17より設定情報171、動作情報172および学習情報173を取得する(S10)。次いで、動作制御部154は、動作モード切替部153による動作モードを判定する(S11)。
S11において、動作モード切替部153による動作モードが「あやす動作モード」である場合、動作制御部154は、動作情報172における各動作の中から学習情報173をもとに玩具1の動作を決定する(S12)。具体的には、動作制御部154は、動作情報172の各動作の中から学習情報173における評価点の高い動作を1つ抽出し、玩具1の動作とする。これにより、玩具1の動作は、赤ちゃんBの好みの動作として事前に学習されている動作となる。
次いで、動作制御部154は、S12で決定した動作についての動作情報172をもとに、音声出力部11、発光部12、駆動部13および表示部18の各部の動作を制御する(S13)。次いで、動作制御部154は、第1カメラ161により対象(赤ちゃんB)を撮影(録画)し(S14)、撮影した画像データを画像情報174として記憶部17に保存する。この時、動作制御部154は、撮影した画像データについての情報として、例えば「あやす動作モード」での録画であることを示すフラグや撮影日時などの情報を付して画像情報174に保存する。
S11において、動作モード切替部153による動作モードが「サポートモード」である場合、S12と同様、動作制御部154は、動作情報172における各動作の中から学習情報173をもとに玩具1の動作を決定する(S15)。これにより、玩具1の動作は、赤ちゃんBの好みの動作として事前に学習されている動作となる。
次いで、動作制御部154は、音声出力部11、発光部12、駆動部13および表示部18の各部の動作について、設定情報171をもとに抑制または停止する動作を決定する(S16)。
ここで、設定情報171には、「サポートモード」において抑制または停止する各部の動作が事前に設定されている。具体的には、設定情報171には、「サポートモード」である場合に回転体13aの回転を抑制(回転量、回転スピードの低減)または停止する設定が記述されている。また、設定情報171には、「サポートモード」である場合に音声出力部11から出力される音の抑制(音量の低減)または停止する設定が記述されている。また、設定情報171には、「サポートモード」である場合に発光部12による発光を抑制(発光量の低減)または消灯する設定が記述されている。また、設定情報171には、「サポートモード」である場合に表示部18における表示を停止する設定が記述されている。S16では、この設定情報171の設定内容をもとに、音声出力部11、発光部12、駆動部13および表示部18の各部の動作における抑制または停止が決定される。
次いで、動作制御部154は、S15で決定した動作についての動作情報172をもとに、音声出力部11、発光部12、駆動部13および表示部18の各部の動作を制御する(S17)。このとき、動作制御部154は、S16において抑制または停止が決定された動作については、抑制または停止の決定に従ったものとする。
例えば、S16において音声および発光については低減が決定され、回転および表示については停止が決定されている場合、動作制御部154は、動作情報172をもとにした音声出力部11および発光部12の動作を決定に従って抑えたものとする。また、動作制御部154は、動作情報172をもとにした駆動部13および表示部18の動作を決定に従って停止する。これにより、玩具1の周囲に人がいる場合の「サポートモード」においては、玩具1における各部の動作が抑制または停止されることとなる。
次いで、動作制御部154は、記憶部17の画像情報174を参照し、「あやす動作モード」時に撮影した画像情報の有無を判定する(S18)。具体的には、動作制御部154は、「あやす動作モード」での録画であることを示すフラグが画像情報174に含まれるか否かをもとに、「あやす動作モード」時に撮影した画像情報の有無を判定する。「あやす動作モード」時に撮影した画像情報がない場合(S18:NO)、動作制御部154は、S21へ処理を進める。
「あやす動作モード」時に撮影した画像情報がある場合(S18:YES)、動作制御部154は、画像情報174より「あやす動作モード」時に撮影した画像を読み出し、読み出した画像を第2プロジェクタ182より投影させる(S19)。これにより、玩具1の周囲に人がいる場合の「サポートモード」においては、「あやす動作モード」時に撮影した画像が投影領域122に投影されることとなる。
S11において、動作モード切替部153による動作モードが「休止モード」である場合、動作制御部154は、音声出力部11、発光部12、駆動部13および表示部18の各部の動作を休止し(S20)、処理を戻す。
「あやす動作モード」または「サポートモード」である場合の続きの処理において、動作制御部154は、対象検知部151における赤ちゃんBの状態についての検知結果をもとに、赤ちゃんBの表情判定を行う(S21)。
S21において赤ちゃんBの表情が「泣き」である場合、動作制御部154は、S13またはS16における現在の動作を対象(赤ちゃんB)が好まない動作として学習情報173を更新する(S22)。具体的には、動作制御部154は、現在の動作にかかる学習情報173について、「泣き」に対応するマイナスの評価点を加えてデータを更新する。次いで、動作制御部154は、動作情報172の各動作の中から現在の動作とは別の動作への切り替えを行い(S23)、処理を戻す。
S21において赤ちゃんBの表情が「笑い」である場合、動作制御部154は、S13またはS16における現在の動作を対象(赤ちゃんB)が好む動作として学習情報173を更新する(S24)。具体的には、動作制御部154は、現在の動作にかかる学習情報173について、「笑い」に対応するプラスの評価点を加えてデータを更新する。次いで、動作制御部154は、第1カメラ161により対象(赤ちゃんB)を撮影し(S25)、撮影した画像データを画像情報174として記憶部17に保存して処理を戻す。この時、動作制御部154は、撮影した画像データについての情報として、例えば表情が「笑い」での録画であることを示すフラグや撮影日時などの情報を付して画像情報174に保存する。
S21において赤ちゃんBの表情が「眠り」である場合、動作制御部154は、S13またはS16における現在の動作を対象(赤ちゃんB)が落ち着く動作として学習情報173を更新する(S26)。具体的には、動作制御部154は、現在の動作にかかる学習情報173について、「眠り」に対応するプラスの評価点を加えてデータを更新する。次いで、動作制御部154は、動作モードを「休止モード」として各部の動作を休止し(S27)、処理を戻す。
動作制御部154は、上述したS10〜S27の処理を所定の時間間隔で間欠的に繰り返すことで、動作モード切替部153による動作モードをもとに、玩具1における各部の動作を制御する。
図1に戻り、送受信部155は、通信部14を介したサーバ装置2との間のデータの送受信を行う。具体的には、送受信部155は、サーバ装置2より動作情報21をダウンロードして動作情報172の更新を行う。これにより、玩具1は、サーバ装置2が例えばクリスマスシーズン等の季節に合わせて配信する動作内容での動作とすることができる。
また、送受信部155は、記憶部17より画像情報174を読み出してサーバ装置2へのアップロードを行う。これにより、玩具1は、第1カメラ161により撮像した赤ちゃんBの画像を、サーバ装置2を介して端末装置3などに配信できる。玩具1は、第1カメラ161により撮像した赤ちゃんBの画像を、サーバ装置2を介して予め登録された端末装置3に自動的に配信してもよい。
以上のように、玩具1は、玩具1の周囲にいる人を検知するセンサ部16を有する。また、玩具1は、センサ部16のセンサ情報により人の検知がなされると、対象である赤ちゃんBをあやす動作を抑制する「サポートモード」に動作モードを変更する動作モード切替部153を有する。これにより、玩具1は、玩具1の周囲において保護者が赤ちゃんBをあやして育児(育成)を行っている際に動作を抑制することから、動作が邪魔となることがなく、育児のサポートを円滑に行うことができる。
なお、本実施形態は、玩具1を用いたシステム構成を例示したが、このシステム構成に限定しない。例えば、サーバ装置2による動作情報172の更新や画像情報174の端末装置3への配信を行わないものとする場合には、玩具1単体とする構成であってもよい。また、玩具1の制御部15については、BTLE(Bluetooth(登録商標) Low Energy)等の通信規格による無線通信で接続するスマートフォンなどの外部機器(コンピュータ)で実現してもよい。具体的には、外部機器において、対象検知部151、人検知部152、動作モード切替部153、動作制御部154および送受信部155と同等の機能を有するアプリケーションプログラムを動作させることで実現できる。
なお、玩具1や上記の外部機器で実行されるプログラムは、インターネットなどの通信ネットワークを介してコンピュータに配布することができる。また、プログラムは、コンピュータに設けられたメモリ、ハードディスク、その他のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。
1…玩具
2…サーバ装置
3…端末装置
10…操作部
11…音声出力部
12…発光部
13…駆動部
13a…回転体
14…通信部
15…制御部
16…センサ部
17…記憶部
18…表示部
21、172…動作情報
22、174…画像情報
100…筐体
121、122…投影領域
151…対象検知部
152…人検知部
153…動作モード切替部
154…動作制御部
155…送受信部
161…第1カメラ
162…第2カメラ
171…設定情報
173…学習情報
181…第1プロジェクタ
182…第2プロジェクタ
N…ネットワーク

Claims (8)

  1. 人感センサと、
    前記人感センサによって人の検知がなされると、対象をあやす動作制御を抑制する抑制モードに動作モードを変更する制御部と
    を有することを特徴とする玩具。
  2. 回転体と、
    発音部とを有し、
    前記抑制モードは、前記回転体の回転を抑制又は停止させ、前記発音部から音楽を出力させる動作モードである
    ことを特徴とする請求項1に記載の玩具。
  3. 回転体と、
    発音部と、
    発光部とを有し、
    前記抑制モードは、前記回転体の回転を抑制または停止させ、前記発音部から出力される音を抑制または停止させ、前記発光部による発光を抑制または消灯させる動作モードである
    ことを特徴とする請求項1に記載の玩具。
  4. 前記対象の状態を検知する対象検知部と、
    前記対象をあやす動作制御に対する前記対象の状態に応じた学習情報を記憶する学習記憶部とを有し、
    前記制御部は、前記学習情報をもとに前記対象をあやす動作制御を行う
    ことを特徴とする請求項1乃至3のいずれか一項に記載の玩具。
  5. 対象を撮像する撮像部と、
    前記撮像部により撮像された画像を記憶する画像記憶部と、
    前記動作モードが前記抑制モードである場合に、前記撮像された画像を表示する表示部と更に有する
    ことを特徴とする請求項1乃至4のいずれか一項に記載の玩具。
  6. 前記撮像された画像を外部機器に送信する送信部を更に有する
    ことを特徴とする請求項1乃至5のいずれか一項に記載の玩具。
  7. 動作情報が記憶されたサーバから動作情報を取得する通信部を有し、
    前記制御部は、取得した前記動作情報に基づいて前記対象をあやす動作を制御することを特徴とする請求項1乃至6のいずれか一項に記載の玩具。
  8. 可動部、発光部または発音部と、
    前記可動部の可動制御、前記発光部の発光制御、前記発音部の発音制御のうちの少なくともいずれかの制御を行う制御部と、
    人感センサとを有し、
    前記制御部は、前記人感センサによって人の検知がなされると、前記可動制御による可動量を抑制するまたは前記発光制御による発光量を抑制するまたは前記発音制御による発音量を抑制する
    ことを特徴とする玩具。
JP2015151127A 2015-07-30 2015-07-30 玩具 Active JP6586810B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015151127A JP6586810B2 (ja) 2015-07-30 2015-07-30 玩具
US15/195,284 US9873060B2 (en) 2015-07-30 2016-06-28 Toy

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015151127A JP6586810B2 (ja) 2015-07-30 2015-07-30 玩具

Publications (2)

Publication Number Publication Date
JP2017029309A true JP2017029309A (ja) 2017-02-09
JP6586810B2 JP6586810B2 (ja) 2019-10-09

Family

ID=57886721

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015151127A Active JP6586810B2 (ja) 2015-07-30 2015-07-30 玩具

Country Status (2)

Country Link
US (1) US9873060B2 (ja)
JP (1) JP6586810B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018150631A1 (ja) 2017-02-20 2018-08-23 日本電気株式会社 判定装置、判定方法及びプログラム
JP2020146340A (ja) * 2019-03-15 2020-09-17 三菱電機株式会社 啼泣抑制装置、啼泣抑制システム、啼泣抑制方法、及び、プログラム
CN112827194A (zh) * 2020-03-18 2021-05-25 株式会社万代 玩具

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10105617B2 (en) * 2016-09-20 2018-10-23 International Business Machines Corporation Cognitive mobile device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003080484A (ja) * 2001-09-07 2003-03-18 Tomy Co Ltd 動作反応玩具
JP2005185630A (ja) * 2003-12-26 2005-07-14 Casio Comput Co Ltd 養育補助装置、感情緩和制御装置及びプログラム
JP2013099800A (ja) * 2011-11-07 2013-05-23 Fujitsu Ltd ロボット、ロボットの制御方法及び制御プログラム
US20150105608A1 (en) * 2013-10-14 2015-04-16 Rest Devices, Inc. Infant Sleeping Aid and Infant-Bed Accessory

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4984380A (en) * 1989-07-17 1991-01-15 Anderson Rodney D Body-motion activated crib mobile
US6238263B1 (en) * 1999-08-19 2001-05-29 Richard Bennett Device for soothing, distracting and stimulating a child
JP2005223623A (ja) 2004-02-05 2005-08-18 Mitsubishi Electric Corp 住宅情報配信システム
JP4595436B2 (ja) * 2004-03-25 2010-12-08 日本電気株式会社 ロボット、その制御方法及び制御用プログラム
US8569715B1 (en) * 2006-03-29 2013-10-29 Jansyl Industries, Llc Infant stimulation and environment sterilizing device
US20080020672A1 (en) * 2006-07-21 2008-01-24 Kathy Osborn Programmable baby mobiles and baby soothing devices
US7762865B2 (en) * 2007-01-23 2010-07-27 Infantino, Llc Crib mobile with animated characters
JP5032363B2 (ja) 2008-02-27 2012-09-26 オリンパスイメージング株式会社 画像表示方法
US20100060448A1 (en) * 2008-09-05 2010-03-11 Larsen Priscilla Baby monitoring apparatus
JP2010157119A (ja) * 2008-12-26 2010-07-15 Fujitsu Ltd 監視装置、監視方法、及び監視プログラム
US8922653B1 (en) * 2011-09-20 2014-12-30 Lawren Reeve Crib mobile and surveillance system
US9554659B2 (en) * 2012-10-22 2017-01-31 Uwm Research Foundation, Inc. Infant sleep pod
US9597805B2 (en) * 2014-03-28 2017-03-21 Nathaniel Bender Care apparatus
US9530080B2 (en) * 2014-04-08 2016-12-27 Joan And Irwin Jacobs Technion-Cornell Institute Systems and methods for configuring baby monitor cameras to provide uniform data sets for analysis and to provide an advantageous view point of babies

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003080484A (ja) * 2001-09-07 2003-03-18 Tomy Co Ltd 動作反応玩具
JP2005185630A (ja) * 2003-12-26 2005-07-14 Casio Comput Co Ltd 養育補助装置、感情緩和制御装置及びプログラム
JP2013099800A (ja) * 2011-11-07 2013-05-23 Fujitsu Ltd ロボット、ロボットの制御方法及び制御プログラム
US20150105608A1 (en) * 2013-10-14 2015-04-16 Rest Devices, Inc. Infant Sleeping Aid and Infant-Bed Accessory

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018150631A1 (ja) 2017-02-20 2018-08-23 日本電気株式会社 判定装置、判定方法及びプログラム
JP2020146340A (ja) * 2019-03-15 2020-09-17 三菱電機株式会社 啼泣抑制装置、啼泣抑制システム、啼泣抑制方法、及び、プログラム
JP7257828B2 (ja) 2019-03-15 2023-04-14 三菱電機株式会社 啼泣抑制装置、啼泣抑制システム、啼泣抑制方法、及び、プログラム
CN112827194A (zh) * 2020-03-18 2021-05-25 株式会社万代 玩具

Also Published As

Publication number Publication date
US9873060B2 (en) 2018-01-23
US20170028309A1 (en) 2017-02-02
JP6586810B2 (ja) 2019-10-09

Similar Documents

Publication Publication Date Title
US20220111300A1 (en) Educational device
TWI692717B (zh) 影像顯示裝置、話題選擇方法及程式
AU2014236686B2 (en) Apparatus and methods for providing a persistent companion device
JP6586810B2 (ja) 玩具
TW201935186A (zh) 機器人輔助互動系統及其方法
CN110196632A (zh) 信息处理装置、信息处理方法以及程序
JP6747423B2 (ja) ロボット、ロボット制御システム、ロボットの制御方法及びプログラム
US11393352B2 (en) Reading and contingent response educational and entertainment method and apparatus
GB2511915A (en) Remote control method and remote control system for infant care apparatus
US20230201517A1 (en) Programmable interactive systems, methods and machine readable programs to affect behavioral patterns
WO2019215983A1 (ja) 情報処理システム、情報処理方法、および記録媒体
JP2018047536A (ja) ロボット、故障診断システム、故障診断方法及びプログラム
US20220410023A1 (en) Information processing device, control method of the same, and program
JP6667878B1 (ja) 着ぐるみ演出支援装置、着ぐるみ演出支援システムおよび着ぐるみ演出支援方法
JP2021074361A (ja) 撮影システム、撮影方法、撮影プログラム、及びぬいぐるみ
JP2020092953A (ja) 着ぐるみ演出支援装置、着ぐるみ演出支援システムおよび着ぐるみ演出支援方法
WO2019190817A1 (en) Method and apparatus for speech interaction with children
WO2023037608A1 (ja) 自律移動体、情報処理方法、及び、プログラム
JP7208361B2 (ja) コミュニケーションロボットおよびその制御方法、情報処理サーバならびに情報処理方法
WO2023037609A1 (ja) 自律移動体、情報処理方法、及び、プログラム
JP2022157238A (ja) システム等
JP2022157245A (ja) システム等
KR20200050441A (ko) 인공지능 기능이 내장된 스마트 캐릭터 장난감

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180413

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190813

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190826

R150 Certificate of patent or registration of utility model

Ref document number: 6586810

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150