JP2010533532A - 対話式玩具 - Google Patents
対話式玩具 Download PDFInfo
- Publication number
- JP2010533532A JP2010533532A JP2010516579A JP2010516579A JP2010533532A JP 2010533532 A JP2010533532 A JP 2010533532A JP 2010516579 A JP2010516579 A JP 2010516579A JP 2010516579 A JP2010516579 A JP 2010516579A JP 2010533532 A JP2010533532 A JP 2010533532A
- Authority
- JP
- Japan
- Prior art keywords
- toy
- theme
- data
- processor
- doll
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H3/00—Dolls
- A63H3/28—Arrangements of sound-producing means in dolls; Means in dolls for producing sounds
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H30/00—Remote-control arrangements specially adapted for toys, e.g. for toy vehicles
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H30/00—Remote-control arrangements specially adapted for toys, e.g. for toy vehicles
- A63H30/02—Electrical arrangements
- A63H30/04—Electrical arrangements using wireless transmission
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H2200/00—Computerized interactive toys, e.g. dolls
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/56—Provisioning of proxy services
- H04L67/566—Grouping or aggregating service requests, e.g. for unified processing
Abstract
【選択図】図3
Description
本発明の第1の態様によれば、玩具のテーマ別データを作成するためのオーサリングツールが提供され、該オーサリングツールは、特定のテーマに関連するコンテンツを受信する手段と、前記コンテンツを処理して前記特定のテーマ内で前記玩具を動作させるための命令セットを生成する手段と、前記命令セットを出力する手段とを含む。玩具を動作させるための命令セットを生成する手段を提供することにより、テーマ別の命令を生成するプロセスが実質的により効率化される。
本発明のさらなる態様によれば、本明細書で説明するような少なくとも1つの玩具とコンピュータの間に無線通信を提供する装置が提供され、該装置は、装置をコンピュータに接続するための通信ポートと、コンピュータと前記又は各玩具との間にネットワークを確立する手段とを含み、コンピュータが別のこのような玩具であるかのように前記又は各玩具と通信できるようにする装置を提供する。
本発明のさらに別の態様によれば、プロセッサと、該プロセッサに結合されたメモリと、前記プロセッサに結合された出力部と、少なくとも1つのさらなるこのような玩具とのネットワーク接続を確立する手段とを含む玩具が提供され、プロセッサは、ネットワーク接続が確立された各玩具の出力を制御する手段を含む。
玩具は、別のこのような玩具と対話するようになっており、前記プロセッサは、前記対話に関連する少なくとも1つの変数を定義する手段と、前記変数をメモリに記憶する手段と、前記変数を使用して前記玩具の(対話型)出力を制御する手段とを含むことが好ましい。
前記プロセッサは、前記メモリにテーマ別データを記憶するようになっており、前記テーマはスクリプトデータ及び表現データを含み、前記表現データが前記玩具の性格を定義することが好ましい。
プロセッサは、対話するための玩具を予め定めたルールに基づいて選択する手段を含むことが好ましい。
玩具は、他の同様の玩具とゲームをプレイすることに適した生きているものの形をとり、前記プロセッサはゲームエンジンを含み、該ゲームエンジンは、前記玩具が生きているかのようにゲームをプレイ可能にするようになっていることが好ましい。
本発明のさらに別の態様によれば、複数の玩具にテーマ別データを提供する装置が提供され、該装置は、各々が複数のサブテーマを含む前記テーマ別データを記憶する手段と、特定の玩具を識別する手段と、特定の玩具に基づいてサブテーマを選択する手段と、前記玩具に対して前記特定のサブテーマを出力する手段とを含む(この結果、テーマ別ダウンロードへのアクセスがより効率的に達成されることが好ましい)。
本発明のさらに別の態様によれば、玩具などの装置のための会話エンジンが提供され、該会話エンジンは、会話のテーマを選択し、複数の起点から起点をランダムに選択し、変数に基づいて語句をランダムに選択し、変数に基づいて次の発話者をランダムに選択する手段を含む。
・子供が玩具と対話式に遊ぶことができる
・オンザフライで構築される会話
・会話を開始する前に会話が前処理される
・会話がネットワーク内に存在する人形に基づく
・会話がネットワーク内に存在する人形の種類に基づく
・会話の長さ及び方向性の制御に使用される重み付け
・会話の半ばでテーマを切り替える能力
・2、3又はそれ以上の玩具
・玩具は生きているもの/人間/人形である
・対話は通信を含み、通信は広い意味で定められる
・オーサリングツール〜玩具が読み込み可能なプログラムコードにコンパイルされる会話データを入力する機能を提供する。
・USB通信ドングル〜玩具とPCとの間の通信を可能にする装置を提供する。
・コントローラ人形〜3以上の人形であり、単一のコントローラとして最初に電源が入った人形を使用して制御が行われる。
・性格の表現〜人形の性格要素に基づいて、同じテーマが異なる表現を有する。
・テーマのスクリプト作成〜テーマは、ダウンロード可能な表現の組合せであり、スクリプト/スクリプト及び表現は、異なるテーマごとに不可欠な/異なるスクリプトである。
・パラメータ記憶〜現在の会話に関する情報を記憶する能力、例えば、「私の犬はFluffyと言います」という語句では、人形がその会話内の情報(ペット=「犬」及びペットの名前=「fluffy」)を後で使用するために記憶する。
・人形固有のダウンロード〜ウェブサイトダウンロードのみが、特定の性格に関する特定の言語を表現として有し、性格に従って表現がダウンロードされる。
・会話の構造〜人形は、関連する発話で応答するか、別の人形を選択して話しかけるか、或いは自分自身について何かを発表するかのいずれかを選択する。
・人形の選択〜コントローラは、次にどの人形が発話するかをランダムに決定し、ランダムに選択するものの、人形は2回続けて発話することができず、或いは特定の人形を名前で選択することもできない。
・ゲームのプレイ〜人形は人間のようにゲームをプレイする。
図3でわかるように、コントローラユニット200がいくつかのスレーブユニット(202)と通信している。コントローラは、会話エンジン204と、発話コンパイラ206と、発話データベース208と、スピーカ(変換器)210と、スレーブユニットからデータを送信及び受信できる送信機/受信機212とを含む。会話エンジンは、ランダム発話セレクタ214と、パラメータ記憶メモリ216と、発話者セレクタ218とを含む。スレーブユニットは、コントローラユニットの全ての構成要素を有しており、図3ではスレーブユニットの構成要素の全てを示しているわけではない。
・人形がオンになったときに、参加する既存のネットワークが存在するかどうかを判定するためのチェックを行う〜これは送/受信機212を使用して遂行される。
・利用可能なネットワークが存在しない場合、この人形がコントローラになって自動的にネットワークを設定する〜必要な場合、無線モジュール104がネットワークを作成するようになっている。
・オンになった個々の後続の人形が、メモリに記憶した人形ID番号及びテーマ/複数のテーマID番号を送信する〜情報は送信機212により送信される。
・コントローラがテーマ/複数のテーマをチェックして、コントローラと同じ参加するテーマ/複数のテーマを有する人形のみを許可する〜コントローラユニットが、送信データとメモリに記憶されたデータとの比較を行う。
・2又はそれ以上の人形がネットワークに参加すると、会話を開始することが可能となる。
・ユーザがボタンを押すことなどにより会話を開始し、コントローラが、他の人形に何を発言すべきかを指示する会話を開始する。
・ユーザは、いつでも再びボタンを押して会話を停止することができる。
玩具は通信プロトコルを使用して通信し、メッセージのフォーマットは以下の通りである。
[MessageID,SendingToy_ID,ReceivingToy_ID,MessageType,Parameters]
[MessageID,SendingToy_ID,ReceivingToy_ID,START]
[MessageID,SendingToy_ID,ReceivingToy_ID,STOP]
[MessageID,SendingToy_ID,ReceivingToy_ID,SAY,PhraseID]
[MessageID,SendingToy_ID,ReceivingToy_ID,Ack,Parameter]
[MessageID,1,2,START][MessageID,2,1,ACK]
[MessageID,1,2,SAY,PhraseID][MessageID,2,1,ACK,DURATION]
[MessageID,1,2,STOP][MessageID,2,1,ACK]
会話エンジンは、会話をオンザフライで構築する。或いは、会話を開始する前に会話全体を構築してその後メモリに記憶し、その後事実上終了まで会話が実行される。しかしながら、いずれにしても、構築される会話は特定のランダム選択に基づくことになる。
・変数の定義及び変数設定
・コンテキスト参照及びスイッチング
・条件付きフロー制御
・無条件フロー制御
・発話語句
SELECT NEXT〜次の発話するユニットを選択する。この命令文には数多くの変形が存在し、これについて以下でさらに詳細に説明する。
SWITCH〜次のユニットに切り替える。
switch speaker〜発話者ポインタを別の発話者に移動させる。
switch finish〜この命令文を使用して会話を終える。
SAY〜ユニットに何かを発言するように指示する。
SET〜この命令文を使用して、「SET pet([1,dog])などの変数を設定する。SET文を使用して現在の発話者の変数を設定し、或いはこれを使用してグローバル変数を設定することができる。
TEST〜この命令文を使用して、例えば変数が設定されたかどうか、又は分岐が使用されたかどうかをテストする。TESTが真の場合、フラグが設定される。TEST命令文には2つの形がある。
TEST EQ〜この命令文は、2つの表現が等しいかどうかをテストして等しければ肯定的なフラグを作成し、例えば「TEST EQ&ME.PET&UNDEF」は、現在の発話者のペットの変数が未定義かどうかをテストして未定義であれば肯定的なフラグを作成する。
TEST NE〜この命令文は、2つの表現が等しいかどうかをテストして等しくなければ肯定的なフラグを作成する。
BRANCH〜この命令文を使用して別の会話のセクションに分岐する。例えば、「BRANCH gorillas:」は、「Gorillas」のラベルを付けられたテーマのセクションである、「Zoo(動物園)」というテーマのゴリラセクションに分岐する。この命令文は無条件文であり、プログラムが分岐文に至ったときには常に使用される。
BRANCH_F〜TESTからのフラグに基づいて条件付きで分岐する。従って、TEST文から作成されたフラグが肯定的であるときにのみ、分岐文が使用される。
CHOOSE〜この命令文により、コントローラが進む先のラベルをランダムに選択できるようになる。この命令文は、重み付けを使用してラベルへ進む確率を制御できるという点でSET文と類似している。
CHOOSE_F〜TESTからのフラグに基づいて条件付きで選択を行う。
・ローカル変数〜これらは、個々の玩具/人形に関連する変数である。ローカル変数は、個々の人形のデータセット内で作成される。人形変数は、DEFINE VARIABLE_NAME文により作成される。
・グローバル変数〜これらは、「テーマ」に関連する変数であり、個々の人形とは関連性がない。グローバル変数は、DEFINE G_VARIABLE_NAME文により作成される。
会話中、定義された変数に値を設定することが必要となる。これはSET文で遂行される。以下のように、SET文は、値のセットからランダムに取り出した値で変数を設定できるようにするランダム特徴で構成される。
SET VARIABLE_NAME([w1,value1],[w2,value2],..........,[wn,valuen])
SET COLOUR([1,red],[1,blue],[1,green])
という命令文の場合、変数COLOURを等しい確率で赤色、青色又は緑色に設定することになる。人形の変数は、現在の人形との関連において設定される。
ポインタを使用して発話者に関する情報を記憶するとともに、コントローラ人形が他の人形を参照できるようにする。会話を構築する場合、これらを使用して理にかなった会話を作成し、以下が使用するポインタである。
前の発話者(PREV)=前の発話者のID番号
現在の発話者(ME)=現在の玩具のID番号
次の発話者(NEXT)=選択された次の発話者のID番号
・SELECT NOTME〜これは、ランダムに選択された人形のグループの現在の人形以外のいずれかとなるように次の発話者を選択する。
・SELECT NEXT〜これは、ランダムに選択された人形のグループのいずれかとなるように次の発話者を選択する。
・SELECT PREV〜これは、前の発話者と同じになるように次の発話者を選択する。
・SELECT NAME〜これは、名前NAMEを有する人形を次の発話者となるように選択する。このSELECTコマンドの変形は、台本通りの会話のためのものである。
・SWITCH SPEAKER label〜これは、発話者のコンテキスト及び分岐をラベルが指定する命令に切り替える。コンテキストを切り替えると、前の発話者(PREV)は現在の発話者(ME)に等しくなり、現在の発話者(ME)は次の発話者(NEXT)に等しくなり、次の発話者(NEXT)は未定義となる。
・SWITCH FINISH〜これは、会話を終了するために使用するコマンドである。
時として、会話中、フローが様々な変数の値に左右される。これは、以下のコマンドで遂行される。
・TEST EQ value1 value2〜これは、value1がvalue2に等しい場合にcondition_flagを設定する。
・TEST NE value1 value2−これは、value1がvalue2に等しくない場合にconditionflagを設定する。
・&CONTEXT.VARIABLE_NAME参照を使用することにより、value1及び/又はvalue2によって変数を参照することができる。例えば、TEST EQ&ME.NAME&PREV.NAMEという命令は、現在の発話者(ME)の名前が前の発話者(PREV)の名前と同じ場合にcondition_flagを設定する。
・BRANCH_F label〜これは、condition_flagが設定されている場合にはラベルが指定する命令に分岐し、そうでない場合には次の命令を使用する。
・CHOOSE_F([w1,label1],[w2,label2],.........,[wn,labeln])〜これは、condition_flagが設定されている場合には重み付けw1,w2,...,wnを使用してランダム選択に基づいてlabel1,label2,...labelnが指定する命令に分岐し、そうでない場合には次の命令を使用する。
時として、命令のフローを無条件で変更できることが必要となる。この場合、TEST文は使用されずにBRANCH又はCHOOSE文が常に実行される。これは、以下の命令文を使用して遂行される。
・BRANCH label〜これは、ラベルが指定する命令に無条件で分岐する。
・CHOOSE([w1,label1][w2,label2][wn,labeln])〜これは、重み付けw1,w2,...,wnを使用してランダム選択に基づいてlabel1、label2、...、labelnが指定する命令に分岐する。
会話エンジンの重要な部分は語句の発話である。これは、以下の命令文で遂行される。
SAY(phrase1,phrase2,...,phrasen)コマンド。
このコマンドは、現在の発話者(ME)である人形に語句phrase1,phrase2,...,phrasenを発声させる。
以下は短いスクリプトの例である。
DEFINE COLOUR
DEFINE GARMENT
Loop:
SET COLOUR([1,red],[1,blue],[1,green])
SET GARMENT([1,dress],[1,blouse],[1,hat])
SAY(hello my name is, &ME.NAME, and I have a, &ME.COLOUR, &ME.GARMENT)
SELECT NOTME
SWITCH SPEAKER Loop
図3に示すように、会話エンジンは発話者セレクタ218を有する。発話者セレクタは、次の発話する玩具を選択する。次の発話する玩具を選択するには、ネットワーク内の玩具のいずれかをランダムに選択する、玩具を名前(ID番号)で選択する、及び現在の発話者を選択してもう一度発話させるという3つの可能性がある。従って、次の発話者を選択する第1のプロセスは、上記の3つの可能性のいずれを使用すべきかをランダムに選択することである。次の発話者を名前で選択する場合、その玩具がネットワーク内に存在するかどうかを判定するためのチェックを行う必要がある。
パラメータ記憶メモリ216は、現在の会話に関する情報を記憶する。記憶された情報は、すでに使用された語句、使用された変数、フロー制御変数、及びネットワーク内に存在する人形などのその他のこのような情報を含む。情報は、コントローラ人形内にのみ記憶される。スレーブユニットは、次の発言事項に関する情報のみを受信する。
「私の犬はFluffyという」という語句から記憶される情報は、犬及びFluffyという情報である。この変数を使用して、人形が飼っているペットの種類を設定することができる。人形が特定の変数のサブセットのみを有することができるように変数を設定することができる。例えば、女の子の人形がヘビをペットとして有することはあり得ない。
図4は、人形がメモリに記憶されたテーマを変更又は更新できるプロセスの概略図である。人形300は、人形の識別に使用されるID番号302を含む。人形は、USB接続を介してPC304に接続され、PCは、標準的な接続方式を介してインターネット306に接続されている。インターネットは、ダウンロード可能なテーマ310を含むウェブサイト308にPCを接続することができる。テーマは、接続された人形によって変わるという理由で、ユーザが選択できないサブテーマ312を含む。例えば、人形のID番号を使用して識別されたジャックという人形にはジルのサブテーマは提示されない。テーマは、全ての性格型に対して一般的なものである。サブテーマは、テーマの表現が異なるとともに人形の性格型に依存する点を除き、メインテーマと同一である。従って、オーディオファイルは、異なる声、(同じ意味の)異なる言い回しなど、サブテーマごとに異なる。
前述したように、個々の異なるテーマは、異なる性格を表現できるようにする様々なサブテーマを有する。テーマごとのスクリプトは異なるものであり、これを使用してこのテーマに従う様々な会話を生成する。しかしながら、全てのテーマ内の個々のサブテーマは、会話を生成するための同じスクリプトを有するが、サブテーマ内で使用される言語は異なる。これにより、同じテーマに関して複数の性格を利用できるようにすることができる。
オーサリングツールとは、複数の人形に対して様々な会話テーマを作成するために使用できるアプリケーションのことである。上述したような会話は、会話が従うことができる可能性のある分岐が多数であるため、作成にかなりの量の時間が必要とされる。従って、プロセスをより効率化するために、オーサリングツールを提供してこのプロセスを支援する。クライアントアプリケーションは、図10に示すようなPC1000又はラップトップ1002などのパーソナルコンピュータなどで実行されるが、複数のユーザが同じテーマに取り組めるように、或いは単一のユーザが異なる場所から同じテーマに取り組めるように、データはサーバ1004上に記憶される。サーバ上では、データベースをクライアントアプリケーションとインターフェイス接続するためのウェブサービスが行われる。クライアントアプリケーションは、インターネット306を介してサーバ1004と通信する。クライアントアプリケーションはウェブサービス、ひいてはデータベースへの要求をXMLを使用してフォーマット化し、SOAPプロトコルを使用してデータを送信する。
図11は、オーサリングツールの概要を示す図である。テーマ開発者が玩具のために単純かつ効率的にテーマを出力できるようにするためにユーザインターフェイス1100が設けられる。設けられたユーザインターフェイスを使用して、開発者は以下のステップに従う。
1. テーマ生成エンジン1102を使用してテーマを作成
2. 玩具生成エンジン1104を使用してこのテーマに合わせた玩具を作成
3. コンテキスト入力ウィンドウ1106を使用して個々の玩具ごとに複数のコンテキストを作成
4. コード生成エンジン1108を使用して命令(「C」コード)を出力
5. 辞書生成エンジン1110を使用して個々の人形ごとに記録すべき語句の「辞書」を出力
6. 必要であれば、PCでテーマをテストする際に使用するシミュレーションエンジン1111を使用してシミュレーションとしてテーマを出力
1)これを使用して、テーマ生成エンジン1102を使用して複数の人形のためのテーマ別会話を作成及び編集することができる。
2)これを使用して、シミュレーションエンジン1111を使用して会話プロセスをシミュレートし、結果として得られるテーマ別会話のテキスト出力を作成することができる。
3)これを使用して、辞書生成エンジン1110を使用して個々の人形に関する記録すべき全ての語句のリストをまとめることができる。
4)これを使用して、コード生成エンジン1108を用いて「C」コード出力(命令セット)を作成することができ、その後これをコンパイルして修正済みプロセッサファームウェアとリンクさせ、ダウンロードの準備が整っている個々の人形のためにバイナリデータファイルを作成することができる。
オーサリングツールのアプリケーションユーザインターフェイスを図12a〜図15に示す。個々のインターフェイスのウィンドウは、入力ウィンドウとインターフェイス接続するか、或いは次のインターフェイスウィンドウへ進むかのいずれかを行うための数多くのナビゲーションボタンを有する。ユーザインターフェイスは、プロセッサ1150及び関連メモリ1152を利用してテーマ開発者にユーザインターフェイスの様々な態様を表示し、受信機1153を利用してユーザが入力したコンテンツを受信する。プロセッサ1150及びメモリ1152は、PC1000又はラップトップ1002内に位置する。本明細書で使用する場合、用語コンテンツは、スクリプトデータ、表現データ、テーマデータ、人形データ及びユーザがオーサリングツールに入力できる他のあらゆるデータ型を意味する。
テーマの追加(1100):これは新しいテーマを作成するために使用され、通常は使用される最初の選択肢である。図12b及び12cに示すように、以下の入力を必要とするテーマフォームを立ち上げる。
名前:テーマの名前。これは、spoken_text_stringのためのプレースホルダである。
人形の数:このテーマ内でサポートされる人形の総数
説明:テーマの説明
テーマ属性:位置などの、テーマのグローバル属性
人形属性:気分などの、人形のローカル属性
編集(1202):これは既存のテーマを編集するために使用される。例えば、テーマAlon#1(1206)を選択して編集を押すことにより、ユーザがAlon#1のテーマの詳細を編集できるようになる。
除去(1204):これは選択したテーマを削除するために使用される。
・Position(1500)〜図14に示すコンテキスト定義ウィンドウ内で新しいコンテキストが作成される際にオーサリングツールにより自動的に作成されるこの位置を表記するテキスト文字列。これは個々のコンテキスト行にとって便利なラベルである。これはいずれのテキストであってもよいが、デフォルトはコンテキスト行に100から始めて順に番号を付ける。テキストラベルの使用目的は、会話を作成及び編集している間に明暸さを助長することである。「C」コードの出力が必要な場合、全ての位置ラベルが、コンテキスト位置に対応するyoume_conversation_struct_t構造(この及び本明細書で説明するその他の構造に利用されるCコード命名規則)の配列の形のインデックスに変換される。
・Statement(1502)〜人形が発言できる文のリストであり、ランダム選択プロセスで使用する重み付けを伴う。文は、spoken_text_stringsである語句のリストを含む。これは、会話内のこのコンテキストポイントにおいて特定の人形が発言できる文のリストである。個々の文は角括弧で囲まれ、個々の文をコンマで分離し(例えば[statement1],[statement2],[statement3])、又は図15に示すようにコンテキスト入力ウィンドウの別々の行に入力することができる。文は、ランダム選択用の重み付け及び語句のリストから成る。この場合の重み付けは、SET制御、BRANCH制御又はCHOOSE制御などの条件付きフロー制御を参照しながら上述したような重み付けと同様の態様で機能する。個々の語句は、明示的なspoken_text_string、又はテーマ属性又は人形属性への参照のいずれかであり、例えば、文はテーマの位置又は人形の気分を参照することができる。明示的spoken_text_stringsは、(「こんにちは、お元気ですか」などの)2重引用符内のテキストとして定義される。参照は以下の形を取る
○ theme.attribute テーマ/グローバル属性に関する
○ me.attribute 現在の発話者人形属性に関する
○ prev.attribute 前の発話者人形属性に関する
○ next.attribute 次の発話者人形属性に関する
○ name.attribute 名前の付いた人形/ローカル属性に関する
以下は、Statementsフィールドへの有効な入力例である。
○ ブランク〜これは、この時点でこの人形による発言が存在しないことを意味する。
○ [1,“hello how are you”]〜この時点で「今日は、お元気ですか」と特定された1つの文のみがこの人形により話される。
○ [1,“hello”,prev.name、how are you]〜この時点で「今日は」の次に前の発話者名、その後「お元気ですか」がこの人形により話される。
○ [1,“hello”][1,“hi”]〜等しい重み付けの2つの文。default_say_procedureが使用された場合、この時点で50%の時間は「今日は」がこの人形により発言され、残りの50%の時間は「やあ」が発言される。
○ [3,“hello”][1,“howdy”]−等しくない重み付けの2つの文。default_say_procedureが使用された場合、この時点で75%の時間は「今日は」がこの人形により発言され、残りの25%の時間は「よう」が発言される。
・Say(1504)〜発言するために使用される手順。ブランクにした場合、default_say_procedureが使用される。default_say_procedureは、重み付けを使用して利用可能な文の1つをランダムに選択する。或いは、ドロップダウンリストを使用して、異なる言動を提供するあらゆる利用可能な用意されたsay手順を選択することができる。ドロップダウンリスト内に上述したようなsay手順を提供することができる。最終的に、特別な動作が必要な場合、必要なsay手順の「C」コードをここに入力することができる。
・Transition(1506)〜次の人形を選択するために使用される手順。NOTME、ANY、ME、PREV、FINISHを含む上述の手順のいずれであってもよく、或いは人形の名前の1つ又は何らかの「C」コードをここに入力することができる。ブランクにした場合、NOTME transitionであるdefault_transition_procedureが使用される。これとは別に、利用可能なtransition手順のプルダウンリストが存在する。このリストは、以下の用意されたtransitionで構成され、(各々について詳細に上述したような)ドロップダウンメニューを介してオーサリングツール内でアクセスされる。
○ NOTME 現在の発話者を除くいずれかの人形をランダムに選択する。
○ ANY いずれかの人形をランダムに選択する。
○ ME 現在の発話者を選択する。
○ PREV 前の発話者を選択する。
○ Doll’s name この人形を選択する。
また、特別なtransition動作が必要な場合、必要なtransition手順の「C」コードをここに入力することができる。
・Next(1508)〜ランダム選択プロセスにおいて使用される次にどこへ行くかについての分岐選択のリストであり、重み付けを伴う。これは、次のコンテキスト位置のための分岐選択のリストである。個々の分岐選択は角括弧で囲まれ、コンマで区切られる。分岐選択自体は位置ラベルのリストから成り、ランダム選択のための重み付けを伴う。上述したようなBRANCHコマンドとフォーマットが類似する。以下は、(各々について詳細に上述したような)このフィールドへの有効な入力例である。
○ [(1,label1),(1,label2)]〜等しい重み付けの2つのラベルの選択を含む1つの分岐選択。
○ [(1,label1),(1,label2)]![(2,label3),(3,label4)]〜2つの分岐選択、最初の方は等しい重み付けの2つのラベルの選択を含み、後の方は重み付け2及び3の2つのラベルの選択を含む。
・Branch(1510)〜分岐に影響を与えるために使用される手順、フォーマットは、会話構造を参照しながら上述したものと同じである。そうでなければ、何らかの「C」コードをここに入力することができる。このフィールドは、分岐手順を指定して分岐選択を処理するために使用される。ブランクにした場合、default_branch_procedureが使用される。default_branch_procedureは、Nextリスト内の最初の分岐選択を使用し、与えられた重み付けを使用してラベルの1つをランダムに選択する。その後、コンテキストは、その位置ラベルとして選択されたラベルを有するコンテキスト行に変更される。これとは別に、利用可能な用意された分岐手順のプルダウンリストが存在する。このドロップダウンリスト内に上述したような分岐手順を提供することができる。
・Attributes(1512)〜属性、seMlag、及びランダム選択のための値及び重み付けのリスト。このフィールドは、このコンテキストポイントにおいて値で設定を行うためのいずれかの属性を指定するために使用され、すなわちテーマ開発者は、「気分」という人形属性をハッピーに設定することができる。ブランクにした場合、属性は設定されない。設定される個々の属性は、角括弧で囲まれ、コンマで区切られる。角括弧内では、属性が指定された後に、属性を一旦設定すべきか、又はリセットすることができるかを指定するset_flagが続き、その後ランダム選択のための値及び重み付けのリストが続く。属性フィールドは、上述したようなSETコマンドの同等物である。以下は、属性フィールドへの有効な入力である。
○ ブランク 属性は設定されない。
○ [me.attribute1,set,(1,“hello”)] 1つの属性が設定され、未だ設定されていない場合、spoken_text_string“hello”の値に「ハロー」が設定される。
○ [me.attribute1,reset,(1,“hello”)(1,“hi”)],[me.attribute2,set,(1,“peter”)(1,“paul”)]
2つの属性が設定される。最初の属性は、すでに設定されていたとしても「ハロー」又は「ハイ」に設定される。次の属性は、未だ設定されていていない場合に「ピーター」又は「ポール」に設定される。
・Set(1514)〜属性値の設定に影響を与えるために使用される手順。ブランクにした場合、default_set_procedureが使用される。default_set_procedureは、set_flagを考慮して個々の指定された属性を適当な値の選択に設定する。「set」のset_flagは、まだ設定されていない場合に限り属性を設定できることを意味する。「reset」のset_flagは、属性を何度でもリセットできることを意味する。これとは別に、利用可能な用意されたset手順のプルダウンリストが存在する。最終的に、何らかの特別なカスタム設定した動作が必要な場合、必要なset手順の「C」コードをここに入力することができる。
c:\youme\themes\theme_name
c:\youme\themes\theme_name\doll_name〜個々の人形ごと
c:\youme\themes\theme_name\doll_name\audio〜個々の人形ごと
c:\youme\themes\theme_name\theme.txt〜テキストファイルとしてテーマデータを含む。
c:\youme\themes\theme_name\doll_name\doll.txt〜テキストファイルとして人形データを含む。
c:\youme\themes\theme_name\doll_name\audio\A00001.wav
c:\youme\themes\theme_name\doll_name\audio\A00002.wav
...
...
...
c:\youme\themes\theme_name\doll_name\audio\A00010.wav
...
...
c:\youme\themes\theme_name\doll_name\audio\Annnnn.wav
1.ウィンドウ用「C」コード〜この「C」コードは以下の形で保存することができる。
c:\youme\themes\theme_name\theme_simulation.c、及び
c:\youme\themes\theme_name\theme_simulation.h
後でこのコードをコンパイルしてウィンドウベースの会話シミュレーションエンジンとリンクさせることができる。結果的に得られるアプリケーションを、c:\youme\themes\theme_name\simulation.exeの形で保存することができる。シミュレータにより、ユーザがどの人形を現在の及びアクティブな人形と考えるべきかを指定できるようになる。その後、シミュレータは、実際の人形で行われそうな形で会話例をシミュレートする。シミュレータは、アクティブな人形の1つを現在の発話者となるようにランダムに選択し、この人形の最初のコンテキスト行を処理する。その後、個々の新しい行を順に実行して、どの人形が発話しているか、及びこれらが何を発言しているかを出力する。シミュレータは、会話が終わるまで継続する。
2.プロセッサ用「C」コード〜後でこのコードをコンパイルし、修正済みのプレイヤとリンクさせて個々の人形ごとのバイナリデータファイルを生成することができる。これらの「C」コードファイルは、個々の人形ごとに以下の形で保存することができる。
c:\youme\themes\theme_name\dollname\youme_chat.c、及び、
c:\youme\themes\theme_name\dollname\youme_chat.h
結果的に得られるバイナリデータファイルを以下の形で保存することができる。
:c:\youme\themes\theme_name\doll_name\player.sb.
c:\youme\themes\theme_name\phrases.txt〜これは、このテーマで使用される全ての語句のリストを含む。
c:\youme\themes\theme_name\doll_name\phrases.txt〜これらは、個々の人形が使用する全ての語句のリストを含む。
A00xxx テキストとしての関連語句
1.現在のコンテキストのtransition手順を呼び出して、どの人形が次になるかを決定する。
2.現在のコンテキストのset手順を呼び出して、コンテキスト内で指定されたあらゆる属性の値を設定する。
3.現在のコンテキストのsay手順を呼び出して、コンテキスト内に指定されたデータに従ってどの文を発言すべきかを選択する。この結果、現在の人形がコントローラ人形でない場合、遠隔の人形との無線通信が行われる。いずれにせよ、エンジンは手順の前にオーディオ出力が完了するまで待機する。
4.コンテキストのbranch手順を呼び出して、次のインデックスを選択し、使用する会話配列に入れる。
5.前の人形ポインタ(prev)を現在の人形ポインタ(me)と同等に設定する。
6. 現在の人形ポインタ(me)を次の人形ポインタ(next)と同等に設定する。次の人形ポインタは、ステップ1において設定済みである。
7.その後、新しいインデックス及び新しい人形で再びステップ1から開始し、ステップ4の1つにおいてFINISH分岐にぶつかるまでこのプロセスを継続する。
さらなる実施形態では、PCが本明細書で説明するような玩具と無線で対話できるようにするUSB通信ドングルが提供される。図16は、PC304に取り付けられ、人形100と無線通信しているUSB通信ドングル1600の概略図である。ドングルは、無線モジュール104と、IR/RF送/受信機212と、インターフェイス1602とを含む。これらの構成要素は、インターフェイス1602を除き、上述したような人形100内に含まれるものと同じものである。しかしながら、PC304は、人形100が有するような独立したプロセッサを有するドングルの代わりにプロセッサ1604として利用され、従って事実上、PCが物理的人形100と通信できる仮想人形になる。仮想人形には、現実の人形と同様の外観を有することができる、PCのモニタに表示されるアニメ化したアバターが提供され、これによりアバターのアニメーションが人形の発話と同期化される。会話を実行するために、PCは、玩具のプロセッサをエミュレートするためのエミュレータをメモリ1606内に記憶している。或いは、上述したように、オーサリングツールがPCベースの仮想人形の特定のコードを出力する。いずれにせよ、テーマ別会話データを使用し、玩具/人形のファームウェアをエミュレートするPC上で実行されるアプリケーションを使用して会話が実行される。玩具/人形の発話は、PCのスピーカを介して出力される。
さらなる実施形態では、玩具が子供とゲームをプレイするようにもなっている。例えば、ヘビとはしご、ネズミ取り、ルード又はサイコロを使用してプレイすることができる他のあらゆる偶然に基づくゲームなどのボードゲームを玩具がプレイすることができる。
付録Iには人形間のテーマ別会話の4つの例を提供する。これらの例は、会話を構築する異なる方法を提供するものである。動物園というテーマとペットというテーマのランダムに生成された会話の2つの例、X氏というテーマの台本通りの会話の1つの例、及びヘビとはしごというテーマによるゲームをプレイするというテーマの1つの例が存在する。
図8は、図2及び図3に示す概略図の潜在的生産バージョンのための回路図及びパーツリストの概略を示しており、付録IIが図8内の構成要素について詳述する。図9は代替の回路図の概略を示しており、付録IIIが図9内の構成要素について詳述する。生産回路に含めることができる選択肢が存在し、これらについては後で説明する。
・Jennic無線コントローラ
生産回路はJennicICを使用し、RF回路を含み、ファームウェアとデータとを組み合わせて単一の大型フラッシュメモリICにする。Jennic無線コントローラは、例えばZigbee無線通信プロトコルを使用して人形間で通信を行うことができる。
・充電器
生産回路は、USBポートから充電するように特別に設計された部品を使用し、充電中に回路に給電も行う。
・音声増幅器
生産回路上の音声増幅器はD級オーディオアンプである。このアンプは非常に効率がよい(〜80%)。
このセクションでは、図8の生産回路に含まれていない考えられる選択肢について説明する。
・USBインターフェイス
FTDI FT245RQ
この構成要素は、主にUSBドライバソフトウェアを備えたすぐに使用できるICとして選ばれたものであり、開発労力を低減させる。主な欠点は、Jennic上のほとんどのDIOx線を使用するという点である。これは現行の設計には問題ないが、会話圧縮ICなどの他の選択肢にDIOx線が必要とされる場合、この部品は不適当なものとなる。
以下の両選択肢は、USB内蔵8ビットマイクロコントローラIC及びSPIスレーブインターフェイスである。これらはいずれもこれらを機能的にするために開発されたファームウェア及びソフトウェアドライバを有する必要があるが、両メーカは、このプロセスに役立てるためのリファレンス設計、利用上の注意などを提供している。これらの部品の利点は、JennicSPIインターフェイスとインターフェイス接続することができ、また1本のDIOx線しか必要とせずに他のDIOx線を他の用途のために解放する点である。
Cypress CY7C63833−LFXC
Atmel AT90USB82−16MU
リチウムイオン
図8及び図9に示す回路はリチウムイオン(Li+)電池を使用する。
3つの理由からLi+電池を選択した。
i)形状〜実証機のプロジェクトに便利であった平坦プリズム状パッケージの形で利用可能である。
ii)開発しやすさ〜Li+の充電要件は、特に充電器が追加の回路に同時に給電する必要がある場合に代替品よりも単純である。
iii)電力容量〜実証機起動時の控えめな電力要件の評価値が、利用可能な空間が狭くてもLi技術が十分な電力を与えることが示唆していた。
(後述を参照)。
代替の充電技術は、NiMH及びNiCadである。NiMHは、NiCad(Li+より複雑な)と同様の充電要件を有するが、Li+と同様の(より高い)出力密度(特定の物理体積に関しては保持電力が大きい)及び価格を有する。
このセクションでは、Li+と比較したNiCad/NiMH電池の特性について考察する。説明を簡潔にするために、以下のセクションではNiMHをNiCadと表記する。
通常、NiCad電池には単三及び単四などの標準サイズがあるが、他の形状も利用可能である。小型の構成要素を使用でき、2ピース及び/又はフレキシブル回路/コネクタなどのより複雑なPCBの製造コストが抑制事項にならないと考えられる生産環境では、標準サイズの電池の使用を可能にすることができる。
新しいデータをダウンロードできるように、(USBポートから)電池を充電すると同時に(USBポートから)回路に電源を入れる必要がある(電池の充電と回路への給電とを同時に行うことはできない)。充電中に回路を電池から絶縁すること、或いは回路を接続したままにすることのいずれもが可能である。電池を絶縁するにはより複雑な回路を伴う。回路を接続したままにすることは、回路が制御している電池への通常の電流と、玩具の回路が受ける余分な電流との両方を充電器が見ることを意味する。
このセクションでは、人形の電子部品に関する電源要件について説明する。このセクションで使用される電池寿命は、以下の電池容量に基づくものである。
・単四アルカリ=1150mAh @1.5V
・単四NiCad=300mAh @1.2V
・単四NiMH=750mAh @1.2V
・Li+プリズム状=620mAh@3.7V
注:Li+電池は、同じ定格の場合他の電池の2倍の電力を保持するが、その理由は電圧が2倍の大きさだからである。2つの単四電池を直列で使用する必要があり、或いは1つの単四を昇圧型コンバータと共に使用してその能力を半分とする。
推定電力消費量=発話時136mA、その他の場合48mA。これは、以下で構成される。
・Jennicモジュール=48mA
・音声ドライバ
250mW最大8オームスピーカ出力=175mA、ただし、各々の人形が時間の半分ずつ発話する2つの人形間の会話において=>88mA
注:スピーカが時間全体にわたって最大電力で駆動されることはありそうにないが、オーディオアンプは100%効率ではないので、88mAが合理的な妥協点である。
・残りの回路=無視できる
全体的な電力消費量の中で音声電力が最も重要な因子であるため、より正確な値を得ることが重要である。最良の方法は直接測定であるが、これは音声パフォーマンスが一旦終了したときに限り可能である。
・発話の特性により、波形の平均電力はピーク振幅をかなり下回るものとなる。例えば、発話は多くの休止を含む。従って、回路が最大平均出力レベルを下回るレベルで駆動する可能性がある。
・生産回路で使用されるD級アンプは、図9に示す回路のものよりもはるかに良好な効率を有し、この結果大幅な節電となる。
注:この音声電力レベルは、音楽ではなく発話音声に関するものである。
音声電力の改良評価に基づく電池寿命
人形の電子部品の現在の仕様では、オン/オフスイッチが回路の作動を制御する。他の玩具とは異なり、人形は、アクティブな人形のいずれか1体のボタンが押されるのを待って受動的に座っているので、いつ人形のスイッチがオンになるかは明らかでない。これは、人形の電源をオフにするのを忘れる可能性が高いことを意味する。このため、(翌日などの)次回人形で遊ぶときには電池が切れてしまっている結果となる。
発話の圧縮により、同じメモリ量により多くの音声データを記憶できるようになる。現在の設計には発話圧縮技術は含まれていない。現在の設計では、結果として64kbps(ビット/秒)のデータ転送速度をもたらす8ビット8kHzの音声データが使用され、約1000秒(17分)の音声データを記憶できるようにする64Mbit直列フラッシュメモリが使用されている。会話の圧縮を使用して、このデータ転送速度を2kbpsと8kbpsとの間に下げることができるが、圧縮率を高くするほど音声品質は低くなる。つまり、8kbpsの場合、4Mbitフラッシュメモリは約500秒(8 1/2分)の音声データを保持することができる。
この選択肢は幅広く調査されていない。まず、適当な圧縮/解凍アルゴリズムのソースコードを発見し、このアルゴリズムをJennicコントローラに移植するできるようにする必要がある。次に、このアルゴリズムが必要とし、Jennicコントローラ上で利用可能な処理電力の分析を行う必要がある。
Sensory社は、マイクロコントローラのファミリを2つ有する。SC−6xファミリは、事前プログラムされたSC−691スレーブシンセサイザを有する。これは、Jennicとインターフェイス接続するのに9本のDIOx線を必要とする4ビットMCUインターフェイスを有し、32オームのスピーカを直接駆動させることができる。新しい方のRSC46xファミリは、事前プログラムされたスレーブシンセサイザを有していないので、カスタムファームウェアを開発することが必要となる。Jennicとは4ビット、又は8ビットMCUインターフェイス(9本又は15本のDOIx線)でインターフェイス接続するようになるであろう。しかしながら、こちらのほうがプロセッサは強力であり(音声認識アルゴリズムを処理することができる)、8オームのスピーカを直接駆動させることができる。Jennicは両方に対応する十分なDIOx線を有していないので、これらの部品のどちらもUSB FT245チップと共に使用することができない。スレーブSPI USBチップが必要となる(USBのセクションを参照)。
現在の設計は、2.4GHzIEEE802.15.4パーソナルエリアネットワーク通信規格に基づくものである。全ての低レベルRF通信に対応するために必要なRFハードウェア及びファームウェアを含む無線マイクロコントローラ製品が存在する。通信内のデータのみは、人形アプリケーションにより定義する必要がある。現在の設計は、Jennic無線マイクロコントローラを選択している。
Claims (99)
- プロセッサと、
前記プロセッサに結合されたメモリと、
前記プロセッサに結合された出力部と、
少なくとも1つのさらなるこのような玩具とのネットワーク接続を確立する手段と、
を含み、
前記プロセッサが、ネットワーク接続が確立された個々の玩具の出力を制御する手段を含む、
ことを特徴とする玩具。 - 前記制御手段が、ネットワーク接続が確立された個々の玩具の複数の前記出力(好ましくは全ての前記出力)を制御する命令を前記ネットワーク接続を介して送信するようにされた、
ことを特徴とする請求項1に記載の玩具。 - 前記ネットワーク接続が、パーソナルエリアネットワークの一部を形成する、
ことを特徴とする請求項1又は請求項2に記載の玩具。 - 前記メモリが、少なくとも1つのデータのグループを記憶するようになっており、個々の前記少なくとも1つのグループが特定のテーマを表す、
ことを特徴とする請求項1、請求項2又は請求項3に記載のいずれかに記載の玩具。 - 前記メモリに記憶された前記少なくとも1つのテーマを決定する手段をさらに含む、
ことを特徴とする請求項4に記載の玩具。 - 前記玩具が、別の玩具との接続を、前記メモリに記憶された少なくとも1つのテーマが両玩具において同じであるときにのみ確立するようにされた、
ことを特徴とする請求項5に記載の玩具。 - 前記制御手段が、個々の前記玩具の前記出力を制御する制御メッセージを送信/受信するようになっており、好ましくは前記制御メッセージが、対象とする前記玩具のIDとコマンドセグメントとを含み、より好ましくは前記発信元玩具のID及び/又はメッセージIDをさらに含む、
ことを特徴とする請求項1から請求項6のいずれかに記載の玩具。 - 前記制御メッセージが、参照データベースにアクセスしてタスクを実行するための命令を含む、
ことを特徴とする請求項7に記載の玩具。 - 前記プロセッサが、送信/受信された制御メッセージの確認応答を送信する手段を含み、好ましくは前記送信/受信手段が、確認応答を受信しない場合に前記制御メッセージが再送されるよう要求するようにされた、
ことを特徴とする請求項1から請求項8のいずれかに記載の玩具。 - 前記送信/受信手段が、このような玩具が前記制御メッセージに応じて出力を生成するのに掛かるであろう時間に関連するパラメータを送信するようになっており、好ましくは前記発信元玩具が、さらなる制御メッセージを送信するまで前記パラメータに関連する時間の間待機する(このような玩具がこのような出力を生成するのに掛かるであろう前記時間は、例えば前記玩具のテーマ又はサブテーマにより様々であってもよい)、
ことを特徴とする請求項9に記載の玩具。 - 前記プロセッサが、再送された制御メッセージの数を計数する手段を含み、これにより前記制御メッセージの確認応答を行わない前記玩具との通信が、1,000〜2,000回、2,000〜5,000回、5,000〜10,000回又はそれ以上の試行後に停止される、
ことを特徴とする請求項8、請求項9又は請求項10に記載の玩具。 - 前記プロセッサが、前記玩具間の会話を構築するようになっている会話エンジンをさらに含む、
ことを特徴とする請求項1から請求項11のいずれかに記載の玩具。 - 玩具のテーマ別データを作成するためのオーサリングツールであって、
特定のテーマに関するコンテンツを受信する手段と、
前記コンテンツを処理して、前記特定のテーマ内の前記玩具を動作させる命令セットを生成する手段と、
前記命令セットを出力する手段と、
を含むことを特徴とするオーサリングツール。 - 前記受信手段が、前記特定のテーマに関するスクリプトデータと、前記玩具の性格を定義する表現データとの両方を別個に含むコンテンツを受信するようにされた、
ことを特徴とする請求項13に記載のオーサリングツール。 - 前記受信手段が、コンテンツを別の部分の形で受信するようにされた、
ことを特徴とする請求項14に記載のオーサリングツール。 - 個々の表現データ部分に一意のID番号を割り当てる手段をさらに含む、
ことを特徴とする請求項15に記載のオーサリングツール。 - 前記処理手段が、前記命令セット内の前記表現データ部分への参照として前記一意のID番号を利用するようにされた、
ことを特徴とする請求項16に記載のオーサリングツール。 - 前記表現データが、テーマ名、前記玩具の名前、及び前記玩具が対話するために使用する文のうちの少なくとも1つを含む、
ことを特徴とする請求項14から請求項17のいずれかに記載のオーサリングツール。 - 前記スクリプトデータが、前記テーマ内で対話できる玩具の数、対話方法、テーマ関連パラメータ、及び玩具関連パラメータのうちの少なくとも1つを含む、
ことを特徴とする請求項14から請求項18のいずれかに記載のオーサリングツール。 - 特定のテーマに関する前記スクリプトデータと表現データとを配列の形でともに記憶する手段をさらに含む、
ことを特徴とする請求項14から請求項19のいずれかに記載のオーサリングツール。 - 前記処理手段が、前記配列から前記命令セットを生成するようにされた、
ことを特徴とする請求項20に記載のオーサリングツール。 - 前記処理手段が、前記表現データの少なくとも一部を含む少なくとも1つのリストをコンパイルする手段を含む、
ことを特徴とする請求項14から請求項21のいずれかに記載のオーサリングツール。 - 前記リストコンパイル手段が、前記特定のテーマにおける個々の玩具ごとにそれぞれのリストをコンパイルするようにされた、
ことを特徴とする請求項22に記載のオーサリングツール。 - 前記表現データがシンボルデータである、
ことを特徴とする請求項14から請求項25のいずれかに記載のオーサリングツール。 - 前記シンボルデータの上演データバージョンを記録する記録手段をさらに含む、
ことを特徴とする請求項24に記載のオーサリングツール。 - 関係者に、上演データの必要な部分を生成するように促す手段をさらに含む、
ことを特徴とする請求項25に記載のオーサリングツール。 - 前記プロセッサが、前記シンボルデータと上演データとの間のルックアップテーブルを生成するようにされた、
ことを特徴とする請求項25又は請求項26に記載のオーサリングツール。 - 前記処理手段が、前記表現データを出力するようにされた、
ことを特徴とする請求項14から請求項27のいずれかに記載のオーサリングツール。 - 前記処理手段がさらに、前記表現データと命令セットとを別個に出力するようにされた、
ことを特徴とする請求項28に記載のオーサリングツール。 - 前記処理手段が、前記玩具の基本機能を制御するための基本命令セットと、該基本命令セットが前記テーマ内の前記玩具を制御するためのテーマ別命令セットとを含む命令セットを生成するようにされた、
ことを特徴とする請求項13から請求項29のいずれかに記載のオーサリングツール。 - 前記プロセッサが、前記基本命令セット及び前記テーマ別命令セットを共に組み合わせるようにされた、
ことを特徴とする請求項30に記載のオーサリングツール。 - コンパイラをさらに含む、
ことを特徴とする請求項30又は請求項31に記載のオーサリングツール。 - 前記コンパイラが、前記基本命令セット及び前記テーマ別命令セットをコンパイルするようにされた、
ことを特徴とする請求項32に記載のオーサリングツール。 - 前記プロセッサが、前記命令セットをコンピュータ可読コードに変換するようになっている符号化エンジンを含む、
ことを特徴とする請求項1から請求項33のいずれかに記載のオーサリングツール。 - 前記オーサリングツールの前記出力が、請求項1から請求項12、又は請求項46から請求項82のいずれかに記載の会話エンジン内で使用されるようにされた、
ことを特徴とする請求項13から請求項34のいずれかに記載のオーサリングツール。 - 前記玩具が、請求項1から請求項12、又は請求項46から請求項82のいずれかに記載の玩具である、
ことを特徴とする請求項1から請求項23のいずれかに記載のオーサリングツール。 - 玩具のテーマ別データを作成するオーサリングツールのためのユーザインターフェイスであって、
各々がテーマに関するコンテンツの特定のサブセットの入力に対応する入力ウィンドウのセットをユーザに提供する手段と、
前記テーマ別データの出力を開始する手段と、
を含むことを特徴とするユーザインターフェイス。 - 前記コンテンツのサブセットが、テーマ関連データ、玩具関連データ及びコンテキスト関連データのうちの少なくとも1つを含む、
ことを特徴とする請求項37に記載のユーザインターフェイス。 - 前記コンテキスト関連データが、前記玩具が対話するために使用する文、対話方法、テーマ関連パラメータ及び玩具関連パラメータのうちの少なくとも1つを含む、
ことを特徴とする請求項38に記載のユーザインターフェイス。 - 玩具のテーマ別データを生成するためのシステムであって、
前記テーマ別データにアクセスし、これを作成及び編集するためのオーサリングツールと、
前記テーマ別データを記憶するためのデータベースを含むサーバと、
を含み、
前記オーサリングツールが、インターネットを介して前記テーマ別データにアクセスするようにされた、
ことを特徴とするシステム。 - 前記オーサリングツールが、前記テーマ別データを処理して配列するようにされ、前記データベースが、前記テーマ別データを前記配列の形で記憶するようにされた、
ことを特徴とする請求項40に記載のシステム。 - 前記オーサリングツールが、請求項13から請求項36のいずれかに記載のオーサリングツールである、
ことを特徴とする請求項41に記載のシステム。 - 前記玩具が、請求項1から請求項12、又は請求項46から請求項82のいずれかに記載の玩具である、
ことを特徴とする請求項41に記載のシステム。 - ユーザインターフェイスをさらに含む、
ことを特徴とする請求項41から請求項43のいずれかに記載の玩具。 - 前記インターフェイスが、請求項25から請求項27のいずれかに記載のインターフェイスである、
ことを特徴とする請求項44に記載のシステム。 - 別のこのような玩具と対話するようになっており、前記プロセッサが、前記対話に関連する少なくとも1つの変数を定義する手段と、前記変数を前記メモリに記憶する手段と、前記変数を使用して前記玩具の(対話型)出力を制御する手段とを含む、
ことを特徴とする請求項1から請求項12のいずれかに記載の玩具。 - 別のこのような玩具と対話するようになっている玩具であって、
プロセッサと、
前記プロセッサに結合されたメモリと、
前記プロセッサに結合された出力部と、
を含み、
前記プロセッサが、前記対話に関連する少なくとも1つの変数を定義する手段と、前記変数を前記メモリに記憶する手段と、前記玩具の(対話型)出力に関連して前記変数を使用する手段と、
を含むことを特徴とする玩具。 - 前記変数を複数回(より好ましくは数えきれないほど)使用して前記出力を制御する、
ことを特徴とする請求項46又は請求項47に記載の玩具。 - 前記変数を使用して前記対話の前記回数、種類又は性質を決定し、好ましくは前記変数が前記対話である、
ことを特徴とする請求項46、請求項47又は請求項48に記載の玩具。 - 前記変数がランダムに又は疑似ランダム的に選択され、前記ランダム選択が重み付けにより影響される、
ことを特徴とする請求項46から請求項49のいずれかに記載の玩具。 - 前記プロセッサが、前記テーマ別データを前記メモリに記憶するようになっており、前記テーマがスクリプトデータ及び表現データを含み、前記表現データが前記玩具の前記性格を定義する、
ことを特徴とする請求項34から請求項50のいずれかに記載の玩具。 - プロセッサと、
前記プロセッサに結合されたメモリと、
前記プロセッサに結合された出力部と、
を含み、
前記プロセッサが前記テーマ別データを前記メモリに記憶するようになっており、
前記テーマがスクリプトデータ及び表現データを含み、前記表現データが前記玩具の前記性格を定義する、
ことを特徴とする玩具。 - 少なくとも1つの他の同様の玩具と対話するようになっており、前記スクリプトデータが個々のこのような玩具により共有され、前記表現データが個々のこのような玩具間で異なる、
ことを特徴とする請求項51又は請求項52に記載の玩具。 - 前記スクリプトデータが、前記表現データとは無関係である、
ことを特徴とする請求項51、請求項52又は請求項53に記載の玩具。 - 前記プロセッサが、別のこのような玩具に制御メッセージとして前記スクリプトデータを出力するようにされ、制御メッセージに個々の表現データで応答するようにされた、
ことを特徴とする請求項53又は請求項54に記載の玩具。 - 前記プロセッサが、対話する玩具を予め定めたルールに基づいて選択する手段を含む、
ことを特徴とする請求項1から請求項12、又は請求項46から請求項55のいずれかに記載の玩具。 - 他のこのような玩具と対話するようになっている玩具であって、
プロセッサと、
前記プロセッサに結合されたメモリと、
前記プロセッサに結合された出力部と、
を含み、
前記プロセッサが、対話する玩具を予め定めたルールに基づいて選択する手段を含み、前記選択された玩具を前記発信元玩具とすることができる、
ことを特徴とする玩具。 - 前記選択手段が、次の対話する玩具を選択するようにされた、
ことを特徴とする請求項56又は請求項57に記載の玩具。 - 前記予め定めたルールが、直接選択、ランダム選択、及び前記現在の対話玩具を選択して再び対話することを含む、
こと特徴とする請求項58に記載の玩具。 - 前記プロセッサが、前記選択された玩具のID及び好ましくは前記発信元玩具のIDを含む制御メッセージを出力するようにされた、
ことを特徴とする請求項56から請求項59のいずれかに記載の玩具。 - 前記対話が通信を含み、好ましくは前記通信が発話及び指示を含む、
ことを特徴とする請求項56から請求項60のいずれかに記載の玩具。 - 他の同様の玩具とゲームをプレイすることに適した生きているものの形をとり、前記プロセッサがゲームエンジンを含み、該ゲームエンジンが、前記玩具が生きているかのようにゲームをプレイ可能にするようにされた、
ことを特徴とする請求項1から請求項12、又は、請求項46から請求項61のいずれかに記載の玩具。 - 他の同様の玩具とゲームをプレイすることに適した生きているものの形をとる玩具であって、
プロセッサと、
前記プロセッサに結合されたメモリと、
前記プロセッサに結合された出力部と、
を含み、
前記プロセッサが、前記玩具が関連する生きているものであるかのように個々の前記玩具がゲームできるようにするゲームエンジンを含む、
ことを特徴とする玩具。 - 前記ゲームエンジンが、人間のゲームを可能にするようにされた、
ことを特徴とする請求項62又は請求項63に記載の玩具。 - 前記人間のゲームがゲーム機器でプレイされる、
ことを特徴とする請求項64に記載の玩具。 - 前記ゲームエンジンが、人間が前記ゲーム機器を調整して前記ゲームをプレイできるようにする命令を出力するようにされた、
ことを特徴とする請求項65に記載の玩具。 - 前記玩具が、少なくとも1つのさらなるこのような玩具と通信する手段をさらに含む、
ことを特徴とする請求項62から請求項66のいずれかに記載の玩具。 - 前記ゲームエンジンがさらに、ルールに基づくゲームをプレイするようにされた、
ことを特徴とする請求項62から請求項67のいずれかに記載の玩具。 - 前記ゲームエンジンが、前記ゲームに関する情報を前記メモリに記憶するようにされた、
ことを特徴とする請求項62から請求項68のいずれかに記載の玩具。 - 前記情報が、前記ゲームの前記ルールを含む、
ことを特徴とする請求項69に記載の玩具。 - 前記情報が、少なくとも1つのプレイボードのレイアウトをさらに含む、
ことを特徴とする請求項69又は請求項70に記載の玩具。 - 前記ゲームエンジンが、仮想サイコロになっている乱数発生器を含む、
ことを特徴とする請求項62から請求項71のいずれかに記載の玩具。 - 前記ゲームエンジンが、前記ゲームに関する外部入力を受信する手段を含む、
ことを特徴とする請求項62から請求項72のいずれかに記載の玩具。 - 前記外部入力が、前記ゲームの駒に関連付けられる、
ことを特徴とする請求項73に記載の玩具。 - 前記外部入力が、前記プレイボード内の少なくとも1つのセンサである、
ことを特徴とする請求項73又は請求項74に記載の玩具。 - 前記外部入力が、前記玩具のユーザが使用するようにされたスイッチである、
ことを特徴とする請求項73、請求項74又は請求項75に記載の玩具。 - 前記ルールに基づくゲームが、ヘビとはしご及びルードを含む、
ことを特徴とする請求項68から請求項76のいずれかに記載の玩具。 - 前記出力が変換器である、
ことを特徴とする請求項1から請求項77のいずれかに記載の玩具。 - 前記変換器がスピーカである、
ことを特徴とする請求項78に記載の玩具。 - 前記変換器がアクチュエータである、
ことを特徴とする請求項78又は請求項79に記載の玩具。 - 各々が請求項1から請求項12、又は請求項46から請求項80のいずれかに記載された複数の玩具を含む、
ことを特徴とする組み合わせ。 - 前記複数の玩具の各々が他の前記玩具を制御する手段を含み、1つの玩具のみが他の前記玩具を同時に制御する、
ことを特徴とする請求項81に記載の組み合わせ。 - 複数の玩具にテーマ別データを提供する装置であって、
各々が複数のサブテーマを含む前記テーマ別データを記憶する手段と、
特定の玩具を識別する手段と、
前記特定の玩具に基づいてサブテーマを選択する手段と、
前記玩具に前記特定のサブテーマを出力する手段と、
を含むことを特徴とする装置。 - 複数の異なるテーマを記憶する手段をさらに含む、
ことを特徴とする請求項83に記載の玩具。 - ユーザが前記複数のテーマの1つを選択できるようにする手段をさらに含む、
ことを特徴とする請求項84に記載の玩具。 - 前記特定の玩具を識別する手段が、前記玩具の一意の識別番号を使用する、
ことを特徴とする請求項83、請求項84又は請求項85のいずれかに記載の装置。 - 前記玩具に関連するパラメータに基づいて個々の前記サブテーマを暗号化する手段を含む、
ことを特徴とする請求項83から請求項86のいずれかに記載の装置。 - 前記パラメータが、前記玩具の一意の識別番号である、
ことを特徴とする請求項87に記載の玩具。 - 玩具などの装置のための会話エンジンであって、
前記会話のテーマを選択し、
複数の起点から起点をランダムに選択し、
変数に基づいて語句をランダムに選択し、
変数に基づいて次の発話者をランダムに選択する、
ための手段を含むことを特徴とする会話エンジン。 - 前記語句選択がさらに、重み付けに基づく、
ことを特徴とする請求項89に記載の会話エンジン。 - 請求項89又は請求項90に記載の会話エンジンを組み込んだ、
ことを特徴とする玩具。 - 前記玩具が、請求項1から請求項12、又は請求項46から請求項82のいずれかに記載の玩具である、
ことを特徴とする請求項91に記載の玩具。 - 請求項1から請求項12、又は請求項46から請求項82のいずれかに記載の少なくとも1つの玩具とコンピュータとの間に無線通信を提供するための装置であって、
前記装置を前記コンピュータに接続する通信ポートと、
前記コンピュータと前記又は各玩具との間にネットワークを確立する手段と、
を含み、
前記装置が、前記コンピュータが別のこのような玩具であるかのように前記又は各玩具と通信できるようにする、
ことを特徴とする装置。 - 前記装置が、前記コンピュータを仮想玩具として機能できるようにする、
ことを特徴とする請求項93に記載の玩具。 - 前記通信ポートがUSB通信ポートである、
ことを特徴とする請求項93又は請求項94に記載の玩具。 - 前記ネットワークが無線である、
ことを特徴とする請求項93、請求項94又は請求項95に記載の玩具。 - 請求項1から請求項12、又は請求項46から請求項82のいずれかに記載の少なくとも1つの玩具と、
各々が請求項93から請求項96のいずれかに記載の装置を含む少なくとも1つのコンピュータと、
を含み、
前記コンピュータと装置との組み合わせが、請求項1から請求項12、又は請求項46から請求項82のいずれかに記載の玩具であるかのように機能する、
ことを特徴とするシステム。 - 前記コンピュータが、仮想玩具を提供するようになっている視覚及び音声出力を含む、
ことを特徴とする請求項97に記載のシステム。 - 前記仮想玩具がアバターである、
ことを特徴とする請求項98に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB0714148A GB0714148D0 (en) | 2007-07-19 | 2007-07-19 | interacting toys |
GB0714148.4 | 2007-07-19 | ||
PCT/GB2008/002457 WO2009010760A2 (en) | 2007-07-19 | 2008-07-18 | Interacting toys |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014123620A Division JP2014195718A (ja) | 2007-07-19 | 2014-06-16 | 対話式玩具 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2010533532A true JP2010533532A (ja) | 2010-10-28 |
JP2010533532A5 JP2010533532A5 (ja) | 2011-09-01 |
JP5628029B2 JP5628029B2 (ja) | 2014-11-19 |
Family
ID=38476662
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010516579A Expired - Fee Related JP5628029B2 (ja) | 2007-07-19 | 2008-07-18 | 対話式玩具 |
JP2014123620A Pending JP2014195718A (ja) | 2007-07-19 | 2014-06-16 | 対話式玩具 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014123620A Pending JP2014195718A (ja) | 2007-07-19 | 2014-06-16 | 対話式玩具 |
Country Status (6)
Country | Link |
---|---|
US (4) | US8795022B2 (ja) |
EP (1) | EP2180928A2 (ja) |
JP (2) | JP5628029B2 (ja) |
CN (2) | CN101801485B (ja) |
GB (1) | GB0714148D0 (ja) |
WO (1) | WO2009010760A2 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014112811A (ja) * | 2011-12-21 | 2014-06-19 | Canon Marketing Japan Inc | 撮影システム、撮影装置、制御方法、及びプログラム |
WO2015033656A1 (ja) * | 2013-09-05 | 2015-03-12 | 株式会社バンダイ | 玩具システム及びプログラム |
WO2020241441A1 (ja) * | 2019-05-29 | 2020-12-03 | 株式会社バンダイ | システム、装置、方法及びプログラム |
Families Citing this family (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010007336A1 (en) * | 2008-07-18 | 2010-01-21 | Steven Lipman | Interacting toys |
GB0714148D0 (en) | 2007-07-19 | 2007-08-29 | Lipman Steven | interacting toys |
KR101210280B1 (ko) * | 2009-09-02 | 2012-12-10 | 한국전자통신연구원 | 센서 기반 조립형 교구 |
GB201005718D0 (en) * | 2010-04-06 | 2010-05-19 | Lipman Steven | Interacting toys |
TWI437503B (zh) * | 2010-11-26 | 2014-05-11 | Inst Information Industry | 電子公仔與電子公仔網路服務系統 |
US11062615B1 (en) | 2011-03-01 | 2021-07-13 | Intelligibility Training LLC | Methods and systems for remote language learning in a pandemic-aware world |
US10019995B1 (en) | 2011-03-01 | 2018-07-10 | Alice J. Stiebel | Methods and systems for language learning based on a series of pitch patterns |
CN102872598A (zh) * | 2011-09-15 | 2013-01-16 | 徐菲 | 互动火车游戏机玩具装置及方法 |
US9649565B2 (en) * | 2012-05-01 | 2017-05-16 | Activision Publishing, Inc. | Server based interactive video game with toys |
US10223636B2 (en) * | 2012-07-25 | 2019-03-05 | Pullstring, Inc. | Artificial intelligence script tool |
WO2014091491A1 (en) * | 2012-12-13 | 2014-06-19 | Seebo Interactive Ltd. | A novel toy console and methods of use |
GB2511479A (en) * | 2012-12-17 | 2014-09-10 | Librae Ltd | Interacting toys |
US11748833B2 (en) * | 2013-03-05 | 2023-09-05 | Wevideo, Inc. | Systems and methods for a theme-based effects multimedia editing platform |
US9821237B2 (en) | 2013-04-20 | 2017-11-21 | Tito Vasquez | Character-based electronic device, system, and method of using the same |
US9665179B2 (en) | 2013-10-01 | 2017-05-30 | Mattel, Inc. | Mobile device controllable with user hand gestures |
US20150147936A1 (en) * | 2013-11-22 | 2015-05-28 | Cepia Llc | Autonomous Toy Capable of Tracking and Interacting With a Source |
CA3001584A1 (en) * | 2014-10-17 | 2016-04-21 | Kelvin OSAROGIAGBON | Inspirational talking toys |
US20160136534A1 (en) * | 2014-11-13 | 2016-05-19 | Robert A. EARL-OCRAN | Programmable Interactive Toy |
JP2016202683A (ja) * | 2015-04-24 | 2016-12-08 | 任天堂株式会社 | 情報処理装置、情報処理装置の制御方法、情報処理プログラムおよび情報処理システム |
JP5889465B1 (ja) | 2015-04-24 | 2016-03-22 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システムおよび情報処理装置の制御方法 |
US10616310B2 (en) * | 2015-06-15 | 2020-04-07 | Dynepic, Inc. | Interactive friend linked cloud-based toy |
KR101824977B1 (ko) * | 2015-11-26 | 2018-02-02 | 엠텍씨앤케이 주식회사 | 컨텐츠와 외부기기 연동방법 |
TWI622896B (zh) * | 2015-12-23 | 2018-05-01 | 絡達科技股份有限公司 | 可回應外部音訊產生動作回饋之電子裝置 |
CN108697938B (zh) * | 2016-01-06 | 2020-07-10 | 埃沃洛夫有限公司 | 具有可变角色的机器人 |
US10118696B1 (en) | 2016-03-31 | 2018-11-06 | Steven M. Hoffberg | Steerable rotating projectile |
JP6467674B2 (ja) * | 2016-07-20 | 2019-02-13 | Groove X株式会社 | スキンシップを理解する自律行動型ロボット |
US10272349B2 (en) | 2016-09-07 | 2019-04-30 | Isaac Davenport | Dialog simulation |
US10111035B2 (en) | 2016-10-03 | 2018-10-23 | Isaac Davenport | Real-time proximity tracking using received signal strength indication |
CN107665702A (zh) * | 2016-11-09 | 2018-02-06 | 汎达科技(深圳)有限公司 | 一种带音频播放的电子设备的使用方法 |
TWM551086U (zh) * | 2017-07-05 | 2017-11-01 | jun-yi He | 機台直播系統 |
CN107583291B (zh) * | 2017-09-29 | 2023-05-02 | 深圳希格玛和芯微电子有限公司 | 玩具互动方法、装置及玩具 |
US11712637B1 (en) | 2018-03-23 | 2023-08-01 | Steven M. Hoffberg | Steerable disk or ball |
ES2738829A1 (es) * | 2018-07-24 | 2020-01-27 | Choren Belay Maria Luz | Speed inforgal |
US10944221B2 (en) * | 2018-09-05 | 2021-03-09 | Assa Abloy Ab | Systems and devices for authentication |
JP2020042074A (ja) * | 2018-09-06 | 2020-03-19 | トヨタ自動車株式会社 | 音声対話装置、音声対話方法および音声対話プログラム |
US10981073B2 (en) | 2018-10-22 | 2021-04-20 | Disney Enterprises, Inc. | Localized and standalone semi-randomized character conversations |
US10486078B1 (en) * | 2019-01-18 | 2019-11-26 | Disney Enterprises Inc. | Toy with build-time effects |
US11123647B2 (en) * | 2019-02-04 | 2021-09-21 | Disney Enterprises, Inc. | Entertainment system including performative figurines |
US20210056272A1 (en) | 2019-08-23 | 2021-02-25 | KEFI Holdings, Inc | Object detection-based control of projected content |
CN114124591B (zh) * | 2021-11-22 | 2024-04-05 | 抖音视界有限公司 | 发言用户选定方法、装置、电子设备及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006114625A2 (en) * | 2005-04-26 | 2006-11-02 | Steven Lipman | Toys |
Family Cites Families (83)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US663393A (en) * | 1900-01-02 | 1900-12-04 | William L Hall | Hearing-tube. |
US4247108A (en) | 1979-09-10 | 1981-01-27 | Ideal Toy Corporation | Time limited power boost passing for toy vehicles |
US4857030A (en) | 1987-02-06 | 1989-08-15 | Coleco Industries, Inc. | Conversing dolls |
US5314336A (en) | 1992-02-07 | 1994-05-24 | Mark Diamond | Toy and method providing audio output representative of message optically sensed by the toy |
US5587545A (en) | 1994-03-10 | 1996-12-24 | Kabushiki Kaisha B-Ai | Musical toy with sound producing body |
US5636994A (en) | 1995-11-09 | 1997-06-10 | Tong; Vincent M. K. | Interactive computer controlled doll |
US20010031652A1 (en) * | 1995-11-20 | 2001-10-18 | Creator Ltd. | 1*doll |
US6368177B1 (en) | 1995-11-20 | 2002-04-09 | Creator, Ltd. | Method for using a toy to conduct sales over a network |
US6553410B2 (en) | 1996-02-27 | 2003-04-22 | Inpro Licensing Sarl | Tailoring data and transmission protocol for efficient interactive data transactions over wide-area networks |
CA2225060A1 (en) * | 1997-04-09 | 1998-10-09 | Peter Suilun Fong | Interactive talking dolls |
WO1998050872A1 (en) | 1997-05-05 | 1998-11-12 | Ralph Dratman | Inter-cooperating toys |
US20010032278A1 (en) * | 1997-10-07 | 2001-10-18 | Brown Stephen J. | Remote generation and distribution of command programs for programmable devices |
AU9792198A (en) | 1997-10-07 | 1999-04-27 | Health Hero Network, Inc. | Remotely programmable talking toy |
JP3494567B2 (ja) | 1998-01-22 | 2004-02-09 | 株式会社ナムコ | 携帯用通信玩具及び情報記憶媒体 |
US6110000A (en) | 1998-02-10 | 2000-08-29 | T.L. Products Promoting Co. | Doll set with unidirectional infrared communication for simulating conversation |
US6089942A (en) | 1998-04-09 | 2000-07-18 | Thinking Technology, Inc. | Interactive toys |
US6056618A (en) * | 1998-05-26 | 2000-05-02 | Larian; Isaac | Toy character with electronic activities-oriented game unit |
IL127569A0 (en) | 1998-09-16 | 1999-10-28 | Comsense Technologies Ltd | Interactive toys |
US6246403B1 (en) * | 1998-10-08 | 2001-06-12 | Hewlett-Packard Company | Method and apparatus for generating a graphical user interface |
IL127293A0 (en) | 1998-11-26 | 1999-09-22 | Creator Ltd | Script development systems and methods useful therefor |
US6149490A (en) * | 1998-12-15 | 2000-11-21 | Tiger Electronics, Ltd. | Interactive toy |
AU3693300A (en) | 1999-01-28 | 2000-08-18 | Lanette O. Pleschutznig | Interactively programmable toy |
US6729934B1 (en) | 1999-02-22 | 2004-05-04 | Disney Enterprises, Inc. | Interactive character system |
US6546436B1 (en) * | 1999-03-30 | 2003-04-08 | Moshe Fainmesser | System and interface for controlling programmable toys |
WO2000066239A1 (fr) * | 1999-04-30 | 2000-11-09 | Sony Corporation | Systeme d'animal de compagnie electronique, systeme de reseau, robot et support de donnees |
US6663393B1 (en) | 1999-07-10 | 2003-12-16 | Nabil N. Ghaly | Interactive play device and method |
WO2001012285A1 (en) | 1999-08-19 | 2001-02-22 | Kidkids, Inc. | Networked toys |
US6631351B1 (en) | 1999-09-14 | 2003-10-07 | Aidentity Matrix | Smart toys |
JP2001154681A (ja) | 1999-11-30 | 2001-06-08 | Sony Corp | 音声処理装置および音声処理方法、並びに記録媒体 |
JP2001179665A (ja) | 1999-12-24 | 2001-07-03 | Toshiba Corp | 知的ロボット |
US6255800B1 (en) | 2000-01-03 | 2001-07-03 | Texas Instruments Incorporated | Bluetooth enabled mobile device charging cradle and system |
WO2001058552A1 (en) | 2000-02-11 | 2001-08-16 | Mattel, Inc. | Interacting toy figure for computer users |
US20020049606A1 (en) | 2000-05-16 | 2002-04-25 | Lg Electronics Inc. | Interactive learning device using web-based system and method therefor |
JP2002063092A (ja) | 2000-06-09 | 2002-02-28 | Tomy Co Ltd | 情報提供システム、情報提供装置、サーバ、玩具、情報提供方法および記録媒体 |
US20020029388A1 (en) | 2000-06-22 | 2002-03-07 | Bernd Heisele | Interactive toy system |
ATE451156T1 (de) | 2000-07-01 | 2009-12-15 | Alexander V Smirnov | Interaktives spielzeug |
JP2002028378A (ja) * | 2000-07-13 | 2002-01-29 | Tomy Co Ltd | 対話型玩具および反応行動パターン生成方法 |
US20020092004A1 (en) * | 2000-07-26 | 2002-07-11 | Lee John Michael | Methods and systems for automatically generating software applications |
WO2002013935A1 (en) | 2000-08-12 | 2002-02-21 | Smirnov Alexander V | Toys imitating characters behaviour |
US20020059386A1 (en) * | 2000-08-18 | 2002-05-16 | Lg Electronics Inc. | Apparatus and method for operating toys through computer communication |
FR2813471B1 (fr) * | 2000-08-31 | 2002-12-20 | Schneider Automation | Systeme de communication d'un equipement d'automatisme base sur le protocole soap |
JP4765155B2 (ja) * | 2000-09-28 | 2011-09-07 | ソニー株式会社 | オーサリング・システム及びオーサリング方法、並びに記憶媒体 |
US7219064B2 (en) * | 2000-10-23 | 2007-05-15 | Sony Corporation | Legged robot, legged robot behavior control method, and storage medium |
JP2002292154A (ja) | 2001-03-30 | 2002-10-08 | Bandai Co Ltd | 運動体制御システム |
US7069503B2 (en) * | 2001-06-04 | 2006-06-27 | Murata Kikai Kabushiki Kaisha | Device and program for structured document generation data structure of structural document |
TW572767B (en) | 2001-06-19 | 2004-01-21 | Winbond Electronics Corp | Interactive toy |
WO2003000370A1 (en) | 2001-06-25 | 2003-01-03 | Peter Sui Lun Fong | Interactive talking dolls |
US20040229696A1 (en) | 2003-05-14 | 2004-11-18 | Beck Stephen C. | Object recognition toys and games |
JP3791773B2 (ja) | 2001-11-29 | 2006-06-28 | コナミ株式会社 | 遠隔操作玩具システム、並びにその送信機及び駆動機器 |
US7297044B2 (en) | 2002-08-26 | 2007-11-20 | Shoot The Moon Products Ii, Llc | Method, apparatus, and system to synchronize processors in toys |
JP2005001099A (ja) | 2003-03-23 | 2005-01-06 | Sony Corp | ロボット装置及びその動作制御方法 |
US7252572B2 (en) | 2003-05-12 | 2007-08-07 | Stupid Fun Club, Llc | Figurines having interactive communication |
US20050009443A1 (en) | 2003-05-20 | 2005-01-13 | Martin Raymond J. | Supra-voice sound-responsive toy |
US6822154B1 (en) | 2003-08-20 | 2004-11-23 | Sunco Ltd. | Miniature musical system with individually controlled musical instruments |
US20050157668A1 (en) | 2003-12-24 | 2005-07-21 | Michael Sivan | Wireless remote control and data transfer system |
US7704119B2 (en) | 2004-02-19 | 2010-04-27 | Evans Janet E | Remote control game system with selective component disablement |
US7338340B2 (en) | 2004-03-24 | 2008-03-04 | Uncle Milton Industries, Inc. | Toy figure with interchangeable brain having associated voice responses |
JP3888558B2 (ja) * | 2004-11-18 | 2007-03-07 | 任天堂株式会社 | 無線ネットワークシステムおよび無線通信プログラム |
US7930182B2 (en) * | 2005-03-15 | 2011-04-19 | Nuance Communications, Inc. | Computer-implemented tool for creation of speech application code and associated functional specification |
US8490015B2 (en) * | 2005-04-15 | 2013-07-16 | Microsoft Corporation | Task dialog and programming interface for same |
GB2425490A (en) | 2005-04-26 | 2006-11-01 | Steven Lipman | Wireless communication toy |
EP1776990A3 (en) | 2005-10-21 | 2007-09-19 | Patent Category Corporation | Interactive toy system |
US20080153594A1 (en) * | 2005-10-21 | 2008-06-26 | Zheng Yu Brian | Interactive Toy System and Methods |
JP4918778B2 (ja) | 2005-11-16 | 2012-04-18 | 株式会社日立製作所 | 半導体集積回路装置の製造方法 |
US8055707B2 (en) * | 2005-11-30 | 2011-11-08 | Alcatel Lucent | Calendar interface for digital communications |
US20070128979A1 (en) | 2005-12-07 | 2007-06-07 | J. Shackelford Associates Llc. | Interactive Hi-Tech doll |
US8324492B2 (en) | 2006-04-21 | 2012-12-04 | Vergence Entertainment Llc | Musically interacting devices |
US8134061B2 (en) | 2006-04-21 | 2012-03-13 | Vergence Entertainment Llc | System for musically interacting avatars |
US7607962B2 (en) | 2006-05-04 | 2009-10-27 | Mattel, Inc. | Electronic toy with alterable features |
US8287327B1 (en) * | 2006-08-02 | 2012-10-16 | Ghaly Nabil N | Interactive play set |
US20080080456A1 (en) * | 2006-09-29 | 2008-04-03 | Williams Jeffrey B | Method and Apparatus for Wireless Coordination of Tasks and Active Narrative Characterizations |
CN103433923A (zh) * | 2007-01-12 | 2013-12-11 | 汉斯乔格·巴尔特斯 | 用于产生机器人的方法和系统 |
US8020150B1 (en) * | 2007-05-11 | 2011-09-13 | Nvidia Corporation | System, method, and computer program product for controlling a driver utilizing scripts |
US8583746B1 (en) * | 2007-05-25 | 2013-11-12 | Callwave Communications, Llc | Methods and systems for web and call processing |
WO2010007336A1 (en) | 2008-07-18 | 2010-01-21 | Steven Lipman | Interacting toys |
GB0714148D0 (en) | 2007-07-19 | 2007-08-29 | Lipman Steven | interacting toys |
US8689194B1 (en) * | 2007-08-20 | 2014-04-01 | The Mathworks, Inc. | Optimization identification |
US20090069084A1 (en) | 2007-09-12 | 2009-03-12 | Reece Alex D | System and Methods for Monitoring and Controlling the Actions of an Avatar in a Virtual Environment |
US8545335B2 (en) | 2007-09-14 | 2013-10-01 | Tool, Inc. | Toy with memory and USB ports |
US20090117819A1 (en) | 2007-11-07 | 2009-05-07 | Nakamura Michael L | Interactive toy |
KR100995807B1 (ko) | 2008-03-28 | 2010-11-22 | 성균관대학교산학협력단 | 컨텐츠가 매일 업데이트 되는 대화형 완구 및 그 동작방법 |
US8689131B2 (en) * | 2009-01-21 | 2014-04-01 | Microsoft Corporation | Visual creation of computer-based workflows |
GB201005718D0 (en) | 2010-04-06 | 2010-05-19 | Lipman Steven | Interacting toys |
-
2007
- 2007-07-19 GB GB0714148A patent/GB0714148D0/en not_active Ceased
-
2008
- 2008-07-18 EP EP20080775985 patent/EP2180928A2/en not_active Withdrawn
- 2008-07-18 US US12/528,782 patent/US8795022B2/en not_active Expired - Fee Related
- 2008-07-18 JP JP2010516579A patent/JP5628029B2/ja not_active Expired - Fee Related
- 2008-07-18 CN CN200880106641.8A patent/CN101801485B/zh not_active Expired - Fee Related
- 2008-07-18 WO PCT/GB2008/002457 patent/WO2009010760A2/en active Application Filing
-
2009
- 2009-01-21 CN CN200980127979.6A patent/CN102170945B/zh not_active Expired - Fee Related
- 2009-01-21 US US13/054,789 patent/US8827761B2/en not_active Expired - Fee Related
-
2014
- 2014-03-04 US US14/197,133 patent/US20150140893A1/en not_active Abandoned
- 2014-06-16 JP JP2014123620A patent/JP2014195718A/ja active Pending
- 2014-07-21 US US14/337,134 patent/US20150111465A1/en not_active Abandoned
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006114625A2 (en) * | 2005-04-26 | 2006-11-02 | Steven Lipman | Toys |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014112811A (ja) * | 2011-12-21 | 2014-06-19 | Canon Marketing Japan Inc | 撮影システム、撮影装置、制御方法、及びプログラム |
WO2015033656A1 (ja) * | 2013-09-05 | 2015-03-12 | 株式会社バンダイ | 玩具システム及びプログラム |
JP2015051064A (ja) * | 2013-09-05 | 2015-03-19 | 株式会社バンダイ | 玩具システム及びプログラム |
WO2020241441A1 (ja) * | 2019-05-29 | 2020-12-03 | 株式会社バンダイ | システム、装置、方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
EP2180928A2 (en) | 2010-05-05 |
WO2009010760A2 (en) | 2009-01-22 |
US20150111465A1 (en) | 2015-04-23 |
US20150140893A1 (en) | 2015-05-21 |
JP5628029B2 (ja) | 2014-11-19 |
US20120015734A1 (en) | 2012-01-19 |
CN102170945B (zh) | 2015-11-25 |
GB0714148D0 (en) | 2007-08-29 |
CN101801485A (zh) | 2010-08-11 |
CN101801485B (zh) | 2015-09-30 |
JP2014195718A (ja) | 2014-10-16 |
CN102170945A (zh) | 2011-08-31 |
US8795022B2 (en) | 2014-08-05 |
WO2009010760A3 (en) | 2009-06-25 |
WO2009010760A4 (en) | 2009-09-11 |
US8827761B2 (en) | 2014-09-09 |
US20110143631A1 (en) | 2011-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5628029B2 (ja) | 対話式玩具 | |
JP5404781B2 (ja) | 対話式玩具 | |
JP2011528246A5 (ja) | ||
US6110000A (en) | Doll set with unidirectional infrared communication for simulating conversation | |
JP3494567B2 (ja) | 携帯用通信玩具及び情報記憶媒体 | |
US20130059284A1 (en) | Interactive electronic toy and learning device system | |
US10643482B2 (en) | Fill-in-the-blank audio-story engine | |
US20070256547A1 (en) | Musically Interacting Devices | |
US20130130587A1 (en) | Interactive toy apparatus and method of using same | |
WO2014096812A2 (en) | Interacting toys | |
JP2003205483A (ja) | ロボットシステム及びロボット装置の制御方法 | |
US20100041304A1 (en) | Interactive toy system | |
CN107908709A (zh) | 亲子语聊互动方法、装置及系统 | |
Angulo et al. | Aibo jukeBox–A robot dance interactive experience | |
KR101419038B1 (ko) | 시나리오 명령을 통한 완구의 제어 시스템 | |
JPH10328421A (ja) | 自動応答玩具 | |
WO2005038776A1 (en) | Voice controlled toy | |
JP2001334074A (ja) | データダウンロード可能な玩具装置 | |
JP2002301278A (ja) | 玩具、および、遊戯システム | |
CN100384121C (zh) | 交互式计算机音频广播方法及系统 | |
TW589220B (en) | Voice-recognizable interactive doll | |
TW200909035A (en) | Interactive motion toy system and control method therefor | |
WO2000074020A1 (en) | Toy telephone educational or amusement apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110714 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110714 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130522 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20130822 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20130829 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20130918 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20130926 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131216 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20140313 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20140320 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20140414 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20140421 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140616 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20140616 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140717 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140901 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141001 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5628029 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |