JP3860409B2 - ペットロボット装置及びペットロボット装置プログラム記録媒体 - Google Patents
ペットロボット装置及びペットロボット装置プログラム記録媒体 Download PDFInfo
- Publication number
- JP3860409B2 JP3860409B2 JP2000359541A JP2000359541A JP3860409B2 JP 3860409 B2 JP3860409 B2 JP 3860409B2 JP 2000359541 A JP2000359541 A JP 2000359541A JP 2000359541 A JP2000359541 A JP 2000359541A JP 3860409 B2 JP3860409 B2 JP 3860409B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- pet robot
- robot apparatus
- command
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Toys (AREA)
- Manipulator (AREA)
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
Description
【発明の属する技術分野】
本発明は、玩具などとして用いられるペット型のロボットに関し、特に、ペットロボット装置のヒューマンインタフェース技術に関する。
【0002】
【従来の技術】
近年、イヌやネコ、鳥などを模倣したさまざまなペット型のロボットが、玩具などとして広く市販され提供されるようになってきた。この種のペット型のロボットのことをペットロボット装置と呼ぶ。ペットロボット装置の多くは、電気モータなどを用いた駆動機構、スピーカによる音声出力機構、さらに各種センサを用いた入力機構を備えており、利用者からの入力に対して、動きや発声などに代表されるさまざまな出力を行う。この入力と出力との関係が、人間とロボットとの関係となる。玩具などとしてペットロボット装置を利用する場合、この入出力の関係が非常に重要となる。
【0003】
ペットロボットに用いられるセンサとしては、マイクロホンによる聴覚センサ、圧電センサなどによる接触(触られたかどうか)センサ、赤外線レーダなどによる距離センサ、カメラによる視覚センサなどがある。聴覚センサなどを用いた場合には、例えば音声認識技術によって、人間の発話をペットロボット装置が解釈し、それによって何らかの動作を行う、といったことが行われている。しかしながら、視覚センサへの入力に応じて適切な出力を得ようとする場合、カメラで受像した画像の内容を正しく認識する必要があるが、現在の画像認識技術では、画像の形状、色などは理解できても、その画像が「りんご」という果物であるか、など、画像が表す意味まで理解することが困難である。
【0004】
【発明が解決しようとする課題】
そこで本発明の目的は、ペットロボット装置に入力として例えば画像情報を与えて出力を得る際に、その画像情報等に対して人間が理解する内容と同じものを理解し、人間との間のコミュニケーションをより自然なものとすることができるペットロボット装置を提供することにある。
【0005】
【課題を解決するための手段】
本発明のペットロボット装置は、利用者によって提示された情報を受け取って、その情報に反応するペットロボット装置であって、情報として提示されるアナログ画像を撮影する入力手段と、入力手段によって取り込まれた画像から、提示されたアナログ画像に電子透かしとして埋め込まれているそのアナログ画像の有する意味情報に対応したペットロボット装置の動作を規定する情報を検出する電子透かし検出手段と、検出された情報をコマンド情報としてコマンド情報に対応したコマンド動作を実行するコマンド実行手段と、を備えている。
【0006】
本発明では、提示される情報はアナログ画像であり、ペットロボット装置には、そのアナログ画像を入力するための入力手段としてのカメラが設けられる。また、アナログ画像には、ペットロボット装置がその画像を見た際の動作や画像の内容を表す情報を、透かし情報として予め電子透かし技術によって埋め込んでおく。その結果、人間の目には電子透かし自体は知覚されないので、人間はその画像にそのような情報が埋め込まれていることは認識できないが、ペットロボット装置は、電子透かし検出を行うことによって、埋め込まれている情報を読み取り、それに応じた動作を行うことができる。これによって人間がペットロボット装置に提示した画像の意味をペットロボット装置が取得し、それに応じた動作を行うことができる。また、人間は別の情報を知覚することができないので、「ペットが画像の内容を理解した」と感じる。「人間にすぐに分かるがロボットには理解が難しい情報」である意味を、「人間には分からないがロボットには分かる情報」である電子透かしによって伝えるのである。これによって人間とペットロボット装置間のコミュニケーションをより自然なものとすることが可能となる。
【0007】
【発明の実施の形態】
次に、本発明の好ましい実施の形態について、図面を参照して説明する。
【0008】
[第1の実施の形態]
図1は、本発明の第1の実施の形態のペットロボット装置の概形を示す斜視図である。このペットロボット装置10は、イヌやネコなどの愛玩動物(図示した例ではイヌ)の形態を模倣したものとなっているが、実在しない動物などを象った形態としてもよい。ペットロボット装置10には、入力手段としてカメラ11が設けられている。カメラ11は、ペットロボット装置10の顔の部分にある目の内部に設けられている。カメラ11は、ペットロボット装置10に対して、画像(特に、電子透かし入りアナログ画像12)を入力するために使用される。
【0009】
さらに、図1には示していないが、このペットロボット装置10は、現在市販されているペットロボット装置と同様に、聴覚センサ(マイクロホンなど)、接触センサ(圧電センサなど)、四肢や首を駆動するための駆動機構(モータなど)、音声を発するためのスピーカなどの発音機構を備えており、また、後述するように、これらのカメラ11やセンサ類からの入力に応じて駆動機構を駆動しあるいは音声合成技術により発音機構から音声を出力させる制御部を備えている。
【0010】
図2は、このペットロボット装置10への画像入力を説明している。カメラ11は、通常の視覚センサとしての機能を有するほか、電子透かし入りアナログ画像12を撮像して画像データとして取り込むために使用される。ここで電子透かし入りアナログ画像12は、画像に対し電子透かし技術によって別の情報(以下、透かし情報ともいう)を埋め込んだものを、印刷やディスプレイ表示などアナログ的な方法で出力したものである。この実施の形態では、透かし情報として、ペット型ロボット10に対するコマンド情報を用いる。コマンド情報とは、例えば、「走る」、「鳴く」、「口を開ける」など、ペット型ロボット10の出力を規定する情報である。実際には、コマンド実行部17が認識可能なコマンド用言語によるコマンド文字列として記述されるものである。
【0011】
ここで、電子透かし入りアナログ画像12について説明する。電子透かし入りアナログ画像12は、公知の電子透かし入れ技術を用いて作成されるものである。例えば、人間が見た場合にはりんごにしか見えない電子透かし入りアナログ画像12を生成する場合には、(電子透かしが入れられていない)ベースとなるりんごが描かれた画像を用意する。この画像が、銀塩写真や紙に描かれたものなどアナログ画像である場合には、スキャナで読み取るなどしてデジタル画像に変換する。一方で、この画像に埋め込むべき透かし情報として、コマンド情報を用意する。
【0012】
次に、所定の電子透かし挿入アルゴリズムにより、埋め込むべき透かし情報をデジタル画像に電子透かしとして挿入する。本発明の場合、人間とペットロボット装置とのコミュニケーションの向上を図ることが目的であるから、電子透かし入れされた画像は、挿入された電子透かし自体は人間に知覚されてはならないが、画像としては人間が容易に見ることができ、かつ取扱うことができなければならない。そこで、電子透かしが挿入されたデジタル画像は、プリンタで印刷する、あるいはCRTなどの表示装置で表示するなどして、アナログ画像に変換する必要がある。このようにして、電子透かし入りアナログ画像12が生成される。
【0013】
次に、ペットロボット装置10の内部構成を説明する。ペットロボット装置10の内部には、カメラ11の他に、カメラ11で取り込んだ画像から電子透かしとして透かし情報を検出する電子透かし検出手段である電子透かし検出部13と、マイクロホンなどで構成された聴覚センサ14と、圧電センサなどで構成された接触センサ15と、聴覚センサ14及び接触センサ15に対する入力に応じてこのペットロボット装置10が実行すべき動作(例えば、歩行する、鳴く、喋るなど)を決定しコマンドとして出力するコマンド決定部16と、電子透かし検出部13からの透かし情報及びコマンド決定部16からのコマンドに応じてコマンドを実行するコマンド実行手段であるコマンド実行部17と、コマンド実行部17によって動作が制御される駆動機構18と、コマンド実行部17によって動作が制御される発音機構19と、を備えている。電子透かし検出部13は、カメラ11で撮影した電子透かし入りアナログ画像12をデジタル画像に変換し、電子透かし入りアナログ画像12に電子透かしを挿入する際に用いられた電子透かし挿入アルゴリズムに対応する電子透かし検出アルゴリズムを用いて、電子透かしを検出する。また、駆動機構18は、立ったり座ったりあるいは四肢を動かすためのモータ、口をぱくつかせるためのモータ、首を動かすためのモータなどを備えている。電子透かし検出部13、コマンド決定部16及びコマンド実行部17によって、ペットロボット装置10の制御部20を構成している。
【0014】
次に、図4を用いて、このペットロボット装置10の動作を説明する。
【0015】
ペットロボット装置10は、まずカメラ11によって電子透かし入りアナログ画像12を入力し(ステップ101)、電子透かし検出部13において取り込み画像から電子透かしの検出を試みる(ステップ102)。検出が成功した場合、電子透かし検出部13は、検出した透かし情報をコマンド実行部17に送る。その結果、コマンド実行部17は、受け取った透かし情報をコマンドとみなして対応するコマンド動作を行い、そのコマンドの内容に応じて駆動機構18あるいは発音機構19の動作の制御を行う(ステップ103)。なお、ステップ102において検出に失敗した場合には、電子透かし検出部13は、その旨を表す情報をコマンド出力部17に送る。
【0016】
この第1の実施の形態によれば、電子透かし技術によってコマンド情報が埋め込まれたアナログ画像をペットロボットに見せることで、アナログ画像に対応した何らかの動作をペットロボットに行わせることができる。例えば「りんご」の絵を見せたときに口をパクパクさせたり、ネズミ型ロボットに猫の絵を見せると逃げ出す、といった、人間が提示した画像との因果関係が分かりやすい出力をペットロボット装置に行わせることができる。
【0017】
[第2の実施の形態]
次に、本発明の第2の実施の形態のペットロボット装置について説明する。図5は、この第2の実施の形態のペットロボット装置の概形を示す斜視図であり、図6は、このペットロボット装置の構成を示すブロック図である。
【0018】
このペットロボット装置21は、ネットワーク22を介してサーバ23に接続するように構成されている。ペットロボット装置21は、図1に示したペットロボット装置10とほぼ同様の構成のものであるが、ネットワーク22を介してサーバ23に接続するための通信処理手段である通信処理部24を備え、電子透かし検出部13によって検出された透かし情報を通信処理部24を介していったんサーバ23に送り、サーバ23がこの透かし情報をコマンド列に変換したとして通信処理部24を介して受信したこのコマンド列がコマンド実行部17に与えられるようになっている点で相違する。図6において、図1と同じ符号が付されたものは、図1におけるものと同じ機能ブロックであるので、ここでは説明を繰り返さない。
【0019】
ペットロボット装置21は、有線または無線の何らかの手段によって、ネットワーク22に接続しており、ネットワーク22経由でサーバ23と通信することが可能である。この場合、ペットロボット装置21が無線/有線でネットワーク22に直接接続している必要はない。例えば、ペットロボット装置21がパーソナルコンピュータ(不図示)と無線で通信し、このパーソナルコンピュータは有線でネットワーク22と接続しており、結果的にペットロボット装置21とサーバ23がネットワーク22経由で通信できるような形態であってもよい。
【0020】
図7は、サーバ23の構成を示している。サーバ23は、ネットワーク22を介して通信するための通信処理部31と、コマンド列ID(識別番号)とコマンド列との対応を記述したコマンド列データベース32と、透かし情報として植えうけ取ったコマンド列IDに基づいてコマンド列データベース32を検索して対応するコマンド列を取得する検索処理部33と、を備えている。ここでコマンド列とは、コマンド情報の一形態であって、「走る」、「鳴く」、「口を開ける」といった単機能のコマンドを複数組み合わせて表現されるコマンドの集合である。
【0021】
次に、このペットロボット装置の動作について、図8のフローチャートを使用して説明する。
【0022】
ペットロボット装置21は、まずカメラ11によって電子透かし入りアナログ画像12を入力し(ステップ111)、電子透かし検出部13において取り込み画像から電子透かしの検出を試みる(ステップ112)。検出が成功した場合、電子透かし検出部13は、検出した透かし情報を通信処理部24に送り、ネットワーク22経由でサーバ23に透かし情報を送る。ここでは透かし情報としてコマンドIDを用いているので、サーバ23は、ペットロボット装置21から送信されてきた透かし情報をコマンド列IDとみなし、検索処理部33によって、対応するコマンド列をコマンド列データベース32から検索し、得られたコマンド列をペットロボット装置21に送信する(ステップ113)。ペットロボット装置21は、通信処理部24において、サーバ23から送信されてきたコマンド列を受信し、これをコマンド実行部17に送る。コマンド実行部17は、駆動機構18及び/又は発声機構19を制御することにより、受信したコマンド列に対応する複数のコマンド動作を行う(ステップ114)。なお、ステップ112において検出に失敗した場合には、電子透かし検出部13は、その旨を表す情報をコマンド出力部17に送る。
【0023】
この第2の実施の形態によれば、第1の実施の形態と比較して、電子透かし入りアナログ画像12をペットロボット装置に見せたときのペットロボット装置の動作が、単機能のコマンドでなく、コマンドの組合せであるコマンド列として行われるので、より複雑な動作をペットロボット装置が行うことができ、表現力が向上する。これによって、人間とペットロボット装置との間のコミュニケーションをより自然なものにすることが可能となる。また、コマンド列データベースの内容を更新することで、同じ電子透かし入りアナログ画像を見せても、ペットロボット装置が異なる動作をするようにできる。
【0024】
[第3の実施の形態]
次に本発明の第3の実施の形態について説明する。図9はこの第3の実施の形態のペットロボット装置の構成を示すブロック図であり、図10は、ペットロボット装置の動作を示すフローチャートである。
【0025】
このペットロボット装置41は、ネットワーク22を介してサーバ43に接続するように構成されている。ペットロボット装置41は、図5に示したペットロボット装置21とほぼ同様の構成のものであるが、獲得知識データベース46と、獲得知識データベース46に属性情報を追加するとともに獲得知識データベース46を検索するための知識処理部47を有し、透かし情報として画像IDを使用し、サーバ43からはコマンド列ではなくて属性情報を受け取り、この属性情報に応じて知識処理部47によって獲得知識データベース46を検索した結果に応じてコマンド実行部17にコマンドが与えられるようになっている点で相違する。また、サーバ43も、図7に示したサーバ23と同様のものであるが、コマンド列データベース32の代わりに属性情報データベース48を備えている点で相違する。図9及び図10において、図6あるは図7におけるものと同じ符号が付されたものは、図6あるいは図7におけるものと同じ機能ブロックであるので、ここでは説明を繰り返さない。
【0026】
属性情報データベース48は、画像IDと属性情報を対応づけて構成されているデータベースである。属性情報とは、例えば「画像に描かれているものの名前」、「そのものがどういったカテゴリに分類されるか」、「その色や形などの特徴」など、画像に描かれているものに関するさまざまな情報である。図示した例では、属性情報として「名前」、「分類」、「色」の3種類があり、赤いりんごを表す電子透かし入りアナログ画像に埋め込まれている画像IDが00000001であるとして、この画像IDに対応して、名前「りんご」、分類「食べ物」、色「赤」が格納されている。また、獲得知識データベース46は、属性情報データベース48と同じように構成されており、過去にサーバ43から得た属性情報を蓄積する。
【0027】
次に、図11を用いて、このペットロボット装置での処理を説明する。
【0028】
ペットロボット装置41は、まずカメラ11によって電子透かし入りアナログ画像12を入力し(ステップ121)、電子透かし検出部13において取り込み画像から電子透かしの検出を試みる(ステップ122)。検出が成功した場合、電子透かし検出部13は、検出した透かし情報を通信処理部24に送り、ネットワーク22経由でサーバ43に透かし情報を送る。ここでは透かし情報として画像IDを用いているので、サーバ43は、ペットロボット装置41から送信されてきた透かし情報を画像IDとみなし、検索処理部33によって、対応する属性情報を属性情報データベース48から検索し、得られた属性情報をペットロボット装置41に送信する。ペットロボット装置41は、通信処理部24において、サーバ43から送信されてきた属性情報を受信し、これを知識処理部47により獲得知識データベース46に格納する(ステップ123)。
【0029】
コマンド実行部17は、知識処理部47を介して獲得知識データベース46を参照し、予め定まった動作のパラメータとして属性情報を用いてコマンド動作を行う(ステップ124)。具体的には、コマンド実行部17は、駆動機構18及び/又は発声機構19を制御することにより、属性情報に基づくコマンド動作を行う。
【0030】
なお、ステップ122において検出に失敗した場合には、電子透かし検出部13は、その旨を表す情報をコマンド出力部17に送る。
【0031】
この第3の実施の形態では、第1及び第2の実施の形態と比較して、電子透かし入りアナログ画像12に埋め込む電子透かしとして、その画像をペットロボット装置に見せたときのペットロボット装置の動作を単純に記述したものではなく、その画像の意味が何であるかを表す情報を表すものを使用する。そして、その画像を見せたときに、ある定型的な動作のパラメータとして獲得したその属性情報が用いられるようにする。例えば、電子透かし入り画像を見たら「それって○○だね」と喋る、という定型動作があった場合、属性情報の名前で与えられる情報を○○部分に当てはめることで、りんごの画像を見せたときに、「それってりんごだね」とペットロボット装置が喋る、といったことが可能となる。一度獲得した属性情報は、ペットロボット装置内の獲得知識データベース46に蓄積されるので、蓄積されたたくさんの属性情報を元にペットロボット装置が学習していく、といったことも可能となる。例えば、最初にりんごを見せたときには「それってりんごだね」と喋っていたペットロボット装置が、次にバナナの画像を見せられた場合、分類が「果物」であるという観点から、「果物だったらりんごの方が好き」などと喋ることが可能となる。さらに画像IDと結びつけられている属性情報として、ロボットに与える新たな定型動作プログラム情報というものも実現できる。これによれば、「りんご」を見るまでは「○○っておいしいね、と喋る」という動作ができなかったペットロボットが、りんごの画像によって得られた属性情報から「○○っておいしいね、と喋る」定型動作プログラムを獲得して、以後「○○っておいしいね、と喋る」ことができるようになる。さらに、以前に検出した画像IDと同じものを見せられた場合は、「それはさっき見たよ、と喋る」といった定型動作プログラムを選択して実行するようにしてもよい。これらは利用者である人間からするとペットロボットが新たな知識や概念を獲得したように見える。これによって、人間とペットロボット間のコミュニケーションをより自然なものにすることが可能となる。
【0032】
以上本発明の好ましい実施の形態について説明したが、各実施の形態におけるペットロボット装置10,21,41は、それを実現するための計算機プログラムを、組込み型マイクロコンピュータなどの計算機に読み込ませ、そのプログラムを実行させることによっても実現できる。実際にはこの計算機は、図2、図6あるいは図9における処理部20の処理を実行する。ペットロボット装置を実現するためのプログラムは、メモリカードなどの記録媒体によって、計算機に読み込まれる。図12は、ペットロボット装置の制御を行う計算機の構成を示すブロック図である。
【0033】
この計算機は、中央処理装置(CPU)51と、ペットロボットととしての基本的な動作(電子透かし入りアナログ画像を見たときの動作以外の動作)のプログラムやデータを格納する不揮発性メモリ52と、計算領域などとして使用されるRAM(ランダムアクセスメモリ)53と、カメラ11や聴覚センサ14、接触センサ15からのデータが入力するデータ入力部54と、駆動機構18や発声機構19などへの出力インタフェースとなるデータ出力部55と、メモリカード等の記録媒体57を読み取る読み取り装置56とから構成されている。さらに、第2及び第3の実施の形態のようにサーバ側と通信する場合には、通信インタフェース58が設けられる。不揮発性メモリ52、RAM53、データ入力部54、データ出力部55、読み取り装置56及び通信インタフェース58は、いずれも中央処理装置51に接続している。第3の実施の形態の場合、獲得知識データベース46も、不揮発性メモリ52内に設けられる。
【0034】
この計算機は、上述したような電子透かし入りアナログ画像12を見せられたときの処理を記述したプログラムを格納した記録媒体57を読み取り装置56に装着し、記録媒体57からプログラムを読み出してこのプログラムを中央処理装置51が実行することにより、上述したようなペットロボット装置10,21,41としての動作が行われるようになる。
【0035】
このように計算機システムを構成する場合、ペットロボット装置を、物理的な実在として設けるのではなく、計算機の表示画面上に愛玩動物としての形態で仮想的に表示されるものとすることも可能である。その場合は、駆動機構や発生機構とのインタフェースとなるデータ出力部の代わりに表示装置を設ければよい。ただし、電子透かし入りアナログ画像を入力するためのカメラ及びデータ入力部は必要である。ペットの動作は、画面上でのペットの表示のされ方や、計算機の持つ音声出力機能などによって実現される。
【0036】
なお、サーバ23,43も、それを実現するための計算機プログラムを、パーソナルコンピュータやサーバ用コンピュータなどの計算機に読み込ませ、そのプログラムを実行させることによっても実現できる。
【0037】
以上述べた発明の実施の形態では、画像を用いたコミュニケーションに本発明を適用する場合を示したが、音声情報に対する電子透かし技術も既に存在することから、楽曲などの音声情報に電子透かしを埋め込み、上記と同様にペットロボット装置に動作をさせることが可能である。また、その他の電子透かし技術の中で適応可能なものであれば、それに対応するセンサをペットロボットに用意すれば、上記実施の形態と同様のことを実現できる。いずれにせよ、電子透かしを用いることにより、「人間にはすぐ分かるがロボットには理解が難しい情報」である意味情報をロボットに伝えることが可能になって、あたかもペットロボット装置が人間の提示した画像の意味を理解し動作しているように見せることができ、人間とペットロボット装置との間のコミュニケーションをより自然なものにすることができる。
【0038】
【発明の効果】
以上説明したとおり、本発明によれば、「人間にはすぐ分かるがロボットには理解が難しい情報」である意味情報を、「人間には分からないがロボットには分かる情報」である電子透かしによって伝えることによって、あたかもペットロボットが人間の提示した画像の意味を理解し、動作しているように見せることができ、人間とペットロボット間のコミュニケーションをより自然なものにすることが可能となる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態のペットロボット装置の概形を示す斜視図である。
【図2】図1に示すペットロボット装置への画像入力を説明する図である。
【図3】図1に示すペットロボット装置の内部構成を示すブロック図である。
【図4】図1に示すペットロボット装置における処理を示すフローチャートである。
【図5】本発明の第2の実施の形態のペットロボット装置の概形を示す斜視図である。
【図6】図5に示すペットロボット装置の内部構成を示すブロック図である。
【図7】図5に示すペットロボット装置に接続するサーバの内部構成を示すブロック図である。
【図8】図5に示すペットロボット装置における処理を示すフローチャートである。
【図9】本発明の第3の実施の形態のペットロボット装置の内部構成を示すブロック図である。
【図10】本発明の第3の実施の形態のペットロボット装置に接続するサーバの内部構成を示すブロック図である。
【図11】図9に示すペットロボット装置における処理を示すフローチャートである。
【図12】ペットロボット装置の制御を行う計算機の構成を示すブロック図である。
【符号の説明】
10,21,41 ペットロボット装置
11 カメラ
12 電子透かし入りアナログ画像
13 電子透かし検出部
14 聴覚センサ
15 接触センサ
16 コマンド決定部
17 コマンド実行部
18 駆動機構
19 発音機構
20 処理部
22 ネットワーク
23,43 サーバ
24,31 通信処理部
32 コマンド列データベース
33 検索処理部
46 獲得知識データベース
47 知識処理部
48 属性情報データベース
Claims (6)
- 利用者によって提示された情報を受け取って、該情報に反応するペットロボット装置であって、
前記情報として提示されるアナログ画像を撮影する入力手段と、
前記入力手段によって取り込まれた画像から、前記アナログ画像に電子透かしとして埋め込まれている当該アナログ画像の有する意味情報に対応した前記ペットロボット装置の動作を規定する情報を検出する電子透かし検出手段と、
前記検出された情報をコマンド情報として該コマンド情報に対応したコマンド動作を実行するコマンド実行手段と、
を有するペットロボット装置。 - 利用者によって提示された情報を受け取って、該情報に反応するペットロボット装置であって、
前記情報として提示されるアナログ画像を撮影する入力手段と、
前記入力手段によって取り込まれた画像から、前記アナログ画像に電子透かしとして埋め込まれている当該アナログ画像の有する意味情報に対応した前記ペットロボット装置の動作を規定する情報を検出する電子透かし検出手段と、
前記検出された情報を透かし情報として外部サーバに送信し、前記外部サーバから前記透かし情報に対応するコマンド情報を受信する通信処理手段と、
受信したコマンド情報に対応したコマンド動作を実行するコマンド実行手段と、
を有するペットロボット装置。 - 利用者によって提示された情報を受け取って、該情報に反応するペットロボット装置であって、
前記情報として提示されるアナログ画像を撮影する入力手段と、
前記入力手段によって取り込まれた画像から、前記アナログ画像に電子透かしとして埋め込まれていた画像IDを検出する電子透かし検出手段と、
前記画像IDに対応し、前記アナログ画像に描かれているものの名前を含む、当該アナログ画像の意味を表す複数の項目からなる属性情報を獲得する属性情報取得手段と、
獲得した属性情報を定型動作プログラムのパラメータに適用してコマンド動作を実行するコマンド実行手段と、
を有するペットロボット装置。 - 利用者によって提示された情報を受け取って該情報に反応するペットロボット装置を制御する計算機が読み取り可能な記録媒体であって、
前記計算機を、
前記情報として提示されたアナログ画像を撮像して得られた画像から、該アナログ画像に電子透かしとして埋め込まれている当該アナログ画像の有する意味情報に対応した前記ペットロボット装置の動作を規定する情報を検出する電子透かし検出手段、及び
前記検出された情報をコマンド情報として該コマンド情報に対応したコマンド動作を実行するコマンド実行手段として機能させるためのプログラムを格納したペットロボット装置プログラム記録媒体。 - 利用者によって提示された情報を受け取って該情報に反応するペットロボット装置を制御する計算機が読み取り可能な記録媒体であって、
前記計算機を、
前記情報として提示されたアナログ画像を撮像して得られた画像から、該アナログ画像に電子透かしとして埋め込まれている当該アナログ画像の有する意味情報に対応した前記ペットロボット装置の動作を規定する情報を検出する電子透かし検出手段、
前記検出された情報を透かし情報として外部サーバに送信し、前記外部サーバから前記透かし情報に対応するコマンド情報を受信する通信処理手段、及び
受信したコマンド情報に対応したコマンド動作を実行するコマンド実行手段として機能させるためのプログラムを格納したペットロボット装置プログラム記録媒体。 - 利用者によって提示された情報を受け取って該情報に反応するペットロボット装置を制御する計算機が読み取り可能な記録媒体であって、
前記計算機を、
前記情報として提示されたアナログ画像を撮像して得られた画像から、該アナログ画像に電子透かしとして埋め込まれていた画像IDを検出する電子透かし検出手段、
前記画像IDに対応し、前記アナログ画像に描かれているものの名前を含む、当該アナログ画像の意味を表す複数の項目からなる属性情報を獲得する属性情報取得手段、及び
獲得した属性情報を定型動作プログラムのパラメータに適用してコマンド動作を実行するコマンド実行手段として機能させるためのプログラムを格納したペットロボット装置プログラム記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000359541A JP3860409B2 (ja) | 2000-11-27 | 2000-11-27 | ペットロボット装置及びペットロボット装置プログラム記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000359541A JP3860409B2 (ja) | 2000-11-27 | 2000-11-27 | ペットロボット装置及びペットロボット装置プログラム記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002160184A JP2002160184A (ja) | 2002-06-04 |
JP3860409B2 true JP3860409B2 (ja) | 2006-12-20 |
Family
ID=18831292
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000359541A Expired - Fee Related JP3860409B2 (ja) | 2000-11-27 | 2000-11-27 | ペットロボット装置及びペットロボット装置プログラム記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3860409B2 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2005034446A1 (ja) * | 2003-10-03 | 2006-12-14 | 富士通株式会社 | ポリシールール適用ネットワークシステム |
WO2006030498A1 (ja) * | 2004-09-15 | 2006-03-23 | Telemidic, Ltd. | 電子透かしシステム |
GB2448883A (en) * | 2007-04-30 | 2008-11-05 | Sony Comp Entertainment Europe | Interactive toy and entertainment device |
KR101266374B1 (ko) * | 2009-12-31 | 2013-05-22 | 한국기술교육대학교 산학협력단 | 비전시스템 접목형 보행로봇의 모션 수행 방법 |
JP5172049B2 (ja) * | 2011-06-14 | 2013-03-27 | パナソニック株式会社 | ロボット装置、ロボット制御方法、及びロボット制御プログラム |
JP6814089B2 (ja) * | 2017-05-02 | 2021-01-13 | 株式会社ソニー・インタラクティブエンタテインメント | オブジェクト制御システムおよびオブジェクト制御方法 |
JP2020115943A (ja) * | 2019-01-18 | 2020-08-06 | 国立大学法人大阪大学 | 情報処理装置、情報処理システム、およびセンサ装置 |
-
2000
- 2000-11-27 JP JP2000359541A patent/JP3860409B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2002160184A (ja) | 2002-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TW581959B (en) | Robotic (animal) device and motion control method for robotic (animal) device | |
TWI661363B (zh) | 智慧型機器人及人機交互方法 | |
WO2017215297A1 (zh) | 云端互动系统及其多感知型智能机器人和感知互动方法 | |
US20230305530A1 (en) | Information processing apparatus, information processing method and program | |
TWI430189B (zh) | 訊息擬真處理系統、裝置及方法 | |
US20030214524A1 (en) | Control apparatus and method by gesture recognition and recording medium therefor | |
US11548147B2 (en) | Method and device for robot interactions | |
CN105126355A (zh) | 儿童陪伴机器人与儿童陪伴系统 | |
US20230266767A1 (en) | Information processing apparatus, information processing method, and program | |
WO2019216016A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN109313935A (zh) | 信息处理系统、存储介质和信息处理方法 | |
CN111002303A (zh) | 识别装置、机器人、识别方法和存储介质 | |
EP1182645A1 (en) | Quasi-emotion expression device and method for expressing a plurality of quasi-emotions through voices | |
CN109986553B (zh) | 一种主动交互的机器人、系统、方法及存储装置 | |
JP3860409B2 (ja) | ペットロボット装置及びペットロボット装置プログラム記録媒体 | |
US11938625B2 (en) | Information processing apparatus, information processing method, and program | |
KR102396794B1 (ko) | 전자 장치 및 이의 제어 방법 | |
CN111869226A (zh) | 显示装置及其控制方法 | |
CN110364164B (zh) | 对话控制装置、对话系统、对话控制方法以及存储介质 | |
WO2016206645A1 (zh) | 为机器装置加载控制数据的方法及装置 | |
US20180126561A1 (en) | Generation device, control method, robot device, call system, and computer-readable recording medium | |
JPWO2020153038A1 (ja) | 情報処理装置、および情報処理方法 | |
CN110625608A (zh) | 机器人、机器人的控制方法以及存储介质 | |
US12011828B2 (en) | Method for controlling a plurality of robot effectors | |
JP2001191274A (ja) | データ保持装置、ロボット装置、変更装置及び変更方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20050624 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060515 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20060515 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20060515 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060606 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060804 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060913 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060921 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090929 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100929 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100929 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110929 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |