JP4099003B2 - Pet robot - Google Patents
Pet robot Download PDFInfo
- Publication number
- JP4099003B2 JP4099003B2 JP2002124094A JP2002124094A JP4099003B2 JP 4099003 B2 JP4099003 B2 JP 4099003B2 JP 2002124094 A JP2002124094 A JP 2002124094A JP 2002124094 A JP2002124094 A JP 2002124094A JP 4099003 B2 JP4099003 B2 JP 4099003B2
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- pet robot
- image
- parameter
- pet
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 claims description 101
- 230000008451 emotion Effects 0.000 claims description 48
- 238000001514 detection method Methods 0.000 claims description 27
- 230000009471 action Effects 0.000 claims description 22
- 230000036651 mood Effects 0.000 claims description 8
- 206010027940 Mood altered Diseases 0.000 claims description 6
- 230000000875 corresponding effect Effects 0.000 description 24
- 238000000034 method Methods 0.000 description 21
- 238000003384 imaging method Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 16
- 230000006870 function Effects 0.000 description 13
- 210000003128 head Anatomy 0.000 description 13
- 238000012937 correction Methods 0.000 description 10
- 238000012790 confirmation Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 241000282472 Canis lupus familiaris Species 0.000 description 2
- 206010016322 Feeling abnormal Diseases 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000005195 poor health Effects 0.000 description 2
- 241000238631 Hexapoda Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000003862 health status Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 210000002784 stomach Anatomy 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Toys (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、ペットロボットにかかり、特に、画像を表す画像データを取り扱うと共に、当該画像データに基づいてプリントを作成することが可能なペットロボットに関する。
【0002】
【従来の技術】
従来、特開平11−126017号公報に記載の技術のように、ペットロボットが提案されている。特開平11−126017号公報に記載の技術で代表されるペットロボットは、複数の操作部を備えている。操作部のボタンには、それぞれ「叱る」、「誉める」等の異なる概念が割り当てられており、ユーザがそのボタンを操作することによって、ペットロボットは操作されたボタンに応じた概念に対応する動作を行うようになっている。例えば、割り当てられている概念が「吠える」であると、ペットロボットの口を動かすと同時に鳴き声に対応する音声信号をスピーカーから出力する。このように、特開平11−126017号公報に記載のペットロボットでは、実際のペットに近い動作を行うことができる。
【0003】
また、このようなペットロボットに、飼い主としてのユーザの認識や遊戯としてのボール等の認識のために、撮像素子が設けられたものも提案されている。
【0004】
一方、撮像素子等によって撮影することにより得られる画像データに基づいてプリントを作成する技術が提案されており、例えば、特開平7−159904号公報に記載の技術などがある。
【0005】
特開平7−159904号公報に記載の技術では、フィルムの画像をCCDによって読み取ると共にメモリに記憶する。このとき、フィルムに記録された撮影情報についても読み取る。そして、メモリに記憶された画像データに対して撮影情報から対応する所定の画質補正(輪郭強調、コントラスト強調等)の内容を設定し、この画質補正内容に従って画像処理を施して、画像処理を施した画像データに基づいて記録紙にプリントすることが提案されている。これによって、プリント画像の画質を改善することができる。
【0006】
【発明が解決しようとする課題】
しかしながら、実際に生きている犬や猫等で代表されるペットは、操作ボタンなどを介して飼い主とコミュニケーションをとることはない。現実に生きているペットは、例えば、餌を飼い主からもらったり、あるいは、自分が大切にしているものを渡したりすることで、飼い主とコミュニケーションをとる。すなわち、実際に生きているペットは、何らかの物を飼い主との間でやり取りすることで飼い主とのコミュニケーションをとる。
【0007】
また、特開平11−126017号公報に記載のペットロボットでは、ペットロボットにおける感情等の状態の確認は、ペットロボットの行動(動作)を確認するしかなかった。
【0008】
そこで、本発明は、上記事実を考慮してなされたもので、実施に生きているペットのように深いコミュニケーションをとることができるペットロボットを提供することを目的とする。
【0009】
【課題を解決するための手段】
上記目的を達成するために請求項1に記載の発明は、外部からの行為を検出する検出手段と、少なくとも感情及び体調を含む状態を表す複数のパラメータを有し、前記検出手段によって検出された前記行為に対応する前記パラメータを算出する算出手段と、前記算出手段の算出結果に基づいて、前記行為に対応する喜怒哀楽を表現するように動作を制御する動作制御手段と、を備えたペットロボットであって、被写体を撮影する撮影手段と、前記撮影手段で撮影することによって得られる撮影画像に対して、前記算出手段によって算出された現在の前記状態を表す前記パラメータに合わせて前記喜怒哀楽を表す所定の画像処理を施す画像処理手段と、前記画像処理手段によって前記画像処理が施された前記撮影画像を出力する出力手段と、を含むことを特徴としている。
【0010】
請求項1に記載の発明によれば、ペットロボットは、検出手段によって外部からの行為を検出し、検出手段によって検出された行為に対応する少なくとも感情や体調を含む状態を表すパラメータを算出手段によって算出し、動作制御手段が、算出手段の算出結果に基づいて、行為に対応する喜怒哀楽を表現するように動作を制御する。例えば、予め定めた条件に基づいて現在の感情や体調に対応するパラメータを求めて、求めたパラメータに応じてペットロボットの体を動作する。すなわち、ペットロボットを「叩く」、「なでる」等の検出を条件として、それぞれに対応する動作をするように体を動作させることにより、感情や体調に応じたペットロボットの動作ができるので、実際に生きているペットのような動作ができる。
【0011】
撮影手段は、例えば、ペットロボットの体の一部である、目に相当する位置、鼻に相当する位置、口に相当する位置等に設けて、被写体を撮影する。すなわち、ペットロボットの視点から撮影を行うことができる。
【0012】
また、画像処理手段では、撮影手段で撮影することによって得られる撮影画像に対して、撮影手段で撮影することによって得られる撮影画像に対して、算出手段によって算出された現在の状態を表すパラメータに合わせて喜怒哀楽を表す所定の画像処理が行われる。すなわち、ペットロボットの喜怒哀楽を表すように所定の画像処理が行われる。このように画像処理手段では、ペットロボットの現在の感情や体調を含む状態を表すパラメータに合わせて所定の画像処理が行われるので、撮影画像にペットロボットの感情や体調等の状態を反映することができる。
そして、画像処理手段によって画像処理が施された撮影画像を出力する出力手段を備えているので、画像処理が施された撮影画像を確認することによって、ペットロボットの感情や体調を確認することが可能となる。出力手段としては、例えば、モニタ等の表示手段に撮影画像を表示することによって撮影画像の確認が可能である。
【0013】
実際に生きているペットでは、ペットの排泄物等を確認することによって健康状態を確認することができるが、これと同じように、画像処理手段によって画像処理が施された撮影画像を確認することによってペットロボットの感情や体調等を確認することができるので、実施に生きているペットのように深いコミュニケーションをとることができる。
【0014】
なお、画像処理手段による所定の画像処理は、請求項2に記載の発明のように、複数のパラメータに対応する画像処理条件を記憶する記憶手段をさらに備えておき、画像処理手段が、算出手段によって算出されたパラメータに対応する画像処理条件を記憶手段から読み取って、読み取った画像処理条件で画像処理を行うようにしてもよい。すなわち、感情や体調等の状態に対応する画像処理条件を記憶手段に記憶しておくことにより、ペットロボットの感情や体調等の状態に合わせた画像処理を行うことが可能となる。
【0017】
請求項3に記載の発明は、請求項1又は請求項2に記載の発明において、前記出力手段は、前記画像処理手段によって前記画像処理が施された前記撮影画像に基づいて、記録材料に前記撮影画像を記録する記録手段からなることを特徴としている。
【0018】
請求項3に記載の発明によれば、請求項1又は請求項2に記載の発明において、出力手段として、画像処理手段によって画像処理が施された撮影画像に基づいて、用紙や印画紙等の記録材料に撮影画像を記録する記録手段を用いることが可能であり、記録材料に記録された撮影画像を確認することによって、ペットロボットの感情や体調等の状態を確認することが可能となる。
【0019】
請求項4に記載の発明は、請求項1〜請求項3の何れか1項に記載の発明において、前記検出手段が予め定められた餌に対応する物を検出し、前記算出手段が前記検出手段の検出結果に応じて現在の前記状態を表す前記パラメータを算出することを特徴としている。
【0020】
請求項4に記載の発明によれば、請求項1〜請求項3の何れか1項に記載の発明において、検出手段が予め定められた餌に対応する物、例えば、紙などの物を検出し、算出手段が検出手段の検出結果に応じて感情や体調等を表すパラメータを設定することによって、餌を与える行為によりペットロボットの感情や体調等の状態を変化させることができ、ペットロボットとのコミュニケーションをより深いものとすることが可能となる。
【0021】
請求項5に記載の発明は、請求項1〜請求項4の何れか1項に記載の発明のおいて、前記パラメータは、少なくとも、機嫌がよいことを表す第1パラメータ、機嫌が悪いことを表す第2パラメータ、及び体調が悪いことを表す第3パラメータからなり、前記画像処理手段は、前記求めたパラメータが前記第1パラメータである場合に、良好な画質となるように前記画像処理を行い、前記求めたパラメータが前記第2パラメータである場合に、暗い画質となるように前記画像処理を行い、前記求めたパラメータが第3パラメータである場合に、前記撮影画像が歪んだ画像となるように前記画像処理を行うことを特徴としている。
【0022】
請求項5に記載の発明によれば、請求項1〜請求項4の何れか1項に記載の発明において、感情や体調等を表すパラメータとして、少なくとも、機嫌がよいことを表す第1パラメータ、機嫌が悪いことを表す第2パラメータ、及び体調が悪いことを表す第3パラメータなどを用いることが可能であり、画像処理手段では、第1パラメータに基づいてペットロボットが動作している場合には、良好な画質となるように画像処理を行い、第2パラメータに基づいてペットロボットが動作している場合には、暗い画質となるように画像処理を行い、第3パラメータに基づいてペットロボットが動作している場合には、撮影画像が歪んだ画像となるように画像処理を行うことによって、撮影画像からペットロボットの感情や体調等を確認することが可能である。
【0023】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態の一例を詳細に説明する。
【0024】
図1には、本発明の実施の形態に係わるペットロボット10の外観を示す。ペットロボット10は、例えば、犬や猫等の動物の外形を有して、4足歩行するペット型のロボットである。なお、ペットロボット10はこの他には昆虫型等のペット型のロボットでもよい。また、本実施の形態に係わるペットロボット10は、ペットロボット10の視点から見た画像を撮影すると共に当該撮影によって得られる画像に基づいてプリントを作成する機能を備えている。
【0025】
ペットロボット10は、歩行するための4本の手足12を備え、各手足12の間接部が可動可能とされており、後述するモータ等によって駆動されて、自立歩行するようになっている。また、口14、頭(首)16や尻尾18についても可動可能とされており、同様に後述するモータ等によって駆動されるようになっている。
【0026】
ペットロボット10の目の位置には、ペットロボット10の視点から見た画像を撮影するためのCCD等の撮像素子20が設けられている。
【0027】
また、ペットロボット10の背中には、撮影された画像に基づいて作成されたプリントPを排出する排出口24及びモニタ22が設けられており、モニタ22には、撮影画像の表示やペットロボット10の各種操作のための情報が表示され、排出口24からは、撮影された画像を用紙や印画紙等の記録材料に記録して作成したプリントPを排出するようになっている。なお、モニタ22及び排出口24の配置位置は、ペットロボット10の背中に限るものではなく、例えば、お腹等に配置してもよい。
【0028】
図2には、本実施の形態に係わるペットロボット10を各機能毎に分けた機能ブロック図として示す。
【0029】
本実施の形態に係わるペットロボット10は、図2に示すように、ロボットとしての機能を司る動作機能部30と、ロボットによる撮影及び当該撮影によって得られる撮影画像のプリントPを生成する撮影プリント機能部32と、を有する。
【0030】
動作機能部30は、ユーザのペットロボット10に対する行為等に応じて、ペットロボット10の感情や体調等を表すパラメータを算出するための状態計算部34、状態計算部34の計算結果に応じてペットロボット10の頭16、手足12、口14や尻尾18等を動作させるための制御を行う動作制御部36、動作制御部30の制御によってペットロボット10の頭16、手足12、口14や尻尾18等を動作させる駆動部38、ユーザのペットに対する行為を検出するための外部接触検出部40、ユーザの問いかけ等を検出するための音声認識部42、ペットロボット10の感情をコントロールする一部である紙受取部44、及びペットロボット10の電源や各種操作を行うための操作部46に分けられる。なお、紙受取部44は、餌として予め定めた紙を受け取ると共に、当該紙の受取を検出する。すなわち、餌を得ることができたか否かを検出するようになっており、当該紙受取部44の検出結果に応じてペットロボット10の感情がコントロールされる。
【0031】
動作機能部30では、状態計算部34が外部接触検出部40、音声認識部42及び紙受取部44等の情報を取得して、ペットロボット10の感情や体調等を表すパラメータを算出し、当該パラメータに基づいて、動作制御部36が駆動部38を制御することによってペットロボット10の動作を制御する。これによって、ペットロボット10を実際に生きているペットのように動作させることが可能となる。例えば、頭16をなでたり、餌として予め定めた紙等を口14にくわえさせたり、手足12を触ったり、頭16を叩いたり等のユーザのペットロボット10への行為を外部接触検出部40によって検出することによって、ユーザのペットロボット10に対する行為に対応する感情、すなわちユーザの行為に対応する喜怒哀楽を表現するように、ペットロボット10の動作制御することによって、実際に生きているペットのように動作するようになっている。
【0032】
一方、撮影プリント機能部32は、ペットロボット10の視点から撮影を行うための撮像部48、撮像部48によって得られる画像データに対して各種画像処理を施す画像処理部50、及び撮像部48によって得られる画像データを記録材料に記録することによってプリントPを作成するプリント部52、を有する。
【0033】
撮像部48で撮影することによって得られる画像データは、画像処理部50で各種画像処理が施される。そして、プリント部52では、画像処理部50で画像処理が施された画像データに基づいて、用紙や印画紙等の記録材料に画像が記録されることによってプリントPが作成される。作成されたプリントPは、図1に示す排出部24よりペットロボット10の外に排出される。
【0034】
画像処理部50では、動作機能部30の状態計算部34で算出された、ペットロボット10の感情や体調等を表すパラメータに応じた画像処理が行われる。例えば、状態計算部34で算出されたペットロボット10の感情や体調等を表すパラメータが機嫌のよいことを表すパラメータであった場合には、画像データに対して、通常デジタルカメラ等で行われる色補正やγ補正等の画像処理を行って、プリント部52で綺麗なプリントPを作成できるように処理したり、機嫌の悪いことを表すパラメータであった場合に、画像データに対して、通常デジタルカメラ等で行われる色補正やγ補正等の画像処理を行う他に、コントラストを下げる等の画像処理を行って、プリント部52で暗い画像のプリントPを作成できるように処理したり、体調の悪いことを表すパラメータであった場合に、画像データに対して、通常デジタルカメラ等で行われる色補正やγ補正等の画像処理を行う他に、画像データが表す画像を歪ませる等の画像処理を行って、プリント部52で歪んだ画像のプリントPを作成できるように処理する。
【0035】
すなわち、ユーザが操作部46を操作する等による撮影を指示するタイミングにおける、ペットロボット10の感情や体調等のパラメータに応じて、画像データに対する画像処理を行ってプリントを作成するようになっている。
【0036】
続いて、上述の機能を動作させるための本実施の形態に係わるペットロボット10の電気的構成について説明する。本実施の形態に係わるペットロボット10は、図3に示すように、CPU54、ROM56、RAM58、及びインターフェース(I/F)60がそれぞれ相互通信可能にバス62に接続されたマイクロコンピュータで構成されている。すなわち、ペットロボット10は、CPU54の制御によって動作が統括的に制御される。
【0037】
ROM56には、ペットロボット10を動作させるための種々のプログラム、撮影やプリント作成するための種々のプログラム、ペットロボット10の感情や体調等を表し、当該感情や体調等に応じてペットロボット10を動作させるためのパラメータ、当該パラメータに対応する画像処理条件等が記憶されており、RAM58には、後述する撮像素子の撮影によって得られる画像データ等が記憶される。なお、ROM56は本発明の記憶手段に相当する。
【0038】
I/F60には、ペットロボット10の背中に設けられ、撮像素子20の撮影によって得られる画像や各情報の表示を行うモニタ22が、表示回路64を介して接続されている。なお、モニタ22は本発明の出力手段に相当する。
【0039】
また、I/F60には、ペットロボット10の手足12、頭16、口14、尻尾18などを駆動するためのモータ66が駆動回路68を介して接続されており、CPU54の演算結果に応じてモータ66が駆動されて、ペットロボット10の感情や体調等に応じた動作がなされるようになっている。また、これら手足12、頭16、口14、尻尾18等には、ユーザがペットに接した行為(例えば、頭16をなでる、手足12を触る、尻尾18を引っ張る等の行為)を検出するための各種検出装置70が設けられており、各種検出装置70は、外部接触検出回路72を介してI/F60に接続され、ユーザがペットに接したときの行為を検出できるようになっている。各種検出装置70としては、例えば、ユーザのペットロボット10への行為による手足12や頭16の動きを検出するためのエンコーダや、頭16をなでたこと等を検出するための各種スイッチ等が上げられる。なお、各種検出装置70には、口14に設けられて、餌としての紙を検出するセンサなども含まれる。
【0040】
すなわち、CPU54は、各種検出装置70の検出結果に基づいて、ROM56に記憶されたペットロボット10の感情や体調等を表すパラメータを求めて、当該パラメータに基づいて、手足12、頭16、口14、尻尾18等を駆動させることによって、ペットロボット10の動作によって感情や体調等を表現するようになっている。例えば、本実施の形態に係わるペットロボット10は、予め餌として予め定めた紙を口14に与える(口14にくわえさせる)ことによって、機嫌がよくなることを表すパラメータが設定されて、当該パラメータに応じて機嫌がよいことを表す動作等を行うようになっている。
【0041】
また、ペットロボット10には、マイク74が音声認識回路76を介してI/F60に接続されており、ユーザのペットロボット10への問いかけ(例えば、名前を呼ぶ等の問いかけなど)を検出し、音声認識回路76によって音声認識がなされるようになっている。なお、音声認識は、ユーザが予めペットロボット10の名前等を音声登録(図示しない不揮発性メモリ等に記憶)させることによって行うことが可能である。
【0042】
さらに、ペットロボット10には、ペットロボット10の電源オンオフ、撮影指示や各種設定等を行うための操作ボタン78が設けられており、該操作ボタン78がI/F60に接続されている。
【0043】
ペットロボット10には、上述したように、ペットロボット10の視点からの撮影が可能とされており、該撮影はCCD等の撮像素子20によって行われる。撮像素子20は、ペットロボット10の目の位置に設けられている。なお、撮像素子20は、当該撮影機能の他に、ペットロボット10の周りの障害物等を認識するための画像を取り込む機能等も有している。また、撮像素子20は、ペットロボット10の目の位置に限るものではなく、例えば、口の中等に設けるようにしてもよい。
【0044】
撮像素子20は増幅器84及びA/D変換器86を介してI/F60に接続されており、撮像素子20に結像される画像が画像データとしてI/F60を介して画像データ処理回路80に取り込まれるようになっている。なお、撮像素子20は、I/F60に接続された撮像素子駆動回路88によって駆動される。
【0045】
なお、撮像素子20及び撮像素子駆動回路88は本発明の撮影手段に相当する。
【0046】
また、撮像素子20には、被写体を結像するためのレンズ90が設けられており、当該レンズ90によって被写体像が撮像素子20に結像される。すなわち、レンズ90によって結像される被写体像を撮像素子20で撮影することによって、ペットロボット10の視点からの画像を表す画像データを得ることができる。なお、レンズ90は、パンフォーカスレンズが適用されるが、この他にズームレンズ等のレンズを適用するようにしてもよい。
【0047】
また、画像データ処理回路80は、撮像素子20によって得られる画像データに対して、ROM56に記憶された画像処理条件を読み出して種々の画像処理を施す。例えば、画像データ処理回路80では、色補正、γ補正、Y/C変換等の各種処理を行う。また、画像データ処理回路80では、CPU54の演算結果が表す感情や体調等を表すパラメータに応じて、当該パラメータに対応する画像処理条件で画像処理を行うようになっており、例えば、上述したように、ペットロボット10の機嫌のよいことを表すパラメータが選択された場合には、当該パラメータに応じて、被写体像が綺麗な画像となるように画像処理を行ったり、ペットロボット10の機嫌が悪いことを表すパラメータが選択された場合には、当該パラメータに応じて、被写体像が暗くなるようにコントラストを下げる等の画像処理を行ったり、ペットロボット10の体調の悪いことを表すパラメータが選択された場合には、当該パラメータに応じて、被写体像が歪んだ画像となるように画像処理を行う。
【0048】
なお、画像データ処理回路80及びROM56は本発明の画像処理手段に相当する。
【0049】
画像データ処理回路80によって処理された画像データはI/F60を介してプリンタ82に出力され、該プリンタ82によって用紙や印画紙等の記録材料に、画像データが表す画像を形成し、プリントPとして出力するようになっている。なお、プリンタ82は本発明の出力手段及び記録手段に相当する。
【0050】
例えば、プリンタ82としては、感光材料を光露光することによって画像形成を行うプリンタ等を適用することが可能であり、この場合の記録材料(感光材料)としては、光露光して排出する際に現像液を展開するインスタントフィルム等のフィルムシートが適用可能である。
【0051】
なお、本実施の形態に係わるペットロボット10の撮像素子20による撮影は、ユーザが操作ボタン78を操作することによって撮影するようにしてもよいし、ユーザがペットロボット10の手足12、頭16、尻尾18等を操作することによって撮影するようにしてもよい。
【0052】
次に上述のように構成されたペットロボット10の作用を図4のフローチャートを参照して説明する。
【0053】
電源が投入されると、ステップ100では、初期化処理が行われる。初期化処理は、電源オフする前の状態に復元するための処理であり、電源オフ時の終了処理で図示しない不揮発性メモリ等に保存されたデータを読み込んで電源オフ前の状態に復元される。
【0054】
ステップ102では、外部接触検出、音声認識、操作指示等の検出が行われる。すなわち、各種検出装置70、マイク74、操作ボタン78等によってペットロボット10に対するユーザの行為が検出される。
【0055】
ステップ104では、ステップ102で検出されたユーザのペットロボット10に対する行為の検出結果に応じて、ペットロボット10を動作させるための状態計算が行われる。すなわち、ユーザのペットロボット10に対する行為に対応する感情等を表すパラメータが状態値として算出される。例えば、上述したように、餌としての紙を口にくわえた場合には、機嫌がよいことを表すパラメータが状態値として算出される。
【0056】
続いて、ステップ106では、算出された状態値に基づいて、駆動回路68によってモータ66が駆動される。すなわち、ユーザのペットロボット10に対する行為に応じた動作を行うように制御される。これによって、実際に生きているペットのように動作制御される。
【0057】
ステップ108では、現在のペットロボット10の感情等を表す状態値がRAM58に記憶更新される。
【0058】
続いて、ステップ110では、撮影指示が行われた否か判定される。該判定は、ユーザがペットロボット10に設けられた操作ボタン78等を操作することによって撮影指示がなされたか否かを判定することによってなされる。
【0059】
ステップ110の判定が肯定された場合には、ステップ112へ移行して、後述する撮影処理がなされて、ステップ114へ移行する。また、ステップ110の判定が否定された場合には、そのままステップ114へ移行する。
【0060】
ステップ114では、電源オフか否か判定される。すなわち、ユーザによって電源オフが指示されたか否か判定される。該判定が否定された場合には、上述のステップ104へ戻って、上述のステップ104〜114の処理が繰り返され、ステップ114の判定が肯定された場合には、ステップ116へ移行して、終了処理が行われる。すなわち、ペットロボット10のRAM58に記憶された現在の感情等の状態値等を図示しない不揮発性メモリ等に記憶して電源がオフされて一連の処理を終了する。
【0061】
すなわち、本実施の形態に係わるペットロボット10は、ユーザがペットロボット10に対して行う行為を検出することによって、ペットロボット10の感情や体調等を表す状態値が変位することによって、実際に生きているペットのように動作させることができる。
【0062】
次に、上述の撮影処理について図5のフローチャートを参照して説明する。
【0063】
上述のステップ110の判定が肯定されると、図5に示すフローチャートのステップ200へ移行する。
【0064】
ステップ200では、状態値が画像データ処理回路80に取得される。すなわち、RAM58に記憶されている、現在のペットロボット10の感情や体調等を表すパラメータが画像データ処理回路80に入力される。
【0065】
ステップ202では、取得された状態値に基づく画像処理が画像データ処理回路80でなされる。すなわち、CPU54の演算結果が表す感情や体調等を表すパラメータに応じた画像処理条件で画像処理が行われる。例えば、上述したように、ペットロボット10の機嫌のよいことを表すパラメータが状態値として画像データ処理回路80に取得された場合には、被写体像が綺麗な画像となるように画像処理が行われたり、ペットロボット10の機嫌が悪いことを表すパラメータが状態値として画像データ処理回路80に取得された場合には、被写体像が暗くなるようにコントラストを下げる等の画像処理が行われたり、ペットロボット10の体調が悪いを表すパラメータが状態値として画像データ処理回路80に取得された場合には、被写体像が歪んだ画像となるように画像処理が行われたりする。
【0066】
そして、ステップ204では、画像データ処理回路80によって画像処理が施された画像データに基づいて、用紙や印画紙等の記録材料に画像データが表す画像が記録されて、プリントPが作成されて、ステップ206へ移行する。
【0067】
ステップ206では、プリントPがペットロボット10より排出されて、図4に示すフローチャートにリターンされる。すなわち、作成されたプリントPを図1に示す排出口24より排出して撮影処理を終了する。
【0068】
すなわち、本実施の形態に係わるペットロボット10は、例えば、餌としての紙を与えるという行為に応じて感情や体調等がコントロールされる。そして、その状態に合わせて、ペットロボット10の視点から撮影することによって得られる画像データに対する画像処理を行い、例えば、機嫌がよいときには綺麗なプリント、機嫌が悪いときには暗いプリント、体調が悪いときには歪んだ画像のプリント等がそれぞれのペットロボット10の状態に応じて作成されるので、作成されたプリントを確認することによって、ペットロボット10の感情や体調等の状態を把握することができ、ペットロボット10とのコミュニケーションをより親密に図ることができる。また、当該プリントPの確認は、実際に生きているペットの排泄物等の確認による健康状態把握に類似しており、このプリントPの確認によって実施に生きているペットのように深いコミュニケーションをとることができる
なお、上記の実施の形態では、ペットロボット10の感情や体調等に応じたプリントPを作成して、当該プリントPによってペットロボット10の状態を確認するようにしていたが、これに限るものではなく、例えば、モニタ22に表示する撮影画像によってペットロボット10の状態を確認するようにしてもよい。
【0069】
【発明の効果】
以上説明したように本発明によれば、被写体を撮影する撮影手段を備えて、撮影手段によって撮影することによって得られる撮影画像に対して、ペットロボットの感情や体調等を表すパラメータに合わせた画像処理を行うので、実際の生きているペットからの排泄物等の確認のように、当該画像処理が行われた撮影画像を確認することによって、ペットロボットの感情や体調を確認することができるので、実施に生きているペットのように深いコミュニケーションをとることができる、という効果がある。
【図面の簡単な説明】
【図1】本発明の実施の形態に係わるペットロボットの外観を示す斜視図である。
【図2】本発明の実施の形態に係わるペットロボットを各機能毎に分けた機能ブロック図である。
【図3】本発明の実施の形態に係わるペットロボットの電気的構成を示すブロック図である。
【図4】本発明の実施の形態に係わるペットロボットの作用を説明するためのフローチャートである。
【図5】本発明の実施の形態に係わるペットロボットにおける撮影処理を示すフローチャートである。
【符号の説明】
10 ペットロボット
20 撮像素子
22 モニタ22
34 状態計算部
36 動作制御部
38 駆動部
40 外部接触検出部
42 音声認識部
46 操作部
48 撮像部
50 画像処理部
52 プリント部
56 ROM
80 画像データ処理回路
82 プリンタ
88 撮像素子駆動回路[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a pet robot, and more particularly to a pet robot capable of handling image data representing an image and creating a print based on the image data.
[0002]
[Prior art]
Conventionally, a pet robot has been proposed as in the technique described in Japanese Patent Application Laid-Open No. 11-126017. A pet robot represented by the technique described in Japanese Patent Application Laid-Open No. 11-126017 includes a plurality of operation units. Different concepts such as “speak” and “praise” are assigned to the buttons of the operation unit, and when the user operates the buttons, the pet robot operates corresponding to the concept corresponding to the operated button. Is supposed to do. For example, if the assigned concept is “barking”, the voice signal corresponding to the call is output from the speaker simultaneously with moving the mouth of the pet robot. As described above, the pet robot described in Japanese Patent Application Laid-Open No. 11-125007 can perform an operation close to an actual pet.
[0003]
In addition, such a pet robot has been proposed in which an imaging element is provided in order to recognize a user as an owner or a ball as a game.
[0004]
On the other hand, a technique for creating a print based on image data obtained by photographing with an image sensor or the like has been proposed. For example, there is a technique described in Japanese Patent Laid-Open No. 7-159904.
[0005]
In the technique described in JP-A-7-159904, an image on a film is read by a CCD and stored in a memory. At this time, the photographing information recorded on the film is also read. Then, the image data stored in the memory is set with the contents of predetermined image quality correction (outline enhancement, contrast enhancement, etc.) corresponding to the shooting information, and the image processing is performed according to the image quality correction content. It has been proposed to print on recording paper based on the processed image data. Thereby, the image quality of the print image can be improved.
[0006]
[Problems to be solved by the invention]
However, pets such as dogs and cats that are actually alive do not communicate with their owners via operation buttons or the like. A pet that is actually alive communicates with the owner, for example, by receiving food from the owner or handing over what he or she cares about. That is, a pet that is actually alive communicates with the owner by exchanging something with the owner.
[0007]
Further, in the pet robot described in Japanese Patent Application Laid-Open No. 11-1226017, the state of emotions and the like in the pet robot can only be confirmed by confirming the behavior (operation) of the pet robot.
[0008]
Therefore, the present invention has been made in consideration of the above facts, and an object of the present invention is to provide a pet robot capable of communicating deeply like a living pet in practice.
[0009]
[Means for Solving the Problems]
In order to achieve the above object, the invention described in claim 1Detection means for detecting an act from outside;Having a plurality of parameters representing a state including at least emotion and physical condition,Calculation means for calculating the parameter corresponding to the action detected by the detection means, and operation control for controlling the operation so as to express emotions corresponding to the action based on a calculation result of the calculation means Means andFor a pet robot, a photographing means for photographing a subject, and a photographed image obtained by photographing with the photographing means,Calculated by the calculating meansAccording to the parameter representing the current stateRepresents the emotionsImage processing means for performing predetermined image processing;Output means for outputting the photographed image subjected to the image processing by the image processing means;It is characterized by including.
[0010]
According to the invention described in
[0011]
For example, the imaging unit is provided at a position corresponding to the eyes, a position corresponding to the nose, a position corresponding to the mouth, and the like, which are part of the body of the pet robot, and images the subject. That is, shooting can be performed from the viewpoint of the pet robot.
[0012]
Further, in the image processing means, with respect to the photographed image obtained by photographing with the photographing means,Expresses emotions in accordance with the parameters indicating the current state calculated by the calculation means for the photographed image obtained by photographing with the photographing means.Predetermined image processing is performed.That is, predetermined image processing is performed so as to express the emotion of the pet robot. In this way, in the image processing means, predetermined image processing is performed in accordance with parameters representing a state including the current emotion and physical condition of the pet robot.It is possible to reflect the state of the pet robot's emotion and physical condition in the photographed image.
Since the image processing means includes an output means for outputting a photographed image subjected to image processing,By confirming the photographed image subjected to image processing, it is possible to confirm the emotion and physical condition of the pet robot.As the output means, for example, the photographed image can be confirmed by displaying the photographed image on a display means such as a monitor.
[0013]
In the case of pets that are actually alive, the health status can be confirmed by checking the excrement etc. of the pet, but in the same way, confirming the captured image that has been subjected to image processing by the image processing means Can check the emotion and physical condition of the pet robot, so that it can communicate deeply like a pet living in practice.
[0014]
The predetermined image processing by the image processing means is performed by a plurality of parameters as in the invention according to claim 2.InStorage means for storing the corresponding image processing conditions is further provided, and the image processing meansCorresponds to the parameter calculated by the calculation meansThe image processing conditions may be read from the storage unit, and image processing may be performed under the read image processing conditions. That is, by storing the image processing conditions corresponding to the state of emotion, physical condition and the like in the storage unit, it is possible to perform image processing according to the state of emotion, physical condition and the like of the pet robot.
[0017]
Claim3The invention described in claim1 or claim 2In the invention described in
[0018]
Claim3According to the invention described in claim1 or claim 2In the invention described in the above, it is possible to use, as the output unit, a recording unit that records a captured image on a recording material such as paper or photographic paper based on a captured image that has been subjected to image processing by the image processing unit. By confirming the captured image recorded on the recording material, it is possible to confirm the state of the pet robot such as emotion and physical condition.
[0019]
The invention according to
[0020]
Claim4According to the invention described in
[0021]
Claim5The invention described in
[0022]
According to the invention of
[0023]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings.
[0024]
FIG. 1 shows an appearance of a
[0025]
The
[0026]
An
[0027]
Further, the back of the
[0028]
In FIG. 2, the
[0029]
As shown in FIG. 2, the
[0030]
The
[0031]
In the
[0032]
On the other hand, the imaging
[0033]
The
[0034]
In the
[0035]
That is, according to parameters such as emotion and physical condition of the
[0036]
Next, an electrical configuration of the
[0037]
The
[0038]
A
[0039]
Further, the I / F 60 is connected to a motor 66 for driving the
[0040]
That is, the CPU 54 obtains parameters representing the emotion, physical condition, etc. of the
[0041]
In addition, a
[0042]
Furthermore, the
[0043]
As described above, the
[0044]
The
[0045]
Note that the
[0046]
Further, the
[0047]
The image
[0048]
The image
[0049]
The image data processed by the image
[0050]
For example, as the printer 82, a printer that forms an image by exposing a photosensitive material to light can be applied. In this case, a recording material (photosensitive material) is used when being exposed to light and discharged. A film sheet such as an instant film for developing the developer is applicable.
[0051]
Note that the imaging by the
[0052]
Next, the operation of the
[0053]
When the power is turned on, in
[0054]
In
[0055]
In
[0056]
Subsequently, in
[0057]
In
[0058]
Subsequently, in step 110, it is determined whether or not a shooting instruction has been issued. This determination is made by determining whether or not a shooting instruction has been made by operating the operation button 78 or the like provided on the
[0059]
If the determination in step 110 is affirmed, the process proceeds to step 112, a photographing process described later is performed, and the process proceeds to step 114. If the determination in step 110 is negative, the process proceeds to step 114 as it is.
[0060]
In step 114, it is determined whether the power is off. That is, it is determined whether or not the user has instructed to turn off the power. If the determination is negative, the process returns to step 104 described above, and the processes of
[0061]
In other words, the
[0062]
Next, the above photographing process will be described with reference to the flowchart of FIG.
[0063]
If the determination at step 110 is affirmed, the routine proceeds to step 200 in the flowchart shown in FIG.
[0064]
In
[0065]
In
[0066]
In
[0067]
In
[0068]
That is, in the
In the above embodiment, the print P corresponding to the emotion and physical condition of the
[0069]
【The invention's effect】
As described above, according to the present invention, an image is provided that includes a photographing unit that photographs a subject, and that matches a captured image obtained by photographing by the photographing unit with parameters representing emotions, physical condition, and the like of the pet robot. Since the processing is performed, it is possible to confirm the emotion and physical condition of the pet robot by confirming the captured image on which the image processing has been performed, such as confirmation of excrement from an actual living pet. It has the effect of being able to communicate deeply like a live pet in practice.
[Brief description of the drawings]
FIG. 1 is a perspective view showing an appearance of a pet robot according to an embodiment of the present invention.
FIG. 2 is a functional block diagram in which the pet robot according to the embodiment of the present invention is divided for each function.
FIG. 3 is a block diagram showing an electrical configuration of the pet robot according to the embodiment of the present invention.
FIG. 4 is a flowchart for explaining the operation of the pet robot according to the embodiment of the present invention.
FIG. 5 is a flowchart showing a photographing process in the pet robot according to the embodiment of the present invention.
[Explanation of symbols]
10 Pet robot
20 Image sensor
22
34 State calculator
36 Operation control unit
38 Drive unit
40 External contact detector
42 Voice recognition unit
46 Operation unit
48 Imaging unit
50 Image processing section
52 Print section
56 ROM
80 Image data processing circuit
82 Printer
88 Image sensor drive circuit
Claims (5)
被写体を撮影する撮影手段と、
前記撮影手段で撮影することによって得られる撮影画像に対して、前記算出手段によって算出された現在の前記状態を表す前記パラメータに合わせて前記喜怒哀楽を表す所定の画像処理を施す画像処理手段と、
前記画像処理手段によって前記画像処理が施された前記撮影画像を出力する出力手段と、
を含むことを特徴とするペットロボット。 Detection means for detecting an action from the outside, calculation means for calculating the parameter corresponding to the action detected by the detection means , having a plurality of parameters representing a state including at least emotion and physical condition; and the calculation An operation control means for controlling an action so as to express emotions corresponding to the action based on a calculation result of the means, and a pet robot comprising:
Photographing means for photographing the subject;
Image processing means for performing predetermined image processing representing the emotion in accordance with the parameter representing the current state calculated by the calculation means on a photographed image obtained by photographing with the photographing means; ,
Output means for outputting the photographed image subjected to the image processing by the image processing means;
A pet robot characterized by including:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002124094A JP4099003B2 (en) | 2002-04-25 | 2002-04-25 | Pet robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002124094A JP4099003B2 (en) | 2002-04-25 | 2002-04-25 | Pet robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003311027A JP2003311027A (en) | 2003-11-05 |
JP4099003B2 true JP4099003B2 (en) | 2008-06-11 |
Family
ID=29539204
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002124094A Expired - Fee Related JP4099003B2 (en) | 2002-04-25 | 2002-04-25 | Pet robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4099003B2 (en) |
-
2002
- 2002-04-25 JP JP2002124094A patent/JP4099003B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2003311027A (en) | 2003-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4196714B2 (en) | Digital camera | |
CN109640641B (en) | Bait casting system, image processing device and image processing method | |
JP2004001162A (en) | Pet robot charging system, receiving arrangement, robot, and robot system | |
US8228391B2 (en) | Image pickup apparatus and lens barrel | |
EP1120740A1 (en) | Robot device, its control method, and recorded medium | |
US9282238B2 (en) | Camera system for determining pose quality and providing feedback to a user | |
US7657172B2 (en) | Controller, photographing equipment, control method of photographing equipment, and control program | |
JP4290164B2 (en) | Display method for displaying display showing identification area together with image, program executed by computer apparatus, and imaging apparatus | |
JP2019005842A (en) | Robot, robot controlling method, and program | |
EP3790500B1 (en) | Methods and systems for adjusting behavior of oral care device based on status of oral cavity | |
KR100732136B1 (en) | Imager and personal idenfification system | |
JP4649550B2 (en) | camera | |
JP2010134910A (en) | Pet image detection system and method of controlling operation of the same | |
JP4000175B1 (en) | IMAGING DEVICE AND IMAGING CONTROL PROGRAM FOR IMAGING DEVICE | |
JP4099003B2 (en) | Pet robot | |
WO2006056655A1 (en) | An improved camera apparatus and a method and software for using such | |
JP4080165B2 (en) | Robot and control method thereof | |
JP5046809B2 (en) | Image processing apparatus and method, and imaging apparatus | |
JP4633775B2 (en) | Robot and control method thereof | |
JP4620102B2 (en) | Robot and control method thereof | |
JP7344348B2 (en) | Imaging device, control method, program, and non-temporary recording medium | |
JP4773924B2 (en) | IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
WO2022102534A1 (en) | Determination device, determination method, and determination program | |
JP2020027982A (en) | Teacher data preparation device, teacher data preparation method, teacher data preparation program, learning device, and imaging device | |
JPWO2019215318A5 (en) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060901 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061003 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061130 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20061130 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070412 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20070420 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20070622 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080314 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110321 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110321 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120321 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |