JP4099003B2 - Pet robot - Google Patents

Pet robot Download PDF

Info

Publication number
JP4099003B2
JP4099003B2 JP2002124094A JP2002124094A JP4099003B2 JP 4099003 B2 JP4099003 B2 JP 4099003B2 JP 2002124094 A JP2002124094 A JP 2002124094A JP 2002124094 A JP2002124094 A JP 2002124094A JP 4099003 B2 JP4099003 B2 JP 4099003B2
Authority
JP
Japan
Prior art keywords
image processing
pet robot
image
parameter
pet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002124094A
Other languages
Japanese (ja)
Other versions
JP2003311027A (en
Inventor
宏 遠藤
成明 後
嘉広 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2002124094A priority Critical patent/JP4099003B2/en
Publication of JP2003311027A publication Critical patent/JP2003311027A/en
Application granted granted Critical
Publication of JP4099003B2 publication Critical patent/JP4099003B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Toys (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、ペットロボットにかかり、特に、画像を表す画像データを取り扱うと共に、当該画像データに基づいてプリントを作成することが可能なペットロボットに関する。
【0002】
【従来の技術】
従来、特開平11−126017号公報に記載の技術のように、ペットロボットが提案されている。特開平11−126017号公報に記載の技術で代表されるペットロボットは、複数の操作部を備えている。操作部のボタンには、それぞれ「叱る」、「誉める」等の異なる概念が割り当てられており、ユーザがそのボタンを操作することによって、ペットロボットは操作されたボタンに応じた概念に対応する動作を行うようになっている。例えば、割り当てられている概念が「吠える」であると、ペットロボットの口を動かすと同時に鳴き声に対応する音声信号をスピーカーから出力する。このように、特開平11−126017号公報に記載のペットロボットでは、実際のペットに近い動作を行うことができる。
【0003】
また、このようなペットロボットに、飼い主としてのユーザの認識や遊戯としてのボール等の認識のために、撮像素子が設けられたものも提案されている。
【0004】
一方、撮像素子等によって撮影することにより得られる画像データに基づいてプリントを作成する技術が提案されており、例えば、特開平7−159904号公報に記載の技術などがある。
【0005】
特開平7−159904号公報に記載の技術では、フィルムの画像をCCDによって読み取ると共にメモリに記憶する。このとき、フィルムに記録された撮影情報についても読み取る。そして、メモリに記憶された画像データに対して撮影情報から対応する所定の画質補正(輪郭強調、コントラスト強調等)の内容を設定し、この画質補正内容に従って画像処理を施して、画像処理を施した画像データに基づいて記録紙にプリントすることが提案されている。これによって、プリント画像の画質を改善することができる。
【0006】
【発明が解決しようとする課題】
しかしながら、実際に生きている犬や猫等で代表されるペットは、操作ボタンなどを介して飼い主とコミュニケーションをとることはない。現実に生きているペットは、例えば、餌を飼い主からもらったり、あるいは、自分が大切にしているものを渡したりすることで、飼い主とコミュニケーションをとる。すなわち、実際に生きているペットは、何らかの物を飼い主との間でやり取りすることで飼い主とのコミュニケーションをとる。
【0007】
また、特開平11−126017号公報に記載のペットロボットでは、ペットロボットにおける感情等の状態の確認は、ペットロボットの行動(動作)を確認するしかなかった。
【0008】
そこで、本発明は、上記事実を考慮してなされたもので、実施に生きているペットのように深いコミュニケーションをとることができるペットロボットを提供することを目的とする。
【0009】
【課題を解決するための手段】
上記目的を達成するために請求項1に記載の発明は、外部からの行為を検出する検出手段と、少なくとも感情及び体調を含む状態を表す複数のパラメータを有し、前記検出手段によって検出された前記行為に対応する前記パラメータを算出する算出手段と、前記算出手段の算出結果に基づいて、前記行為に対応する喜怒哀楽を表現するように動作を制御する動作制御手段と、を備えたペットロボットであって、被写体を撮影する撮影手段と、前記撮影手段で撮影することによって得られる撮影画像に対して、前記算出手段によって算出された現在の前記状態を表す前記パラメータに合わせて前記喜怒哀楽を表す所定の画像処理を施す画像処理手段と、前記画像処理手段によって前記画像処理が施された前記撮影画像を出力する出力手段と、を含むことを特徴としている。
【0010】
請求項1に記載の発明によれば、ペットロボットは、検出手段によって外部からの行為を検出し、検出手段によって検出された行為に対応する少なくとも感情や体調を含む状態を表すパラメータを算出手段によって算出し、動作制御手段が、算出手段の算出結果に基づいて、行為に対応する喜怒哀楽を表現するように動作を制御する。例えば、予め定めた条件に基づいて現在の感情や体調に対応するパラメータを求めて、求めたパラメータに応じてペットロボットの体を動作する。すなわち、ペットロボットを「叩く」、「なでる」等の検出を条件として、それぞれに対応する動作をするように体を動作させることにより、感情や体調に応じたペットロボットの動作ができるので、実際に生きているペットのような動作ができる。
【0011】
撮影手段は、例えば、ペットロボットの体の一部である、目に相当する位置、鼻に相当する位置、口に相当する位置等に設けて、被写体を撮影する。すなわち、ペットロボットの視点から撮影を行うことができる。
【0012】
また、画像処理手段では、撮影手段で撮影することによって得られる撮影画像に対して、撮影手段で撮影することによって得られる撮影画像に対して、算出手段によって算出された現在の状態を表すパラメータに合わせて喜怒哀楽を表す所定の画像処理が行われる。すなわち、ペットロボットの喜怒哀楽を表すように所定の画像処理が行われる。このように画像処理手段では、ペットロボットの現在の感情や体調を含む状態を表すパラメータに合わせて所定の画像処理が行われるので、撮影画像にペットロボットの感情や体調等の状態を反映することができる。
そして、画像処理手段によって画像処理が施された撮影画像を出力する出力手段を備えているので、画像処理が施された撮影画像を確認することによって、ペットロボットの感情や体調を確認することが可能となる。出力手段としては、例えば、モニタ等の表示手段に撮影画像を表示することによって撮影画像の確認が可能である。
【0013】
実際に生きているペットでは、ペットの排泄物等を確認することによって健康状態を確認することができるが、これと同じように、画像処理手段によって画像処理が施された撮影画像を確認することによってペットロボットの感情や体調等を確認することができるので、実施に生きているペットのように深いコミュニケーションをとることができる。
【0014】
なお、画像処理手段による所定の画像処理は、請求項2に記載の発明のように、複数のパラメータ対応する画像処理条件を記憶する記憶手段をさらに備えておき、画像処理手段が、算出手段によって算出されたパラメータに対応する画像処理条件を記憶手段から読み取って、読み取った画像処理条件で画像処理を行うようにしてもよい。すなわち、感情や体調等の状態に対応する画像処理条件を記憶手段に記憶しておくことにより、ペットロボットの感情や体調等の状態に合わせた画像処理を行うことが可能となる。
【0017】
請求項に記載の発明は、請求項1又は請求項2に記載の発明において、前記出力手段は、前記画像処理手段によって前記画像処理が施された前記撮影画像に基づいて、記録材料に前記撮影画像を記録する記録手段からなることを特徴としている。
【0018】
請求項に記載の発明によれば、請求項1又は請求項2に記載の発明において、出力手段として、画像処理手段によって画像処理が施された撮影画像に基づいて、用紙や印画紙等の記録材料に撮影画像を記録する記録手段を用いることが可能であり、記録材料に記録された撮影画像を確認することによって、ペットロボットの感情や体調等の状態を確認することが可能となる。
【0019】
請求項4に記載の発明は、請求項1請求項の何れか1項に記載の発明において、前記検出手段が予め定められた餌に対応する物を検出前記算出手段が前記検出手段の検出結果に応じて現在の前記状態を表す前記パラメータを算出することを特徴としている。
【0020】
請求項に記載の発明によれば、請求項1請求項の何れか1項に記載の発明において、検出手段が予め定められた餌に対応する物、例えば、紙などの物を検出し、算出手段が検出手段の検出結果に応じて感情や体調等を表すパラメータを設定することによって、餌を与える行為によりペットロボットの感情や体調等の状態を変化させることができ、ペットロボットとのコミュニケーションをより深いものとすることが可能となる。
【0021】
請求項に記載の発明は、請求項1請求項の何れか1項に記載の発明のおいて、前記パラメータは、少なくとも、機嫌がよいことを表す第1パラメータ、機嫌が悪いことを表す第2パラメータ、及び体調が悪いことを表す第3パラメータからなり、前記画像処理手段は、前記求めたパラメータが前記第1パラメータである場合に、良好な画質となるように前記画像処理を行い、前記求めたパラメータが前記第2パラメータである場合に、暗い画質となるように前記画像処理を行い、前記求めたパラメータが第3パラメータである場合に、前記撮影画像が歪んだ画像となるように前記画像処理を行うことを特徴としている。
【0022】
請求項5に記載の発明によれば、請求項1請求項の何れか1項に記載の発明において、感情や体調等を表すパラメータとして、少なくとも、機嫌がよいことを表す第1パラメータ、機嫌が悪いことを表す第2パラメータ、及び体調が悪いことを表す第3パラメータなどを用いることが可能であり、画像処理手段では、第1パラメータに基づいてペットロボットが動作している場合には、良好な画質となるように画像処理を行い、第2パラメータに基づいてペットロボットが動作している場合には、暗い画質となるように画像処理を行い、第3パラメータに基づいてペットロボットが動作している場合には、撮影画像が歪んだ画像となるように画像処理を行うことによって、撮影画像からペットロボットの感情や体調等を確認することが可能である。
【0023】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態の一例を詳細に説明する。
【0024】
図1には、本発明の実施の形態に係わるペットロボット10の外観を示す。ペットロボット10は、例えば、犬や猫等の動物の外形を有して、4足歩行するペット型のロボットである。なお、ペットロボット10はこの他には昆虫型等のペット型のロボットでもよい。また、本実施の形態に係わるペットロボット10は、ペットロボット10の視点から見た画像を撮影すると共に当該撮影によって得られる画像に基づいてプリントを作成する機能を備えている。
【0025】
ペットロボット10は、歩行するための4本の手足12を備え、各手足12の間接部が可動可能とされており、後述するモータ等によって駆動されて、自立歩行するようになっている。また、口14、頭(首)16や尻尾18についても可動可能とされており、同様に後述するモータ等によって駆動されるようになっている。
【0026】
ペットロボット10の目の位置には、ペットロボット10の視点から見た画像を撮影するためのCCD等の撮像素子20が設けられている。
【0027】
また、ペットロボット10の背中には、撮影された画像に基づいて作成されたプリントPを排出する排出口24及びモニタ22が設けられており、モニタ22には、撮影画像の表示やペットロボット10の各種操作のための情報が表示され、排出口24からは、撮影された画像を用紙や印画紙等の記録材料に記録して作成したプリントPを排出するようになっている。なお、モニタ22及び排出口24の配置位置は、ペットロボット10の背中に限るものではなく、例えば、お腹等に配置してもよい。
【0028】
図2には、本実施の形態に係わるペットロボット10を各機能毎に分けた機能ブロック図として示す。
【0029】
本実施の形態に係わるペットロボット10は、図2に示すように、ロボットとしての機能を司る動作機能部30と、ロボットによる撮影及び当該撮影によって得られる撮影画像のプリントPを生成する撮影プリント機能部32と、を有する。
【0030】
動作機能部30は、ユーザのペットロボット10に対する行為等に応じて、ペットロボット10の感情や体調等を表すパラメータを算出するための状態計算部34、状態計算部34の計算結果に応じてペットロボット10の頭16、手足12、口14や尻尾18等を動作させるための制御を行う動作制御部36、動作制御部30の制御によってペットロボット10の頭16、手足12、口14や尻尾18等を動作させる駆動部38、ユーザのペットに対する行為を検出するための外部接触検出部40、ユーザの問いかけ等を検出するための音声認識部42、ペットロボット10の感情をコントロールする一部である紙受取部44、及びペットロボット10の電源や各種操作を行うための操作部46に分けられる。なお、紙受取部44は、餌として予め定めた紙を受け取ると共に、当該紙の受取を検出する。すなわち、餌を得ることができたか否かを検出するようになっており、当該紙受取部44の検出結果に応じてペットロボット10の感情がコントロールされる。
【0031】
動作機能部30では、状態計算部34が外部接触検出部40、音声認識部42及び紙受取部44等の情報を取得して、ペットロボット10の感情や体調等を表すパラメータを算出し、当該パラメータに基づいて、動作制御部36が駆動部38を制御することによってペットロボット10の動作を制御する。これによって、ペットロボット10を実際に生きているペットのように動作させることが可能となる。例えば、頭16をなでたり、餌として予め定めた紙等を口14にくわえさせたり、手足12を触ったり、頭16を叩いたり等のユーザのペットロボット10への行為を外部接触検出部40によって検出することによって、ユーザのペットロボット10に対する行為に対応する感情、すなわちユーザの行為に対応する喜怒哀楽を表現するように、ペットロボット10の動作制御することによって、実際に生きているペットのように動作するようになっている。
【0032】
一方、撮影プリント機能部32は、ペットロボット10の視点から撮影を行うための撮像部48、撮像部48によって得られる画像データに対して各種画像処理を施す画像処理部50、及び撮像部48によって得られる画像データを記録材料に記録することによってプリントPを作成するプリント部52、を有する。
【0033】
撮像部48で撮影することによって得られる画像データは、画像処理部50で各種画像処理が施される。そして、プリント部52では、画像処理部50で画像処理が施された画像データに基づいて、用紙や印画紙等の記録材料に画像が記録されることによってプリントPが作成される。作成されたプリントPは、図1に示す排出部24よりペットロボット10の外に排出される。
【0034】
画像処理部50では、動作機能部30の状態計算部34で算出された、ペットロボット10の感情や体調等を表すパラメータに応じた画像処理が行われる。例えば、状態計算部34で算出されたペットロボット10の感情や体調等を表すパラメータが機嫌のよいことを表すパラメータであった場合には、画像データに対して、通常デジタルカメラ等で行われる色補正やγ補正等の画像処理を行って、プリント部52で綺麗なプリントPを作成できるように処理したり、機嫌の悪いことを表すパラメータであった場合に、画像データに対して、通常デジタルカメラ等で行われる色補正やγ補正等の画像処理を行う他に、コントラストを下げる等の画像処理を行って、プリント部52で暗い画像のプリントPを作成できるように処理したり、体調の悪いことを表すパラメータであった場合に、画像データに対して、通常デジタルカメラ等で行われる色補正やγ補正等の画像処理を行う他に、画像データが表す画像を歪ませる等の画像処理を行って、プリント部52で歪んだ画像のプリントPを作成できるように処理する。
【0035】
すなわち、ユーザが操作部46を操作する等による撮影を指示するタイミングにおける、ペットロボット10の感情や体調等のパラメータに応じて、画像データに対する画像処理を行ってプリントを作成するようになっている。
【0036】
続いて、上述の機能を動作させるための本実施の形態に係わるペットロボット10の電気的構成について説明する。本実施の形態に係わるペットロボット10は、図3に示すように、CPU54、ROM56、RAM58、及びインターフェース(I/F)60がそれぞれ相互通信可能にバス62に接続されたマイクロコンピュータで構成されている。すなわち、ペットロボット10は、CPU54の制御によって動作が統括的に制御される。
【0037】
ROM56には、ペットロボット10を動作させるための種々のプログラム、撮影やプリント作成するための種々のプログラム、ペットロボット10の感情や体調等を表し、当該感情や体調等に応じてペットロボット10を動作させるためのパラメータ、当該パラメータに対応する画像処理条件等が記憶されており、RAM58には、後述する撮像素子の撮影によって得られる画像データ等が記憶される。なお、ROM56は本発明の記憶手段に相当する。
【0038】
I/F60には、ペットロボット10の背中に設けられ、撮像素子20の撮影によって得られる画像や各情報の表示を行うモニタ22が、表示回路64を介して接続されている。なお、モニタ22は本発明の出力手段に相当する。
【0039】
また、I/F60には、ペットロボット10の手足12、頭16、口14、尻尾18などを駆動するためのモータ66が駆動回路68を介して接続されており、CPU54の演算結果に応じてモータ66が駆動されて、ペットロボット10の感情や体調等に応じた動作がなされるようになっている。また、これら手足12、頭16、口14、尻尾18等には、ユーザがペットに接した行為(例えば、頭16をなでる、手足12を触る、尻尾18を引っ張る等の行為)を検出するための各種検出装置70が設けられており、各種検出装置70は、外部接触検出回路72を介してI/F60に接続され、ユーザがペットに接したときの行為を検出できるようになっている。各種検出装置70としては、例えば、ユーザのペットロボット10への行為による手足12や頭16の動きを検出するためのエンコーダや、頭16をなでたこと等を検出するための各種スイッチ等が上げられる。なお、各種検出装置70には、口14に設けられて、餌としての紙を検出するセンサなども含まれる。
【0040】
すなわち、CPU54は、各種検出装置70の検出結果に基づいて、ROM56に記憶されたペットロボット10の感情や体調等を表すパラメータを求めて、当該パラメータに基づいて、手足12、頭16、口14、尻尾18等を駆動させることによって、ペットロボット10の動作によって感情や体調等を表現するようになっている。例えば、本実施の形態に係わるペットロボット10は、予め餌として予め定めた紙を口14に与える(口14にくわえさせる)ことによって、機嫌がよくなることを表すパラメータが設定されて、当該パラメータに応じて機嫌がよいことを表す動作等を行うようになっている。
【0041】
また、ペットロボット10には、マイク74が音声認識回路76を介してI/F60に接続されており、ユーザのペットロボット10への問いかけ(例えば、名前を呼ぶ等の問いかけなど)を検出し、音声認識回路76によって音声認識がなされるようになっている。なお、音声認識は、ユーザが予めペットロボット10の名前等を音声登録(図示しない不揮発性メモリ等に記憶)させることによって行うことが可能である。
【0042】
さらに、ペットロボット10には、ペットロボット10の電源オンオフ、撮影指示や各種設定等を行うための操作ボタン78が設けられており、該操作ボタン78がI/F60に接続されている。
【0043】
ペットロボット10には、上述したように、ペットロボット10の視点からの撮影が可能とされており、該撮影はCCD等の撮像素子20によって行われる。撮像素子20は、ペットロボット10の目の位置に設けられている。なお、撮像素子20は、当該撮影機能の他に、ペットロボット10の周りの障害物等を認識するための画像を取り込む機能等も有している。また、撮像素子20は、ペットロボット10の目の位置に限るものではなく、例えば、口の中等に設けるようにしてもよい。
【0044】
撮像素子20は増幅器84及びA/D変換器86を介してI/F60に接続されており、撮像素子20に結像される画像が画像データとしてI/F60を介して画像データ処理回路80に取り込まれるようになっている。なお、撮像素子20は、I/F60に接続された撮像素子駆動回路88によって駆動される。
【0045】
なお、撮像素子20及び撮像素子駆動回路88は本発明の撮影手段に相当する。
【0046】
また、撮像素子20には、被写体を結像するためのレンズ90が設けられており、当該レンズ90によって被写体像が撮像素子20に結像される。すなわち、レンズ90によって結像される被写体像を撮像素子20で撮影することによって、ペットロボット10の視点からの画像を表す画像データを得ることができる。なお、レンズ90は、パンフォーカスレンズが適用されるが、この他にズームレンズ等のレンズを適用するようにしてもよい。
【0047】
また、画像データ処理回路80は、撮像素子20によって得られる画像データに対して、ROM56に記憶された画像処理条件を読み出して種々の画像処理を施す。例えば、画像データ処理回路80では、色補正、γ補正、Y/C変換等の各種処理を行う。また、画像データ処理回路80では、CPU54の演算結果が表す感情や体調等を表すパラメータに応じて、当該パラメータに対応する画像処理条件で画像処理を行うようになっており、例えば、上述したように、ペットロボット10の機嫌のよいことを表すパラメータが選択された場合には、当該パラメータに応じて、被写体像が綺麗な画像となるように画像処理を行ったり、ペットロボット10の機嫌が悪いことを表すパラメータが選択された場合には、当該パラメータに応じて、被写体像が暗くなるようにコントラストを下げる等の画像処理を行ったり、ペットロボット10の体調の悪いことを表すパラメータが選択された場合には、当該パラメータに応じて、被写体像が歪んだ画像となるように画像処理を行う。
【0048】
なお、画像データ処理回路80及びROM56は本発明の画像処理手段に相当する。
【0049】
画像データ処理回路80によって処理された画像データはI/F60を介してプリンタ82に出力され、該プリンタ82によって用紙や印画紙等の記録材料に、画像データが表す画像を形成し、プリントPとして出力するようになっている。なお、プリンタ82は本発明の出力手段及び記録手段に相当する。
【0050】
例えば、プリンタ82としては、感光材料を光露光することによって画像形成を行うプリンタ等を適用することが可能であり、この場合の記録材料(感光材料)としては、光露光して排出する際に現像液を展開するインスタントフィルム等のフィルムシートが適用可能である。
【0051】
なお、本実施の形態に係わるペットロボット10の撮像素子20による撮影は、ユーザが操作ボタン78を操作することによって撮影するようにしてもよいし、ユーザがペットロボット10の手足12、頭16、尻尾18等を操作することによって撮影するようにしてもよい。
【0052】
次に上述のように構成されたペットロボット10の作用を図4のフローチャートを参照して説明する。
【0053】
電源が投入されると、ステップ100では、初期化処理が行われる。初期化処理は、電源オフする前の状態に復元するための処理であり、電源オフ時の終了処理で図示しない不揮発性メモリ等に保存されたデータを読み込んで電源オフ前の状態に復元される。
【0054】
ステップ102では、外部接触検出、音声認識、操作指示等の検出が行われる。すなわち、各種検出装置70、マイク74、操作ボタン78等によってペットロボット10に対するユーザの行為が検出される。
【0055】
ステップ104では、ステップ102で検出されたユーザのペットロボット10に対する行為の検出結果に応じて、ペットロボット10を動作させるための状態計算が行われる。すなわち、ユーザのペットロボット10に対する行為に対応する感情等を表すパラメータが状態値として算出される。例えば、上述したように、餌としての紙を口にくわえた場合には、機嫌がよいことを表すパラメータが状態値として算出される。
【0056】
続いて、ステップ106では、算出された状態値に基づいて、駆動回路68によってモータ66が駆動される。すなわち、ユーザのペットロボット10に対する行為に応じた動作を行うように制御される。これによって、実際に生きているペットのように動作制御される。
【0057】
ステップ108では、現在のペットロボット10の感情等を表す状態値がRAM58に記憶更新される。
【0058】
続いて、ステップ110では、撮影指示が行われた否か判定される。該判定は、ユーザがペットロボット10に設けられた操作ボタン78等を操作することによって撮影指示がなされたか否かを判定することによってなされる。
【0059】
ステップ110の判定が肯定された場合には、ステップ112へ移行して、後述する撮影処理がなされて、ステップ114へ移行する。また、ステップ110の判定が否定された場合には、そのままステップ114へ移行する。
【0060】
ステップ114では、電源オフか否か判定される。すなわち、ユーザによって電源オフが指示されたか否か判定される。該判定が否定された場合には、上述のステップ104へ戻って、上述のステップ104〜114の処理が繰り返され、ステップ114の判定が肯定された場合には、ステップ116へ移行して、終了処理が行われる。すなわち、ペットロボット10のRAM58に記憶された現在の感情等の状態値等を図示しない不揮発性メモリ等に記憶して電源がオフされて一連の処理を終了する。
【0061】
すなわち、本実施の形態に係わるペットロボット10は、ユーザがペットロボット10に対して行う行為を検出することによって、ペットロボット10の感情や体調等を表す状態値が変位することによって、実際に生きているペットのように動作させることができる。
【0062】
次に、上述の撮影処理について図5のフローチャートを参照して説明する。
【0063】
上述のステップ110の判定が肯定されると、図5に示すフローチャートのステップ200へ移行する。
【0064】
ステップ200では、状態値が画像データ処理回路80に取得される。すなわち、RAM58に記憶されている、現在のペットロボット10の感情や体調等を表すパラメータが画像データ処理回路80に入力される。
【0065】
ステップ202では、取得された状態値に基づく画像処理が画像データ処理回路80でなされる。すなわち、CPU54の演算結果が表す感情や体調等を表すパラメータに応じた画像処理条件で画像処理が行われる。例えば、上述したように、ペットロボット10の機嫌のよいことを表すパラメータが状態値として画像データ処理回路80に取得された場合には、被写体像が綺麗な画像となるように画像処理が行われたり、ペットロボット10の機嫌が悪いことを表すパラメータが状態値として画像データ処理回路80に取得された場合には、被写体像が暗くなるようにコントラストを下げる等の画像処理が行われたり、ペットロボット10の体調が悪いを表すパラメータが状態値として画像データ処理回路80に取得された場合には、被写体像が歪んだ画像となるように画像処理が行われたりする。
【0066】
そして、ステップ204では、画像データ処理回路80によって画像処理が施された画像データに基づいて、用紙や印画紙等の記録材料に画像データが表す画像が記録されて、プリントPが作成されて、ステップ206へ移行する。
【0067】
ステップ206では、プリントPがペットロボット10より排出されて、図4に示すフローチャートにリターンされる。すなわち、作成されたプリントPを図1に示す排出口24より排出して撮影処理を終了する。
【0068】
すなわち、本実施の形態に係わるペットロボット10は、例えば、餌としての紙を与えるという行為に応じて感情や体調等がコントロールされる。そして、その状態に合わせて、ペットロボット10の視点から撮影することによって得られる画像データに対する画像処理を行い、例えば、機嫌がよいときには綺麗なプリント、機嫌が悪いときには暗いプリント、体調が悪いときには歪んだ画像のプリント等がそれぞれのペットロボット10の状態に応じて作成されるので、作成されたプリントを確認することによって、ペットロボット10の感情や体調等の状態を把握することができ、ペットロボット10とのコミュニケーションをより親密に図ることができる。また、当該プリントPの確認は、実際に生きているペットの排泄物等の確認による健康状態把握に類似しており、このプリントPの確認によって実施に生きているペットのように深いコミュニケーションをとることができる
なお、上記の実施の形態では、ペットロボット10の感情や体調等に応じたプリントPを作成して、当該プリントPによってペットロボット10の状態を確認するようにしていたが、これに限るものではなく、例えば、モニタ22に表示する撮影画像によってペットロボット10の状態を確認するようにしてもよい。
【0069】
【発明の効果】
以上説明したように本発明によれば、被写体を撮影する撮影手段を備えて、撮影手段によって撮影することによって得られる撮影画像に対して、ペットロボットの感情や体調等を表すパラメータに合わせた画像処理を行うので、実際の生きているペットからの排泄物等の確認のように、当該画像処理が行われた撮影画像を確認することによって、ペットロボットの感情や体調を確認することができるので、実施に生きているペットのように深いコミュニケーションをとることができる、という効果がある。
【図面の簡単な説明】
【図1】本発明の実施の形態に係わるペットロボットの外観を示す斜視図である。
【図2】本発明の実施の形態に係わるペットロボットを各機能毎に分けた機能ブロック図である。
【図3】本発明の実施の形態に係わるペットロボットの電気的構成を示すブロック図である。
【図4】本発明の実施の形態に係わるペットロボットの作用を説明するためのフローチャートである。
【図5】本発明の実施の形態に係わるペットロボットにおける撮影処理を示すフローチャートである。
【符号の説明】
10 ペットロボット
20 撮像素子
22 モニタ22
34 状態計算部
36 動作制御部
38 駆動部
40 外部接触検出部
42 音声認識部
46 操作部
48 撮像部
50 画像処理部
52 プリント部
56 ROM
80 画像データ処理回路
82 プリンタ
88 撮像素子駆動回路
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a pet robot, and more particularly to a pet robot capable of handling image data representing an image and creating a print based on the image data.
[0002]
[Prior art]
Conventionally, a pet robot has been proposed as in the technique described in Japanese Patent Application Laid-Open No. 11-126017. A pet robot represented by the technique described in Japanese Patent Application Laid-Open No. 11-126017 includes a plurality of operation units. Different concepts such as “speak” and “praise” are assigned to the buttons of the operation unit, and when the user operates the buttons, the pet robot operates corresponding to the concept corresponding to the operated button. Is supposed to do. For example, if the assigned concept is “barking”, the voice signal corresponding to the call is output from the speaker simultaneously with moving the mouth of the pet robot. As described above, the pet robot described in Japanese Patent Application Laid-Open No. 11-125007 can perform an operation close to an actual pet.
[0003]
In addition, such a pet robot has been proposed in which an imaging element is provided in order to recognize a user as an owner or a ball as a game.
[0004]
On the other hand, a technique for creating a print based on image data obtained by photographing with an image sensor or the like has been proposed. For example, there is a technique described in Japanese Patent Laid-Open No. 7-159904.
[0005]
In the technique described in JP-A-7-159904, an image on a film is read by a CCD and stored in a memory. At this time, the photographing information recorded on the film is also read. Then, the image data stored in the memory is set with the contents of predetermined image quality correction (outline enhancement, contrast enhancement, etc.) corresponding to the shooting information, and the image processing is performed according to the image quality correction content. It has been proposed to print on recording paper based on the processed image data. Thereby, the image quality of the print image can be improved.
[0006]
[Problems to be solved by the invention]
However, pets such as dogs and cats that are actually alive do not communicate with their owners via operation buttons or the like. A pet that is actually alive communicates with the owner, for example, by receiving food from the owner or handing over what he or she cares about. That is, a pet that is actually alive communicates with the owner by exchanging something with the owner.
[0007]
Further, in the pet robot described in Japanese Patent Application Laid-Open No. 11-1226017, the state of emotions and the like in the pet robot can only be confirmed by confirming the behavior (operation) of the pet robot.
[0008]
Therefore, the present invention has been made in consideration of the above facts, and an object of the present invention is to provide a pet robot capable of communicating deeply like a living pet in practice.
[0009]
[Means for Solving the Problems]
  In order to achieve the above object, the invention described in claim 1Detection means for detecting an act from outside;Having a plurality of parameters representing a state including at least emotion and physical condition,Calculation means for calculating the parameter corresponding to the action detected by the detection means, and operation control for controlling the operation so as to express emotions corresponding to the action based on a calculation result of the calculation means Means andFor a pet robot, a photographing means for photographing a subject, and a photographed image obtained by photographing with the photographing means,Calculated by the calculating meansAccording to the parameter representing the current stateRepresents the emotionsImage processing means for performing predetermined image processing;Output means for outputting the photographed image subjected to the image processing by the image processing means;It is characterized by including.
[0010]
  According to the invention described in claim 1, the pet robot isThe detection means detects an external action, the calculation means calculates a parameter representing a state including at least emotion and physical condition corresponding to the action detected by the detection means, and the motion control means is based on the calculation result of the calculation means The movement is controlled so as to express emotions corresponding to the action.For example, a parameter corresponding to the current emotion or physical condition is obtained based on a predetermined condition, and the body of the pet robot is operated according to the obtained parameter. In other words, it is possible to operate the pet robot according to emotions and physical condition by moving the body to perform the corresponding action on the condition that the pet robot is "struck", "stroking", etc. Can act like a living pet.
[0011]
For example, the imaging unit is provided at a position corresponding to the eyes, a position corresponding to the nose, a position corresponding to the mouth, and the like, which are part of the body of the pet robot, and images the subject. That is, shooting can be performed from the viewpoint of the pet robot.
[0012]
  Further, in the image processing means, with respect to the photographed image obtained by photographing with the photographing means,Expresses emotions in accordance with the parameters indicating the current state calculated by the calculation means for the photographed image obtained by photographing with the photographing means.Predetermined image processing is performed.That is, predetermined image processing is performed so as to express the emotion of the pet robot. In this way, in the image processing means, predetermined image processing is performed in accordance with parameters representing a state including the current emotion and physical condition of the pet robot.It is possible to reflect the state of the pet robot's emotion and physical condition in the photographed image.
  Since the image processing means includes an output means for outputting a photographed image subjected to image processing,By confirming the photographed image subjected to image processing, it is possible to confirm the emotion and physical condition of the pet robot.As the output means, for example, the photographed image can be confirmed by displaying the photographed image on a display means such as a monitor.
[0013]
In the case of pets that are actually alive, the health status can be confirmed by checking the excrement etc. of the pet, but in the same way, confirming the captured image that has been subjected to image processing by the image processing means Can check the emotion and physical condition of the pet robot, so that it can communicate deeply like a pet living in practice.
[0014]
  The predetermined image processing by the image processing means is performed by a plurality of parameters as in the invention according to claim 2.InStorage means for storing the corresponding image processing conditions is further provided, and the image processing meansCorresponds to the parameter calculated by the calculation meansThe image processing conditions may be read from the storage unit, and image processing may be performed under the read image processing conditions. That is, by storing the image processing conditions corresponding to the state of emotion, physical condition and the like in the storage unit, it is possible to perform image processing according to the state of emotion, physical condition and the like of the pet robot.
[0017]
  Claim3The invention described in claim1 or claim 2In the invention described in item 1, the output unit includes a recording unit that records the photographed image on a recording material based on the photographed image subjected to the image processing by the image processing unit.
[0018]
  Claim3According to the invention described in claim1 or claim 2In the invention described in the above, it is possible to use, as the output unit, a recording unit that records a captured image on a recording material such as paper or photographic paper based on a captured image that has been subjected to image processing by the image processing unit. By confirming the captured image recorded on the recording material, it is possible to confirm the state of the pet robot such as emotion and physical condition.
[0019]
  The invention according to claim 4 is the invention according to claim 1.~Claim3In the invention according to any one of the above,The detection meansDetects objects corresponding to predetermined foodShi,The calculating meansThe parameter representing the current state according to the detection result of the detection meanscalculateIt is characterized by that.
[0020]
  Claim4According to the invention described in claim 1,~Claim3In the invention according to any one of the above,Detection meansDetects objects corresponding to a predetermined bait, such as paperThe calculation meansBy setting parameters that express emotions, physical condition, etc. according to the detection results of the exit means, it is possible to change the state of the pet robot's emotions, physical condition, etc. by the act of feeding, deeper communication with the pet robot It becomes possible.
[0021]
  Claim5The invention described in claim 1~Claim4In the invention according to any one of the above, the parameters are at least a first parameter indicating that the patient is in good mood, a second parameter indicating that the patient is in bad mood, and a third parameter indicating that the patient is in poor health. When the obtained parameter is the first parameter, the image processing means performs the image processing so that a good image quality is obtained, and when the obtained parameter is the second parameter, the image processing means is dark. The image processing is performed so as to achieve image quality, and when the obtained parameter is the third parameter, the image processing is performed so that the captured image becomes a distorted image.
[0022]
  According to the invention of claim 5, claim 1~Claim4In the invention described in any one of the above, at least a first parameter indicating that the patient is in good mood, a second parameter indicating that the patient is in bad mood, and a second parameter indicating that the patient is in poor health It is possible to use three parameters, etc., and when the pet robot is operating based on the first parameter, the image processing means performs image processing so as to obtain a good image quality, and based on the second parameter. When the pet robot is operating, image processing is performed so that the image quality is dark. When the pet robot is operating based on the third parameter, the captured image is distorted. By performing image processing, it is possible to confirm the emotion and physical condition of the pet robot from the captured image.
[0023]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings.
[0024]
FIG. 1 shows an appearance of a pet robot 10 according to the embodiment of the present invention. The pet robot 10 is, for example, a pet-type robot that has an outer shape of an animal such as a dog or a cat and walks on four legs. In addition, the pet robot 10 may be a pet type robot such as an insect type. The pet robot 10 according to the present embodiment has a function of shooting an image viewed from the viewpoint of the pet robot 10 and creating a print based on the image obtained by the shooting.
[0025]
The pet robot 10 includes four limbs 12 for walking, the indirect portion of each limb 12 is movable, and is driven by a motor or the like to be described later to walk independently. The mouth 14, the head (neck) 16 and the tail 18 are also movable, and are similarly driven by a motor or the like which will be described later.
[0026]
An imaging element 20 such as a CCD for capturing an image viewed from the viewpoint of the pet robot 10 is provided at the position of the eyes of the pet robot 10.
[0027]
Further, the back of the pet robot 10 is provided with a discharge port 24 and a monitor 22 for discharging the print P created based on the photographed image. The monitor 22 displays a photographed image and the pet robot 10. Information for various operations is displayed, and the print P created by recording the photographed image on a recording material such as paper or photographic paper is discharged from the discharge port 24. The arrangement positions of the monitor 22 and the discharge port 24 are not limited to the back of the pet robot 10, and may be arranged, for example, on the stomach.
[0028]
In FIG. 2, the pet robot 10 concerning this Embodiment is shown as a functional block diagram divided for every function.
[0029]
As shown in FIG. 2, the pet robot 10 according to the present embodiment includes an operation function unit 30 that controls a function as a robot, and a shooting print function that generates shooting by the robot and a print P of a shot image obtained by the shooting. Part 32.
[0030]
The motion function unit 30 is a state calculation unit 34 for calculating parameters representing emotions, physical condition, etc. of the pet robot 10 according to the user's action on the pet robot 10, and the pet according to the calculation result of the state calculation unit 34. The head 16, limb 12, mouth 14, and tail 18 of the pet robot 10 are controlled by the operation control unit 36 that controls the movement of the head 16, limb 12, mouth 14, tail 18, and the like of the robot 10. Is a part that controls emotions of the pet robot 10, a drive unit 38 that operates the user, an external contact detection unit 40 that detects an action on the pet of the user, a voice recognition unit 42 that detects an inquiry of the user, and the like. The paper receiving unit 44 and the power source of the pet robot 10 and the operation unit 46 for performing various operations are divided. The paper receiving unit 44 receives predetermined paper as bait and detects receipt of the paper. That is, it is detected whether or not food can be obtained, and the emotion of the pet robot 10 is controlled according to the detection result of the paper receiving unit 44.
[0031]
In the motion function unit 30, the state calculation unit 34 acquires information on the external contact detection unit 40, the voice recognition unit 42, the paper receiving unit 44, and the like, calculates parameters representing the emotion, physical condition, and the like of the pet robot 10, Based on the parameters, the operation control unit 36 controls the driving unit 38 to control the operation of the pet robot 10. As a result, the pet robot 10 can be operated like a live pet. For example, an external contact detection unit detects a user's action on the pet robot 10 such as stroking the head 16, feeding a predetermined paper as food to the mouth 14, touching the limbs 12, or hitting the head 16. By detecting by 40, the user is actually alive by controlling the operation of the pet robot 10 so as to express the emotion corresponding to the user's action on the pet robot 10, that is, the emotions corresponding to the user's action. It is supposed to work like a pet.
[0032]
On the other hand, the imaging print function unit 32 includes an imaging unit 48 for imaging from the viewpoint of the pet robot 10, an image processing unit 50 that performs various types of image processing on image data obtained by the imaging unit 48, and an imaging unit 48. It has a printing unit 52 that creates a print P by recording the obtained image data on a recording material.
[0033]
The image processing unit 50 performs various types of image processing on the image data obtained by photographing with the imaging unit 48. The print unit 52 creates a print P by recording an image on a recording material such as paper or photographic paper based on the image data subjected to the image processing by the image processing unit 50. The created print P is discharged out of the pet robot 10 from the discharge unit 24 shown in FIG.
[0034]
In the image processing unit 50, image processing is performed in accordance with parameters representing the emotion and physical condition of the pet robot 10 calculated by the state calculation unit 34 of the motion function unit 30. For example, when the parameter indicating the emotion, physical condition, etc. of the pet robot 10 calculated by the state calculation unit 34 is a parameter indicating a good mood, the color that is normally performed by a digital camera or the like on the image data When image processing such as correction and gamma correction is performed so that the print unit 52 can create a beautiful print P, or when the parameters indicate a bad mood, the image data is usually digital In addition to performing image processing such as color correction and γ correction performed by a camera or the like, image processing such as lowering contrast is performed so that the print unit 52 can create a dark image print P, In addition to performing image processing such as color correction and γ correction normally performed by a digital camera or the like on the image data when the parameter represents a bad thing, the image data It performs image processing such as to distort the to image, processed to create a print P of the distorted image in the print unit 52.
[0035]
That is, according to parameters such as emotion and physical condition of the pet robot 10 at the timing when the user instructs photographing by operating the operation unit 46, the image data is subjected to image processing to create a print. .
[0036]
Next, an electrical configuration of the pet robot 10 according to the present embodiment for operating the above functions will be described. As shown in FIG. 3, the pet robot 10 according to the present embodiment includes a microcomputer in which a CPU 54, a ROM 56, a RAM 58, and an interface (I / F) 60 are connected to a bus 62 so that they can communicate with each other. Yes. That is, the operation of the pet robot 10 is comprehensively controlled by the control of the CPU 54.
[0037]
The ROM 56 represents various programs for operating the pet robot 10, various programs for photographing and creating prints, emotions and physical conditions of the pet robot 10, and the pet robot 10 according to the emotions and physical conditions. Parameters for operating, image processing conditions corresponding to the parameters, and the like are stored, and the RAM 58 stores image data obtained by photographing with an image sensor described later. The ROM 56 corresponds to a storage unit of the present invention.
[0038]
A monitor 22 that is provided on the back of the pet robot 10 and displays an image obtained by photographing with the image sensor 20 and each information is connected to the I / F 60 via a display circuit 64. The monitor 22 corresponds to the output means of the present invention.
[0039]
Further, the I / F 60 is connected to a motor 66 for driving the limb 12, the head 16, the mouth 14, the tail 18 and the like of the pet robot 10 via a drive circuit 68, and according to the calculation result of the CPU 54. The motor 66 is driven to perform an operation according to the emotion and physical condition of the pet robot 10. In addition, these limbs 12, head 16, mouth 14, tail 18, and the like are for detecting an action (for example, an action such as stroking the head 16, touching the limb 12, or pulling the tail 18). The various detection devices 70 are connected to the I / F 60 via the external contact detection circuit 72, and can detect an action when the user contacts the pet. The various detection devices 70 include, for example, an encoder for detecting movement of the limb 12 and the head 16 due to the user's act on the pet robot 10, various switches for detecting the stroke of the head 16, and the like. Raised. The various detection devices 70 also include a sensor that is provided in the mouth 14 and detects paper as bait.
[0040]
That is, the CPU 54 obtains parameters representing the emotion, physical condition, etc. of the pet robot 10 stored in the ROM 56 based on the detection results of the various detection devices 70, and based on the parameters, the limb 12, the head 16, the mouth 14 By driving the tail 18 and the like, emotions, physical condition and the like are expressed by the operation of the pet robot 10. For example, the pet robot 10 according to the present embodiment sets a parameter indicating that the mood is improved by giving a predetermined paper as a bait to the mouth 14 (adding it to the mouth 14). In response to this, an operation or the like indicating that the person is in good mood is performed.
[0041]
In addition, a microphone 74 is connected to the I / F 60 via the voice recognition circuit 76 in the pet robot 10 to detect a user's inquiry to the pet robot 10 (for example, an inquiry such as calling a name). Voice recognition is performed by the voice recognition circuit 76. The voice recognition can be performed by the user registering the name of the pet robot 10 or the like in advance (stored in a nonvolatile memory (not shown)).
[0042]
Furthermore, the pet robot 10 is provided with an operation button 78 for performing power on / off of the pet robot 10, a photographing instruction, various settings, and the like, and the operation button 78 is connected to the I / F 60.
[0043]
As described above, the pet robot 10 can be photographed from the viewpoint of the pet robot 10, and the photographing is performed by the image sensor 20 such as a CCD. The image sensor 20 is provided at the eye position of the pet robot 10. The image sensor 20 has a function of capturing an image for recognizing obstacles and the like around the pet robot 10 in addition to the photographing function. Further, the image sensor 20 is not limited to the position of the eyes of the pet robot 10, and may be provided in the mouth, for example.
[0044]
The image sensor 20 is connected to the I / F 60 via an amplifier 84 and an A / D converter 86, and an image formed on the image sensor 20 is sent as image data to the image data processing circuit 80 via the I / F 60. It comes to be taken in. Note that the image sensor 20 is driven by an image sensor drive circuit 88 connected to the I / F 60.
[0045]
Note that the image sensor 20 and the image sensor drive circuit 88 correspond to the imaging means of the present invention.
[0046]
Further, the imaging element 20 is provided with a lens 90 for forming an image of the subject, and the subject image is formed on the imaging element 20 by the lens 90. That is, image data representing an image from the viewpoint of the pet robot 10 can be obtained by photographing the subject image formed by the lens 90 with the imaging element 20. In addition, although the pan focus lens is applied to the lens 90, a lens such as a zoom lens may be applied.
[0047]
The image data processing circuit 80 reads out image processing conditions stored in the ROM 56 and performs various image processing on the image data obtained by the image sensor 20. For example, the image data processing circuit 80 performs various processes such as color correction, γ correction, and Y / C conversion. Further, in the image data processing circuit 80, image processing is performed under image processing conditions corresponding to the parameter in accordance with a parameter representing emotion, physical condition, or the like represented by the calculation result of the CPU 54. For example, as described above In addition, when a parameter indicating that the pet robot 10 is in good mood is selected, image processing is performed so that the subject image becomes a beautiful image, or the pet robot 10 is in bad mood according to the parameter. Is selected, a parameter indicating that the pet robot 10 is in poor physical condition is selected according to the parameter, such as image processing such as lowering the contrast so that the subject image becomes darker. In such a case, image processing is performed so that the subject image becomes a distorted image according to the parameter.
[0048]
The image data processing circuit 80 and the ROM 56 correspond to the image processing means of the present invention.
[0049]
The image data processed by the image data processing circuit 80 is output to the printer 82 via the I / F 60, and the printer 82 forms an image represented by the image data on a recording material such as paper or photographic paper. It is designed to output. The printer 82 corresponds to output means and recording means of the present invention.
[0050]
For example, as the printer 82, a printer that forms an image by exposing a photosensitive material to light can be applied. In this case, a recording material (photosensitive material) is used when being exposed to light and discharged. A film sheet such as an instant film for developing the developer is applicable.
[0051]
Note that the imaging by the imaging device 20 of the pet robot 10 according to the present embodiment may be performed by the user operating the operation button 78, or the user may use the limbs 12, the head 16, and the head 16 of the pet robot 10. You may make it image | photograph by operating the tail 18 grade | etc.,.
[0052]
Next, the operation of the pet robot 10 configured as described above will be described with reference to the flowchart of FIG.
[0053]
When the power is turned on, in step 100, an initialization process is performed. The initialization process is a process for restoring to the state before the power is turned off, and the data saved in the non-illustrated nonvolatile memory or the like is read and restored to the state before the power is turned off in the termination process when the power is turned off. .
[0054]
In step 102, external contact detection, voice recognition, operation instruction, and the like are detected. That is, the user's action with respect to the pet robot 10 is detected by the various detection devices 70, the microphone 74, the operation buttons 78, and the like.
[0055]
In step 104, state calculation for operating the pet robot 10 is performed in accordance with the detection result of the action of the user on the pet robot 10 detected in step 102. That is, a parameter representing an emotion or the like corresponding to the user's action on the pet robot 10 is calculated as the state value. For example, as described above, when paper as food is added to the mouth, a parameter indicating that the user is in good mood is calculated as the state value.
[0056]
Subsequently, in step 106, the motor 66 is driven by the drive circuit 68 based on the calculated state value. That is, control is performed so as to perform an operation corresponding to the user's action on the pet robot 10. As a result, the operation is controlled like a live pet.
[0057]
In step 108, the state value representing the current emotion or the like of the pet robot 10 is stored and updated in the RAM 58.
[0058]
Subsequently, in step 110, it is determined whether or not a shooting instruction has been issued. This determination is made by determining whether or not a shooting instruction has been made by operating the operation button 78 or the like provided on the pet robot 10.
[0059]
If the determination in step 110 is affirmed, the process proceeds to step 112, a photographing process described later is performed, and the process proceeds to step 114. If the determination in step 110 is negative, the process proceeds to step 114 as it is.
[0060]
In step 114, it is determined whether the power is off. That is, it is determined whether or not the user has instructed to turn off the power. If the determination is negative, the process returns to step 104 described above, and the processes of steps 104 to 114 are repeated. If the determination in step 114 is positive, the process proceeds to step 116 and ends. Processing is performed. That is, the state value and the like of the current emotion stored in the RAM 58 of the pet robot 10 are stored in a non-illustrated non-volatile memory or the like, the power is turned off, and the series of processing ends.
[0061]
In other words, the pet robot 10 according to the present embodiment detects the action that the user performs on the pet robot 10, and the state value representing the emotion, physical condition, etc. of the pet robot 10 is displaced, so that Can be operated like a pet.
[0062]
Next, the above photographing process will be described with reference to the flowchart of FIG.
[0063]
If the determination at step 110 is affirmed, the routine proceeds to step 200 in the flowchart shown in FIG.
[0064]
In step 200, the state value is acquired by the image data processing circuit 80. That is, parameters representing the current emotion and physical condition of the pet robot 10 stored in the RAM 58 are input to the image data processing circuit 80.
[0065]
In step 202, image processing based on the acquired state value is performed by the image data processing circuit 80. That is, image processing is performed under image processing conditions according to parameters representing emotions, physical conditions, and the like represented by the calculation results of the CPU 54. For example, as described above, when a parameter indicating that the pet robot 10 is in good condition is acquired as a state value by the image data processing circuit 80, image processing is performed so that the subject image becomes a beautiful image. When the parameter indicating that the pet robot 10 is in a bad mood is acquired as a state value by the image data processing circuit 80, image processing such as reducing the contrast so that the subject image becomes dark is performed, When a parameter indicating the physical condition of the robot 10 is acquired as a state value by the image data processing circuit 80, image processing is performed so that the subject image becomes a distorted image.
[0066]
In step 204, an image represented by the image data is recorded on a recording material such as paper or photographic paper based on the image data subjected to the image processing by the image data processing circuit 80, and a print P is created. The process proceeds to step 206.
[0067]
In step 206, the print P is discharged from the pet robot 10, and the process returns to the flowchart shown in FIG. That is, the created print P is discharged from the discharge port 24 shown in FIG.
[0068]
That is, in the pet robot 10 according to the present embodiment, for example, emotion and physical condition are controlled according to the act of giving paper as food. Then, according to the state, image processing is performed on the image data obtained by photographing from the viewpoint of the pet robot 10, for example, a beautiful print when feeling good, a dark print when feeling bad, and a distortion when feeling bad Since the prints of the images are created according to the state of each pet robot 10, the state of emotions, physical condition, etc. of the pet robot 10 can be grasped by checking the created prints. 10 can be communicated more intimately. In addition, the confirmation of the print P is similar to grasping the health condition by confirming the excrement etc. of a live pet, and the confirmation of the print P takes deep communication like a live pet in practice. be able to
In the above embodiment, the print P corresponding to the emotion and physical condition of the pet robot 10 is created and the state of the pet robot 10 is confirmed by the print P. However, the present invention is not limited to this. Instead, for example, the state of the pet robot 10 may be confirmed by a captured image displayed on the monitor 22.
[0069]
【The invention's effect】
As described above, according to the present invention, an image is provided that includes a photographing unit that photographs a subject, and that matches a captured image obtained by photographing by the photographing unit with parameters representing emotions, physical condition, and the like of the pet robot. Since the processing is performed, it is possible to confirm the emotion and physical condition of the pet robot by confirming the captured image on which the image processing has been performed, such as confirmation of excrement from an actual living pet. It has the effect of being able to communicate deeply like a live pet in practice.
[Brief description of the drawings]
FIG. 1 is a perspective view showing an appearance of a pet robot according to an embodiment of the present invention.
FIG. 2 is a functional block diagram in which the pet robot according to the embodiment of the present invention is divided for each function.
FIG. 3 is a block diagram showing an electrical configuration of the pet robot according to the embodiment of the present invention.
FIG. 4 is a flowchart for explaining the operation of the pet robot according to the embodiment of the present invention.
FIG. 5 is a flowchart showing a photographing process in the pet robot according to the embodiment of the present invention.
[Explanation of symbols]
10 Pet robot
20 Image sensor
22 Monitor 22
34 State calculator
36 Operation control unit
38 Drive unit
40 External contact detector
42 Voice recognition unit
46 Operation unit
48 Imaging unit
50 Image processing section
52 Print section
56 ROM
80 Image data processing circuit
82 Printer
88 Image sensor drive circuit

Claims (5)

外部からの行為を検出する検出手段と、少なくとも感情及び体調を含む状態を表す複数のパラメータを有し、前記検出手段によって検出された前記行為に対応する前記パラメータを算出する算出手段と、前記算出手段の算出結果に基づいて、前記行為に対応する喜怒哀楽を表現するように動作を制御する動作制御手段と、を備えたペットロボットであって、
被写体を撮影する撮影手段と、
前記撮影手段で撮影することによって得られる撮影画像に対して、前記算出手段によって算出された現在の前記状態を表す前記パラメータに合わせて前記喜怒哀楽を表す所定の画像処理を施す画像処理手段と、
前記画像処理手段によって前記画像処理が施された前記撮影画像を出力する出力手段と、
を含むことを特徴とするペットロボット。
Detection means for detecting an action from the outside, calculation means for calculating the parameter corresponding to the action detected by the detection means , having a plurality of parameters representing a state including at least emotion and physical condition; and the calculation An operation control means for controlling an action so as to express emotions corresponding to the action based on a calculation result of the means, and a pet robot comprising:
Photographing means for photographing the subject;
Image processing means for performing predetermined image processing representing the emotion in accordance with the parameter representing the current state calculated by the calculation means on a photographed image obtained by photographing with the photographing means; ,
Output means for outputting the photographed image subjected to the image processing by the image processing means;
A pet robot characterized by including:
前記複数のパラメータに対応する画像処理条件を記憶した記憶手段をさらに含み、前記画像処理手段は、前記算出手段によって算出された前記パラメータに対応する画像処理条件を記憶手段から読み取り、該画像処理条件で、画像処理することを特徴とする請求項1に記載のペットロボット。Further comprising a storage means for storing image processing conditions that correspond to the plurality of parameters, the image processing unit reads the image processing conditions corresponding to the parameter calculated by the calculation means from the storing means, the image processing The pet robot according to claim 1, wherein image processing is performed under conditions. 前記出力手段は、前記画像処理手段によって前記画像処理が施された前記撮影画像に基づいて、記録材料に前記撮影画像を記録する記録手段からなることを特徴とする請求項1又は請求項2に記載のペットロボット。3. The recording apparatus according to claim 1 , wherein the output unit includes a recording unit that records the photographed image on a recording material based on the photographed image subjected to the image processing by the image processing unit. The described pet robot. 前記検出手段が予め定められた餌に対応する物を検出し、前記算出手段が前記検出手段の検出結果に応じて現在の前記状態を表す前記パラメータを算出することを特徴とする請求項1〜請求項3の何れか1項に記載のペットロボット。 The detection means detects an object corresponding to a predetermined bait, and the calculation means calculates the parameter representing the current state according to a detection result of the detection means. The pet robot according to claim 3 . 前記パラメータは、少なくとも、機嫌がよいことを表す第1パラメータ、機嫌が悪いことを表す第2パラメータ、及び体調が悪いことを表す第3パラメータからなり、前記画像処理手段は、求めたパラメータが前記第1パラメータである場合に、良好な画質となるように前記画像処理を行い、求めたパラメータが前記第2パラメータである場合に、暗い画質となるように前記画像処理を行い、求めたパラメータが第3パラメータである場合に、前記撮影画像が歪んだ画像となるように前記画像処理を行うことを特徴とする請求項1請求項4の何れか1項に記載のペットロボット。 The parameters include at least a first parameter indicating that the patient is in a good mood, a second parameter indicating that the patient is in a bad mood, and a third parameter indicating that the patient is in poor physical condition. When the first parameter is set, the image processing is performed so that the image quality is good. When the obtained parameter is the second parameter, the image processing is performed so that the image quality is dark. when the third parameter, the pet robot according to any one of claims 1 to 4, characterized in that performing the image processing so that the photographed image becomes distorted image.
JP2002124094A 2002-04-25 2002-04-25 Pet robot Expired - Fee Related JP4099003B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002124094A JP4099003B2 (en) 2002-04-25 2002-04-25 Pet robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002124094A JP4099003B2 (en) 2002-04-25 2002-04-25 Pet robot

Publications (2)

Publication Number Publication Date
JP2003311027A JP2003311027A (en) 2003-11-05
JP4099003B2 true JP4099003B2 (en) 2008-06-11

Family

ID=29539204

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002124094A Expired - Fee Related JP4099003B2 (en) 2002-04-25 2002-04-25 Pet robot

Country Status (1)

Country Link
JP (1) JP4099003B2 (en)

Also Published As

Publication number Publication date
JP2003311027A (en) 2003-11-05

Similar Documents

Publication Publication Date Title
JP4196714B2 (en) Digital camera
CN109640641B (en) Bait casting system, image processing device and image processing method
JP2004001162A (en) Pet robot charging system, receiving arrangement, robot, and robot system
US8228391B2 (en) Image pickup apparatus and lens barrel
EP1120740A1 (en) Robot device, its control method, and recorded medium
US9282238B2 (en) Camera system for determining pose quality and providing feedback to a user
US7657172B2 (en) Controller, photographing equipment, control method of photographing equipment, and control program
JP4290164B2 (en) Display method for displaying display showing identification area together with image, program executed by computer apparatus, and imaging apparatus
JP2019005842A (en) Robot, robot controlling method, and program
EP3790500B1 (en) Methods and systems for adjusting behavior of oral care device based on status of oral cavity
KR100732136B1 (en) Imager and personal idenfification system
JP4649550B2 (en) camera
JP2010134910A (en) Pet image detection system and method of controlling operation of the same
JP4000175B1 (en) IMAGING DEVICE AND IMAGING CONTROL PROGRAM FOR IMAGING DEVICE
JP4099003B2 (en) Pet robot
WO2006056655A1 (en) An improved camera apparatus and a method and software for using such
JP4080165B2 (en) Robot and control method thereof
JP5046809B2 (en) Image processing apparatus and method, and imaging apparatus
JP4633775B2 (en) Robot and control method thereof
JP4620102B2 (en) Robot and control method thereof
JP7344348B2 (en) Imaging device, control method, program, and non-temporary recording medium
JP4773924B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
WO2022102534A1 (en) Determination device, determination method, and determination program
JP2020027982A (en) Teacher data preparation device, teacher data preparation method, teacher data preparation program, learning device, and imaging device
JPWO2019215318A5 (en)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061130

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061130

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070412

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070420

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20070622

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080314

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110321

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110321

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120321

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees