JP7479019B2 - ペット状況推定システム、ペットカメラ、サーバ、ペット状況推定方法、及びプログラム - Google Patents

ペット状況推定システム、ペットカメラ、サーバ、ペット状況推定方法、及びプログラム Download PDF

Info

Publication number
JP7479019B2
JP7479019B2 JP2022546235A JP2022546235A JP7479019B2 JP 7479019 B2 JP7479019 B2 JP 7479019B2 JP 2022546235 A JP2022546235 A JP 2022546235A JP 2022546235 A JP2022546235 A JP 2022546235A JP 7479019 B2 JP7479019 B2 JP 7479019B2
Authority
JP
Japan
Prior art keywords
pet
unit
information
estimation
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022546235A
Other languages
English (en)
Other versions
JPWO2022050093A5 (ja
JPWO2022050093A1 (ja
Inventor
友香 中村
宏彰 大眉
靖 上坂
真史 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2022050093A1 publication Critical patent/JPWO2022050093A1/ja
Publication of JPWO2022050093A5 publication Critical patent/JPWO2022050093A5/ja
Application granted granted Critical
Publication of JP7479019B2 publication Critical patent/JP7479019B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K29/00Other apparatus for animal husbandry
    • A01K29/005Monitoring or measuring activity, e.g. detecting heat or mating
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K29/00Other apparatus for animal husbandry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Environmental Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Animal Husbandry (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Description

本開示は、一般に、ペット状況推定システム、ペットカメラ、サーバ、ペット状況推定方法、及びプログラムに関する。本開示は、より詳細には、画像データ内の被写体としてのペットに関するペット状況推定システム、ペット状況推定システムを備えるペットカメラ、サーバ、ペット状況推定方法、及びプログラムに関する。
特許文献1には、画像から動物と人物とをそれぞれ認識し、検出する検出装置が開示されている。この検出装置は、画像から動物を検出する動物検出部と、上記画像から人物を検出する人物検出部とを備えている。また検出装置は、動物かつ人物が検出された場合に、目的の物体が検出されたことを示す情報を検出結果として出力する検出結果出力部を更に備えている。
この検出装置においては、動物検出部は、動物特徴量記憶部に記憶されている動物の特徴を反映した特徴量データに基づいて、入力された画像を走査する。動物検出部21は、動物の特徴量データと合致する、あるいは、類似度が高い領域を特定できた場合には、上記領域に写っている物体を、動物として検出する。
ところで、利用者(例えばペットの飼い主等)は、画像データ内に写るペット(動物)の状況について具体的に知りたい、或いは画像データ内に写るペットが、ある特定の状況にある場合に、その旨の通知を受けたいといった要望がある。
特開2013-65110号公報
本開示は上記事由に鑑みてなされ、ペットの状況を把握しやすくすることができる、ペット状況推定システム、ペットカメラ、サーバ、ペット状況推定方法、及びプログラムを提供することを目的とする。
本開示の一態様のペット状況推定システムは、領域検出部と、情報生成部と、推定部と、物体検出部と、を備える。前記領域検出部は、画像データにおいて、被写体であるペットの容姿の少なくとも一部を示す特定領域を検出する。前記情報生成部は、ペット情報を生成する。前記ペット情報は、ペットの姿勢について画像認識するためにペットの姿勢について学習した学習済みモデルと、前記画像データとに基づく前記ペットの少なくとも姿勢に関する姿勢情報を含む。前記推定部は、前記ペット情報に基づいて、前記特定領域に示される前記ペットの感情及び行動の少なくとも一方に関するペット状況を推定する。前記物体検出部は、前記画像データにおいて前記ペット以外の特定物体を示す物体領域を検出する。前記情報生成部は、前記物体領域に対する前記ペットの相対的な距離を判定する距離判定部を有する。前記ペット情報は、前記距離判定部の判定結果を更に含む。前記推定部は、前記ペット情報と、ペットの特定の行動及び感情の少なくとも一方に関連する条件情報とに基づいて、前記ペット状況を推定する。前記条件情報は、複数種類の特定物体と、ペット及び特定物体間の距離に関する複数の閾値とがそれぞれ対応付けされた情報を含む。前記推定部は、前記距離判定部の判定結果と前記複数の閾値との比較により、前記ペット状況を推定する。
本開示の一態様のペットカメラは、上記のペット状況推定システムと、前記画像データを撮像する撮像部と、を備える。
本開示の一態様のサーバは、上記のペット状況推定システムにおける前記情報生成部及び前記推定部が設けられたペットカメラと通信可能である。前記サーバには、前記領域検出部が設けられている。
本開示の一態様のサーバは、上記のペット状況推定システムにおける前記領域検出部が設けられたペットカメラと通信可能である。前記サーバには、前記情報生成部及び前記推定部が設けられている。
本開示の一態様のペット状況推定方法は、ペット検出ステップと、情報生成ステップと、推定ステップと、物体検出ステップと、を含む。前記ペット検出ステップにて、画像データにおいて、被写体としてのペットの容姿の少なくとも一部を示す特定領域を検出する。前記情報生成ステップにて、ペット情報を生成する。前記ペット情報は、ペットの姿勢について画像認識するためにペットの姿勢について学習した学習済みモデルと、前記画像データとに基づく前記ペットの少なくとも姿勢に関する姿勢情報を含む。前記推定ステップにて、前記ペット情報に基づいて、前記特定領域に示される前記ペットの感情及び行動の少なくとも一方に関するペット状況を推定する。前記物体検出ステップにて、前記画像データにおいて前記ペット以外の特定物体を示す物体領域を検出する。前記情報生成ステップは、前記物体領域に対する前記ペットの相対的な距離を判定する距離判定ステップを有する。前記ペット情報は、前記距離判定ステップの判定結果を更に含む。前記推定ステップでは、前記ペット情報と、ペットの特定の行動及び感情の少なくとも一方に関連する条件情報とに基づいて、前記ペット状況を推定する。前記条件情報は、複数種類の特定物体と、ペット及び特定物体間の距離に関する複数の閾値とがそれぞれ対応付けされた情報を含む。前記推定ステップでは、前記距離判定ステップの判定結果と前記複数の閾値との比較により、前記ペット状況を推定する。
本開示の一態様のプログラムは、1以上のプロセッサに、上記のペット状況推定方法を実行させるためのプログラムである。
図1Aは、一実施形態に係るペット状況推定システムが適用されたペットカメラの概略構成図である。図1Bは、同上のペットカメラと通信する提示装置の概略構成図である。 図2は、同上のペット状況推定システムを備えるペット管理システムの全体構成の概念図である。 図3A~図3Cは、同上のペット状況推定システムにて推定処理の対象となる画像データの一例である。 図4A~図4Cは、同上のペット状況推定システムにて推定処理の対象となる画像データの別の例である。 図5A~図5Cは、同上のペット状況推定システムにて推定処理の対象となる画像データのさらに別の例である。 図6は、同上のペット状況推定システムにて推定処理の対象となる画像データのさらに別の例である。 図7A及び図7Bは、同上のペット状況推定システムによる推定結果が画面上にて提示されている提示装置の概念図である。 図8は、同上のペット状況推定システムの動作例を説明するためのフローチャートである。 図9は、同上のペット状況推定システムの動作例を説明するためのフローチャートである。 図10は、同上のペット状況推定システムの変形例が適用されたペットカメラの概略構成図である。
(1)概要
以下の実施形態において説明する各図は、模式的な図であり、各図中の各構成要素の大きさ及び厚さそれぞれの比が、必ずしも実際の寸法比を反映しているとは限らない。
本実施形態の一の形態に係るペット状況推定システム1は、図1Aに示すように、領域検出部32と、情報生成部33と、推定部34と、を備えている。ペット状況推定システム1は、1以上のプロセッサ及び1以上のメモリを有するコンピュータシステムを主構成とする。ここでは一例として、ペット状況推定システム1の構成要素(領域検出部32、情報生成部33、及び推定部34等)は全て、ペットカメラ100の一の筐体内に集約して設けられているものとして説明する。しかし、本開示におけるペット状況推定システム1の構成要素は分散して設けられてもよく、例えばペット状況推定システム1の構成要素の少なくとも一部が、ペットカメラ100の外部(例えばサーバ7等の外部サーバ)に設けられてもよい。例えば、ペットカメラ100に、情報生成部33及び推定部34が設けられて、ペットカメラ100と通信可能なサーバ7に、領域検出部32が設けられてもよい。或いは、ペットカメラ100に、領域検出部32が設けられて、ペットカメラ100と通信可能なサーバ7に、情報生成部33及び推定部34が設けられてもよい。ここでいう「サーバ」は、1台の外部装置(利用者300の宅内に設置される装置でもよい)から構成されてもよいし、複数の外部装置から構成されてもよい。
領域検出部32は、画像データD1(図3A~図6)において、被写体H1であるペット5の容姿の少なくとも一部を示す特定領域A1を検出する。ここでは、画像データD1は、ペットカメラ100の撮像部2(図1A参照)で撮像(生成)された画像(データ)である。画像データD1は、静止画像、又は動画像中の1コマ(フレーム)の画像でもよい。また画像データD1は、撮像部2で撮像された画像の一部を加工したものでもよい。以下の説明では、ペット状況推定システム1の推定対象とする「ペット」の種類が、犬(動物)である場合を想定する。「ペット」の種類は、特に限定されず、猫でもよいし、その他の動物でもよい。
また以下では、画像データD1に写っている(着目する)「犬(ペット)」については符号「5」を付与して説明し、不特定多数の「犬(ペット)」については符号を付けずに説明する場合もある。
ここで特定領域A1は、図3A~図6に示すように、画像データD1内において矩形の枠状で囲まれた領域であり、被写体H1のペット5を囲む「バウンディングボックス」で示される。画像データD1内でのペット5の位置は、例えば、バウンディングボックスにおける左上隅のX軸座標、Y軸座標、バウンディングボックスの横幅、及びバウンディングボックスの高さ等によって定義される。しかし、特定領域A1は、バウンディングボックスで示されることに限定されず、例えば、画素単位で被写体H1と背景とを区別するセグメンテーションで示されてもよい。本開示における画像データD1内でのペット5、ペット5以外の特定物体6の位置を特定するための「X-Y座標」は、一例として画素単位で規定されているものとする。
情報生成部33は、ペット情報を生成する。ペット情報は、ペットの姿勢について画像認識するためにペットの姿勢について学習した学習済みモデル(以下、「第1モデルM1」と呼ぶことがある)と、画像データD1とに基づくペット5の少なくとも姿勢に関する姿勢情報を含む。第1モデルM1は、機械学習により生成されたモデルであり、ペットカメラ100のモデル格納部P1(図1A参照)に格納されている。
本実施形態では、領域検出部32と情報生成部33とが、画像データD1から犬(ペット5)を検出するペット検出部X1(図1A参照)を構成する。ただし、情報生成部33の機能の少なくとも一部が、ペット検出部X1の外部に設けられてもよい。
推定部34は、ペット情報に基づいて、特定領域A1に示されるペット5の感情及び行動の少なくとも一方に関するペット状況を推定する。本実施形態では一例として、推定部34は、ペット情報と、ペットの特定の行動及び感情の少なくとも一方に関連する条件情報9(図1A参照)とに基づいて、ペット状況を推定する。条件情報9は、ペットカメラ100の条件格納部P2(図1A参照)に格納されている。
この構成によれば、推定部34は、ペット情報に基づいて、ペット5の感情及び行動の少なくとも一方に関するペット状況を推定するため、結果的に、ペット5の状況を把握しやすくすることができる。
また本実施形態の別の形態に係るペット状況推定方法は、ペット検出ステップと、情報生成ステップと、推定ステップと、を含む。ペット検出ステップにて、画像データD1において、被写体H1としてのペット5の容姿の少なくとも一部を示す特定領域A1を検出する。情報生成ステップにて、ペット情報を生成する。ペット情報は、ペットの姿勢について画像認識するためにペットの姿勢について学習した学習済みモデルM1と、画像データD1とに基づくペット5の少なくとも姿勢に関する姿勢情報を含む。推定ステップにて、ペット情報に基づいて、特定領域A1に示されるペット5の感情及び行動の少なくとも一方に関するペット状況を推定する。
この構成によれば、推定ステップにて、ペット情報に基づいて、ペット5の感情及び行動の少なくとも一方に関するペット状況を推定するため、結果的に、ペット5の状況を把握しやすくすることができる。
ペット状況推定方法は、コンピュータシステム(ペット状況推定システム1)上で用いられる。つまり、ペット状況推定方法は、プログラムでも具現化可能である。本実施形態に係るプログラムは、本実施形態に係るペット状況推定方法を、1以上のプロセッサに実行させるためのプログラムである。
(2)詳細
以下、本実施形態に係るペット状況推定システム1が適用されたシステム(以下、「ペット管理システム200」と呼ぶ)について、図1A~図9を参照しながら詳しく説明する。
(2.1)全体構成
ペット管理システム200は、図2に示すように、1又は複数台のペットカメラ100と、1又は複数台の提示装置4と、サーバ7と、を備えている。以下では、ペット管理システム200を利用して、ペット5の管理(見守り)支援のサービスを受ける、ある一人の利用者300(図2参照)に着目して説明する。利用者300は、例えば、ペット5の飼い主であるが、特に限定されない。
利用者300は、1又は複数台のペットカメラ100を、施設(例えばペット5と一緒に住む住居)の所定の位置に設置する。利用者300は、ペットカメラ100を複数台設置する場合、住居内の各部屋に1台ずつ設置してもよい。ペットカメラ100は、屋内に設置されることに限定されず、屋外に設置されてもよい。以下では、説明の便宜上、1台のペットカメラ100に着目して説明する。
提示装置4は、例えば、利用者300が所有する情報端末であることを想定する。情報端末は、一例としてスマートフォン又はタブレット端末等の携帯型の情報端末を想定する。しかし、提示装置4は、ノートパソコン、又は据置型のパソコンでもよい。
提示装置4は、図1Bに示すように、通信部41と、処理部42と、表示部43とを有している。
通信部41は、ペットカメラ100(図2参照)及びサーバ7(図2参照)の各々と互いに通信可能とするための通信インタフェースである。通信部41は、ペットカメラ100及びサーバ7のうちいずれか一方のみと通信可能であってもよい。
処理部42は、1以上のプロセッサ(マイクロプロセッサ)と1以上のメモリとを含むコンピュータシステムにより実現され得る。つまり、1以上のプロセッサが1以上のメモリに記憶された1以上のプログラム(アプリケーション)を実行することで、処理部42として機能する。プログラムは、ここでは処理部42のメモリに予め記録されているが、インターネット等の電気通信回線を通じて、又はメモリカード等の非一時的な記録媒体に記録されて提供されてもよい。利用者300は、見守りの対象となるペット5に関するGUI(Graphical User Interface)を提示するための専用のアプリケーションソフト(以下では「ペットアプリ」と呼ぶ)をインストールし、このペットアプリを起動することにより提示装置4として機能する。
表示部43は、タッチパネル式の液晶ディスプレイ又は有機EL(Electro-Luminescence)ディスプレイを構成する。提示装置4がペットアプリを実行することで、表示部43にはペット5に関する情報を提示する画面が表示(出力)される。
ところで、ペット5と一緒に住む住人(家族)が複数である場合、複数の住人が、利用者300としてペット5の管理支援のサービスを受ける場合、ペット管理システム200は、複数の住人(複数の利用者300)がそれぞれ携帯する複数台の提示装置4を備えることになる。以下では、説明の便宜上、ある一人の利用者300(住人)が携帯する1台の提示装置4(スマートフォン)に着目して説明する。
ペットカメラ100は、例えば、ペット見守り用の撮像機能を有した装置である。言い換えると、ペットカメラ100は、図1Aに示すように、撮像部2(カメラ装置)を備えている。利用者300は、飼っているペット5が居住内(居住外でもよい)で、主に活動し得る場(例えばエサが置かれている場所)となっている領域が撮像部2の視野角内に収まるように、ペットカメラ100を設置する。利用者300は、撮像部2で撮像された画像を通じて、例えば外出中であっても、ペット5の状況を見守ることができる。
上述の通り、ここでは一例として、ペットの種類は犬であることを想定する。図3A~図6では、複数の犬種のペット5を示す画像データD1が例示されているが、これらの図面は、ペット状況推定システム1を説明するために、犬の「姿勢の種類」を例示しているにすぎず、犬種は特に限定されない。ペット状況推定システム1は、例えば犬の「姿勢」について犬種を問わずに、ある程度共通して認識するように構成されるが、犬種によって個別に姿勢を認識してもよい。
ペットカメラ100は、図1Aに示すように、撮像部2に加えて通信部11を更に備えている。通信部11は、提示装置4(図2参照)及びサーバ7(図2参照)の各々と互いに通信可能とするための通信インタフェースである。通信部11は、提示装置4と、例えばBLE(Bluetooth(登録商標) Low Energy)の規格に準拠した近距離無線通信を行う機能を有してもよい。提示装置4を携帯する利用者300(図2参照)が宅内に居る場合、通信部11は、提示装置4と直接、近距離無線通信することでデータの授受を行ってもよい。
また通信部11は、宅内に設置されたルータ等を介して、インターネット等のネットワークNT1(図2参照)に接続されている。ペットカメラ100は、ネットワークNT1を介して外部のサーバ7と通信を行い、サーバ7から情報を取得したりサーバ7へ情報を出力したりすることが可能である。
図2に示す提示装置4は、通信事業者が提供する携帯電話網(キャリア網)又は公衆無線LAN(Local Area Network)等を介してネットワークNT1に接続されてもよい。携帯電話網には、例えば、3G(第3世代)回線、LTE(Long Term Evolution)回線、4G(第4世代)回線又は5G(第5世代)回線等がある。提示装置4は、携帯電話網に接続可能な環境であれば、携帯電話網を介してネットワークNT1に接続可能となる。例えば、提示装置4を携帯する利用者300が宅外に居る場合、携帯電話網等を介してネットワークNT1に接続されることで、ペットカメラ100及びサーバ7の各々と通信可能となる。
また提示装置4及びペットカメラ100間の通信は、ネットワークNT1及びサーバ7を介して行われてもよい。
ここで上述の通り、ペット状況推定システム1は、図1Aに示すように、ペットカメラ100に設けられている。具体的には、ペットカメラ100は、図1Aに示すように、処理部3、モデル格納部P1及び条件格納部P2を更に備えていて、これらがペット状況推定システム1を構成する。なお、ペット状況推定システム1の詳細については、次の欄で説明する。
サーバ7は、図2に示すように、ネットワークNT1に接続されている。サーバ7は、ネットワークNT1を介して、ペットカメラ100及び提示装置4の各々と通信可能である。サーバ7は、例えば、利用者情報(氏名、利用者ID、電話番号、メールアドレス等)、利用者300が所有するペットカメラ100及び提示装置4の情報(識別情報等)、及び利用者300が飼っているペット5(犬種情報等)の情報を管理する。またサーバ7は、複数のペットカメラ100で撮像された種々の画像データ、及び処理結果(特に処理エラー等)を収集し蓄積する。利用者300は、提示装置4を通じてサーバ7にアクセスすることで、ペットアプリのダウンロードが行えてもよい。
サーバ7は、1台のサーバ装置から構成されることを想定するが、複数台のサーバ装置から構成されてもよいし、そのようなサーバ装置が、例えばクラウド(クラウドコンピューティング)を構築してもよい。またペット状況推定システム1の少なくとも一部の機能が、サーバ7内に設けられてもよい。
(2.2)ペット状況推定システム
ペットカメラ100は、図1Aに示すように、撮像部2及び通信部11に加えて、上述の通り、ペット状況推定システム1として、処理部3、モデル格納部P1及び条件格納部P2を備えている。ペット状況推定システム1は、ペット状況を推定するための「推定処理」を実行する。
モデル格納部P1は、複数の学習済みモデルを含むデータを格納可能に構成される。モデル格納部P1は、EEPROM(Electrically Erasable Programmable Read-Only Memory)のような書き換え可能な不揮発性メモリを含む。また条件格納部P2は、条件情報9を含むデータを格納可能に構成される。条件格納部P2は、EEPROMのような書き換え可能な不揮発性メモリを含む。モデル格納部P1、条件格納部P2は、同一の格納部(メモリ)から構成されてもよい。またモデル格納部P1、条件格納部P2は、処理部3の内蔵メモリであってもよい。
処理部3は、例えば、1以上のプロセッサ(マイクロプロセッサ)と1以上のメモリとを含むコンピュータシステムにより実現され得る。つまり、1以上のプロセッサが1以上のメモリに記憶された1以上のプログラム(アプリケーション)を実行することで、処理部3の後述する各部として機能する。プログラムは、ここでは処理部3のメモリに予め記録されているが、インターネット等の電気通信回線を通じて、又はメモリカード等の非一時的な記録媒体に記録されて提供されてもよい。
処理部3は、ペットカメラ100の全体的な制御、すなわち、撮像部2、通信部11、モデル格納部P1及び条件格納部P2等を制御する制御部としての機能を有する。
ここで処理部3は、図1Aに示すように、取得部31と、領域検出部32と、情報生成部33と、推定部34と、出力部35と、物体検出部36と、を有している。本実施形態では、上述の通り、領域検出部32と情報生成部33とが、画像データD1から犬(ペット5)を検出するペット検出部X1を構成する。
取得部31は、撮像部2から画像データD1(例えば静止画像)を取得するように構成されている。取得部31は、撮像部2から動画像の中の1コマ(フレーム)の画像を、画像データD1として取得してもよい。取得部31が画像データD1を取得すると、処理部3は、推定処理を実行する。
ペット検出部X1の領域検出部32は、画像データD1において、被写体H1であるペット5の容姿の少なくとも一部を示す特定領域A1を検出するように構成される。本実施形態では、領域検出部32は、学習済みモデル(以下、「第2モデルM2」と呼ぶことがある)に基づいて、特定領域A1を検出する。第2モデルM2は、所定の種類のペット(ここでは「犬」)について画像認識するためにその外観要因(特徴量)を(機械)学習したものである。第2モデルM2は、モデル格納部P1に格納されている。
第2モデルM2は、例えばニューラルネットワークを用いたモデル、又は多層ニューラルネットワークを用いた深層学習(ディープラーニング)により生成されるモデルを含み得る。ニューラルネットワーク(多層ニューラルネットワークを含む)は、例えばCNN(Convolutional Neural Network:畳み込みニューラルネットワーク)、又はBNN(Bayesian Neural Network:ベイズニューラルネットワーク)等を含み得る。第2モデルM2は、ASIC(Application Specific Integrated Circuit)又はFPGA(Field-Programmable Gate Array)等の集積回路に、学習済みのニューラルネットワークを実装することで実現されている。第2モデルM2は、ディープラーニングにより生成されるモデルに限定されない。第2モデルM2は、サポートベクターマシン、又は決定木等により生成されるモデルでもよい。
要するに、領域検出部32は、第2モデルM2を用いて、取得した画像データD1内に犬(ペット5)が被写体H1として存在するか否かを推定する。領域検出部32は、画像データD1内に犬(ペット5)が存在すると推定すると、ペット5を囲むバウンディングボックスで定義された特定領域A1(図3A~図6参照)を検出する。特定領域A1は、バウンディングボックスで定義されることに限定されず、例えばセグメンテーションで定義されてもよい。
領域検出部32は、学習済みモデル(以下、「第3モデルM3」と呼ぶことがある)に基づいて、被写体H1の頭部50(図2参照)を示す頭部領域A2(図3A~図6参照)を検出する。第3モデルM3は、所定の種類のペット(ここでは「犬」)の頭部について画像認識するためにその外観要因(特徴量)を学習したものである。つまり、領域検出部32は、第3モデルM3を用いて、顔の部分を含む頭部領域A2を検出する頭部検出部としての機能を更に有している。ただし、領域検出部32と頭部検出部とは、別々に設けられてもよい。第3モデルM3は、モデル格納部P1に格納されている。
第3モデルM3は、第2モデルM2と同様に、例えばニューラルネットワークを用いたモデル、又は多層ニューラルネットワークを用いた深層学習(ディープラーニング)により生成されるモデルを含み得る。第3モデルM3は、ディープラーニングにより生成されるモデルに限定されない。また第3モデルM3は、第2モデルM2と同一モデルから構成されてもよい。
領域検出部32は、第3モデルM3を用いて、画像データD1内に、犬(ペット5)の頭部50が存在するか否かを推定する。領域検出部32は、画像データD1内に、犬(ペット5)の頭部50が存在すると推定すると、頭部50を囲むバウンディングボックスで定義された頭部領域A2(図3A~図6参照)を検出する。頭部領域A2は、バウンディングボックスで定義されることに限定されず、例えばセグメンテーションで定義されてもよい。
ところで、画像データD1が、犬(ペット5)の容姿の一部(例えば顔)がアップになった画像の場合、特定領域A1の検出と頭部領域A2の検出のいずれかの検出について失敗(誤検出)する可能性がある。具体的には、犬(ペット5)の顔がアップになった画像データD1は、「犬の顔」のアノテーションに近いことから、領域検出部32は、「犬の顔(頭部50)」として頭部領域A2を検出できても、「犬(容姿全体)」のアノテーションから外れ得る。その結果、「犬」として特定領域A1の検出に失敗する可能性がある。本実施形態では、領域検出部32は、「犬」及び「犬の顔」の少なくとも一方を検出すれば、取得した画像データD1内に、犬(ペット5)が存在すると推定する。もし頭部領域A2のみを検出した場合には、領域検出部32は、頭部領域A2と略等しい領域を、特定領域A1に設定する。なお、もし特定領域A1を検出したにも関わらず頭部領域A2の検出に失敗した場合には、処理部3は、その画像データD1に関する推定処理を終了してもよい。
ペット検出部X1の情報生成部33は、ペット(ここでは「犬」)の姿勢について画像認識するためにペットの姿勢について学習した学習済みモデル(第1モデルM1)と、特定領域A1が検出された画像データD1とに基づいて、ペット情報を生成する。ペット情報は、特定領域A1に示されるペット5の少なくとも姿勢に関する姿勢情報を含む。
具体的には、情報生成部33は、姿勢判定部331と、向き判定部332と、距離判定部333とを有する。
姿勢判定部331は、第1モデルM1と特定領域A1に関する情報とを用いて、犬(ペット5)の姿勢を判定(推定)するように構成される。第1モデルM1は、犬の姿勢について画像認識するためにその外観要因(特徴量)を学習したものである。
第1モデルM1は、第2モデルM2や第3モデルM3と同様に、例えばニューラルネットワークを用いたモデル、又は多層ニューラルネットワークを用いた深層学習(ディープラーニング)により生成されるモデルを含み得る。第1モデルM1は、ディープラーニングにより生成されるモデルに限定されない。第1モデルM1は、第2モデルM2や第3モデルM3と同一モデルから構成されてもよい。
ここで犬(ペット5)の姿勢について図3A~図6を参照しながら説明する。図3A~図6は、いずれも、ペット状況推定システム1にて推定処理の対象となり得る画像データD1の一例である。
図3Aは、ペット5が四つ足で起立した姿勢(第1姿勢)で、周囲の様子を窺がっている状態を示す画像データD1の一例である。
図3Bは、ペット5が床に伏せている姿勢(第2姿勢)で、正面を向いて周囲の様子を窺がっている状態を示す画像データD1の一例である。
図3Cは、図3Bと同様に、ペット5が第2姿勢で、やや右方向を向いて周囲の様子を窺がっている状態を示す画像データD1の一例である。
図4Aは、ペット5が前足を前方に後ろ足を後方にそれぞれ伸張した姿勢(第3姿勢)で、走っている状態を示す画像データD1の一例である。図4Aでは、ペット5の尻尾は上を向いている。
図4Bは、ペット5が片方の前足と片方の後ろ足は床に着いて他の足は床から離れて曲がっている姿勢(第4姿勢)で、歩いている状態を示す画像データD1の一例である。図4Bでは、ペット5の尻尾が下に垂れている。
図4Cは、ペット5が寝転んでいる姿勢(第5姿勢)で、目を瞑って睡眠中の状態を示す画像データD1の一例である。
図5Aは、ペット5が後ろ足のみで起立した姿勢(第6姿勢)で、人(例えば利用者300)に懐いている状態を示す画像データD1の一例である。
図5Bは、ペット5が座っている姿勢(第7姿勢)で、人(例えば利用者300)と向かい合って懐いている状態を示す画像データD1の一例である。
図5Cは、ペット5が、片方の前足を床から離して他の足で起立している姿勢(第8姿勢)で、玩具63(図示例ではボール)で遊んでいる状態を示す画像データD1の一例である。
図6は、ペット5が頭部50を下げながら四つ足で起立した姿勢(第9姿勢)で、食器64内のエサを食べている状態を示す画像データD1の一例である。
上記の第1姿勢~第9姿勢は、犬(ペット5)が取り得る姿勢の単なる一例であり、これらに限定されない。ただし、第1モデルM1は、犬の姿勢について、犬の何かしらの行動(特に何かしらの感情に関連する行動)と高い関係性を有した姿勢について機械学習して生成される。犬の姿勢の中で、より精度良く推定したい特定の姿勢については、更に細かい状態も区別できるように機械学習される。ここでいう「特定の姿勢」とは、犬の感情と結びつきの深い行動と関連性を有した姿勢である。特に、犬の行動から読み取れる犬の感情は、例えば、「喜」、「怒」、「哀」、「楽」、「怖」、「安(リラックス)」、等であり、犬の特定の姿勢と関係性のある行動の幾つかは、これらの感情のどれかと関連し得る。
例えばペット5が四つ足で起立した姿勢(第1姿勢)でも、歯や舌を見せているか否か、耳が立っているか垂れているかといった状態も区別して姿勢の推定を行えるように機械学習される。例えば、歯を見せている第1姿勢は「威嚇中」という行動と関係性がある。また耳が立っている第1姿勢は、周囲の様子を窺がっている「警戒中」という行動と関係性がある。また耳が垂れている第1姿勢は、「無警戒中」という行動と関係性がある。そして、「威嚇中」という行動は、「怒」という犬の感情に関連する行動として設定され得る。「警戒中」という行動は、「怖」という犬の感情に関連する行動として設定され得る。また「無警戒中」という行動は、「哀」や「安」という犬の感情に関連する行動として設定され得る。またペット5が寝ている姿勢(第5姿勢)でも、どのように寝ているのか、具体的には、背中が丸まっているか伸びているか、目を瞑っているか否か、舌を出しているか否かといった状態も区別して姿勢の推定を行えるように機械学習される。
第1~第3モデルM1~M3を生成するための学習用のデータセットとして、画像データ(生データ)にタグ付けをするアノテーション作業(教師データの決定)において、多数の画像データを用いる。学習用のデータセットは、犬種、犬の色、犬の向き、犬が写っている背景等について制約なしで収集された多数の画像データから選ばれる。学習用のデータセットは、実際の犬の画像データだけでなく、犬のぬいぐるみの画像データ、及びCGで作成された犬の画像データも含んでもよく、これらを混ぜて機械学習を行う。
姿勢判定部331で判定されたペット5の姿勢情報(判定結果、及び特定領域A1に関する情報を含む)は、距離判定部333に出力される。
向き判定部332は、特定領域A1が検出された画像データD1を用いて、画像データD1におけるペット5が向いている方向を判定(推定)するように構成される。つまり、ペット情報は、向き判定部332の判定結果を更に含む。向き判定部332には、領域検出部32から、検出された特定領域A1に関する情報と頭部領域A2に関する情報とが入力される。向き判定部332は、領域検出部32で検出された特定領域A1に関する情報のみから被写体H1であるペット5の向きを判定してもよいが、本実施形態では、特定領域A1に関する情報と頭部領域A2に関する情報とに基づいて、ペット5の向きを判定する。
特に本実施形態では、向き判定部332は、少なくとも特定領域A1に対する頭部領域A2の相対的な位置関係から、ペット5が向いている方向を判定する。具体的には、向き判定部332は、画像データD1内におけるペット5の位置及びサイズに関する情報を、領域検出部32で検出された特定領域A1を通じて取得する。また向き判定部332は、画像データD1内におけるペット5の頭部50の位置及びサイズに関する情報を、領域検出部32で検出された頭部領域A2を通じて取得する。
例えば図3Aの例では、向き判定部332は、頭部領域A2が、特定領域A1内の右上隅に位置していることから、ペット5が概ね右方を向いていると判定する。また図3Bの例では、向き判定部332は、頭部領域A2が、特定領域A1内の上部の、左右方向における中央部に位置していることから、ペット5が概ね正面を向いていると判定する。向き判定部332は、画像データD1内において、ペット5の視線先となる位置(又はその範囲)を推定して、その位置情報を判定結果として出力する。
向き判定部332は、特定領域A1に対する頭部領域A2の相対的な位置関係だけでなく、特定領域A1に対して頭部領域A2が占める面積の割合、頭部領域A2内における目や鼻、口の位置等も考慮してペット5の向きを判定してもよい。この場合、更に判定の信頼性が向上される。
向き判定部332で判定されたペット5の向きに関する情報(判定結果)は、推定部34に出力される。
距離判定部333は、(後述する)物体領域B1に対するペット5の相対的な距離(以下、「ペット物体間距離」と呼ぶことがある)を判定(推定)するように構成される。つまり、ペット情報は、距離判定部333の判定結果(ペット物体間距離に関する情報)を更に含む。言い換えると、画像データD1には、犬(ペット5)以外の物体(特定物体6)が被写体の一部として写り込んでいる場合がある。
図5Aの例では、特定物体6として、人の脚61が写り込んでいる。図5Bの例では、特定物体6として、床に座っている人の全体容姿62が写り込んでいる。図5Cの例では、特定物体6として、犬の玩具63が写り込んでいる。図6の例では、特定物体6として、犬のエサが入った食器64が写り込んでいる。
ここで物体検出部36について説明する。物体検出部36は、画像データD1においてペット5以外の特定物体6を示す物体領域B1を検出するように構成される。本実施形態では、物体検出部36は、所定の種類の特定物体について画像認識するためにその外観要因(特徴量)を学習した学習済みモデル(以下、「第4モデルM4」と呼ぶことがある)に基づいて、物体領域B1を検出する。
第4モデルM4は、第1モデルM1~第3モデルM3と同様に、例えばニューラルネットワークを用いたモデル、又は多層ニューラルネットワークを用いた深層学習(ディープラーニング)により生成されるモデルを含み得る。第4モデルM4は、ディープラーニングにより生成されるモデルに限定されない。また第4モデルM4は、第1モデルM1や、第2モデルM2、第3モデルM3と同一モデルから構成されてもよい。
ここでは、第4モデルM4は、特定物体について、犬の何かしらの行動(特に、何かしらの感情に関連する行動)と高い関係性を有した物体について機械学習して生成される。例えば特定物体6が、人の一部(例えば脚61)又は全部(例えば全体容姿62)であれば、ペット5は、何かしらの感情に関連する行動を取っている可能性が高い。また特定物体6が、玩具63又は食器64であれば、「遊ぶ」という行動、又は「食べる」という行動を取っている可能性が高い。言い換えると、第4モデルM4を生成するための学習用のデータセットとしては、犬以外の物体が写っている多数の画像データのうち、特定物体として、犬が興味を示しやすい物体が写っている画像データが選ばれる。学習用のデータセットは、実際の物体の画像データだけでなく、CGで作成された物体の画像データも含んでもよく、これらを混ぜて機械学習を行う。ここでは、特定物体は、犬以外の物体として定義されているため、他の種類の動物(猫等)も、犬が興味を示しやすい物体として含まれてもよい。
物体検出部36は、第4モデルM4を用いて、画像データD1内に特定物体6が存在するか否かを推定する。物体検出部36は、画像データD1内に、特定物体6が存在すると推定すると、特定物体6を囲むバウンディングボックスで定義された物体領域B1(図5A~図6参照)を検出する。物体領域B1は、バウンディングボックスで定義されることに限定されず、例えばセグメンテーションで定義されてもよい。なお、物体検出部36は、特定物体6に該当しない物体については「背景」と見なす。
物体検出部36は、検出された物体領域B1に関する情報(特定物体6の種類に関する情報も含む)を、距離判定部333に出力する。画像データD1内に特定物体6が存在せず、物体領域B1が検出されなかった場合、物体検出部36は、その旨を距離判定部333に出力する。
距離判定部333は、領域検出部32で検出された頭部領域A2に関する情報と、物体検出部36で検出された物体領域B1に関する情報と、姿勢判定部331で判定されたペット5の姿勢情報とに基づいて、ペット物体間距離を判定する。
具体的には、距離判定部333は、ペット物体間距離として、物体領域B1の位置(左上隅の位置、又は重心位置等)からペット5の位置までの距離に基づき、例えば三段階の距離関係のいずれに該当するかを判定する。ここでは三段階の距離関係は、第1距離状態(非常に密着した距離)、第2距離状態(比較的近い距離)、及び、第3距離状態(比較的遠い距離)とする。第1距離状態~第3距離状態は、例えば画素数に基づき区分けされている。距離関係が三段階であることは単なる一例であって、二段階でも四段階以上でもよいし、無段階(画素単位)でもよい。ここでは頭部領域A2の位置(左上隅の位置又は重心位置等)を、「ペット5の位置」として規定するが、特定領域A1の位置(左上隅の位置又は重心位置等)を、「ペット5の位置」として規定してもよい。
距離判定部333は、さらに、物体領域B1と頭部領域A2(又は特定領域A1)とが互いに重なり合う度合い(面積)も考慮して、ペット物体間距離を判定することが好ましい。
ところで、実際にはペット5が特定物体6に興味を示していない場合であっても、ペット5と特定物体6とが奥行方向で並んでいて、画像データD1内で重なって写っている場合がある。仮に距離判定部333が、画像データD1内における特定物体6の位置からペット5の位置までの距離だけで、ペット物体間距離を判定すると、ペット5が特定物体6に関係する行動を取っていなくても、第1距離状態と判定する可能性がある。そこで距離判定部333は、さらに、姿勢判定部331で判定されたペット5の姿勢情報も考慮して、第1~第3距離状態のいずれに該当するかを判定する。
例えば、特定物体6が食器64であり、食器64の位置からペット5の位置までの距離が第1距離状態にあっても、頭部50を下げた姿勢でなければ、距離判定部333は、この画像データD1を第3距離状態と見なしてもよい。或いは距離判定部333は、この画像データD1を外れ値と見なして推定処理を終了してもよい。
距離判定部333は、ペット物体間距離に関する判定結果と、頭部領域A2に関する情報と、姿勢情報とを推定部34に出力する。
物体検出部36にて物体領域B1が検出されなかった場合、距離判定部333は、ペット物体間距離に関する判定をスキップして、頭部領域A2に関する情報と、姿勢情報とを推定部34に出力する。
本実施形態では、ペット検出部X1は、上述した、領域検出部32における特定領域A1の検出処理と、情報生成部33におけるペット情報を生成する生成処理とを、この順で実行する。しかし、ペット検出部X1は、検出処理と生成処理とを概ね同時に並行して実行してもよい。
推定部34は、ペット情報に基づいて、特定領域A1に示されるペット5の感情及び行動の少なくとも一方に関するペット状況を推定するように構成される。ここでは一例として、推定部34は、ペット情報と、条件情報9とに基づいて、ペット状況を推定する。
ペット情報は、上述の通り、姿勢判定部331で判定されたペット5の姿勢に関する姿勢情報と、向き判定部332で判定されたペット5の向きに関する情報と、距離判定部333で判定されたペット物体間距離に関する情報と、を含む。
条件情報9は、抽出対象として予め設定されたペットの特定の行動及び感情の少なくとも一方に関連する情報である。例えば、下記の表1~表4に示すような対応関係の情報(以下、「パターン」と呼ぶことがある)は、条件情報9として含まれ得る一例であり、この様なパターンが多数用意されてデータベース化されて条件格納部P2内に格納されている。
Figure 0007479019000001
Figure 0007479019000002
Figure 0007479019000003
Figure 0007479019000004
推定部34は、条件情報9の中に、得られたペット情報と合致する条件のパターンが存在するかをサーチする。なお、その際に、推定部34は、ペット5の向きに関する情報と物体領域B1に関する情報とから、ペット5が特定物体6の方を向いているか否か、例えばペット5の視線上に物体領域B1が存在するか否かを推定し、その推定結果を加味して、条件情報9をサーチする。
例えば(上記推定結果も加味して)得られたペット情報が、「第1距離状態」、「四つ足で起立し、頭部を下げている」、及び「食器の方を向いている」という3つの結果を含んでいるとする。推定部34は、条件情報9の中に、これらの結果に合致する条件のパターンが存在するかをサーチする。ここでは表1に示すように合致する条件のパターンが存在し、「食事中/美味しい」という「行動/感情」が紐づけされている。したがって、推定部34は、画像データD1内のペット5のペット状況が「食事中/美味しい」であると推定する。
また例えば、得られたペット情報が、「第1距離状態」、「後ろ足のみで起立」、及び「人の方を向いている」という3つの結果を含んでいるとする。推定部34は、条件情報9の中に、これらの結果に合致する条件のパターンが存在するかをサーチする。ここでは表2に示すように合致する条件のパターンが存在し、「懐いている/喜び」という「行動/感情」が紐づけされている。したがって、推定部34は、画像データD1内のペット5のペット状況が「懐いている/喜び」であると推定する。
また例えば、得られたペット情報が、「第3距離状態」、「四つ足で起立し、歯を見せている」、及び「人の方を向いている」という3つの結果を含んでいるとする。推定部34は、条件情報9の中に、これらの結果に合致する条件のパターンが存在するかをサーチする。ここでは表3に示すように合致する条件のパターンが存在し、「威嚇中/怒っている」という「行動/感情」が紐づけされている。したがって、推定部34は、画像データD1内のペット5のペット状況が「威嚇中/怒っている」であると推定する。
さらに例えば、得られたペット情報が、「第2距離状態」、「片方の前足が浮いている」、及び「玩具の方を向いている」という3つの結果を含んでいるとする。推定部34は、条件情報9の中に、これらの結果に合致する条件のパターンが存在するかをサーチする。ここでは表4に示すように合致する条件のパターンが存在し、「遊んでいる/楽しい」という「行動/感情」が紐づけされている。したがって、推定部34は、画像データD1内のペット5のペット状況が「遊んでいる/楽しい」であると推定する。
上記の表1~表4の例では、各パターンにおいて、条件に対して行動と感情の両方が紐づけされているが、何れか一方だけが紐づけされている場合もある。また各パターンの条件の種類は、少なくとも「ペットの姿勢」に関する条件を含めば、上記3種類(物体との距離、ペットの姿勢、ペットの向き)に限定されない。例えば、頭部領域A2と物体領域B1とが重なっている「面積」に関する条件が含まれてもよい。
このように本実施形態の条件情報9は、ペット5が向いている複数の方向(食器64、人、及び玩具63の方向)と、複数のペット状況(食事中/美味しい、懐いている/喜び、及び、遊んでいる/楽しい)とがそれぞれ対応付けされた向き情報を含む。推定部34は、向き判定部332の判定結果と向き情報とに基づいて、ペット状況を推定する。そのため、ペット5の状況に関する推定の信頼性を向上できる。
また本実施形態における条件情報9は、複数種類の特定物体6(食器64、人、及び玩具63)と、ペット5及び特定物体6間の距離に関する複数の閾値(第1距離状態~第3距離状態)とがそれぞれ対応付けされた情報を含む。推定部34は、距離判定部333の判定結果と複数の閾値との比較により、ペット状況を推定する。そのため、ペットの状況に関する推定の信頼性を更に向上できる。なお、距離判定部333で判定されたペット物体間距離が、第1距離状態~第3距離状態ではなく、ペット5と特定物体6との間の距離が、数値化された情報(例えば画素数に対応する数値)であれば、複数の閾値も数値化された情報でもよい。
特に、推定部34は、物体検出部36にて検出された物体領域B1に示される特定物体6が食器64であり、かつ、距離判定部333にて判定された距離が所定の閾値以下の場合、ペット状況として、ペット5が食事をしていると推定する。この推定は、特定物体6が食器64である場合、ペット5は、鼻先を食器64内に突っ込むほど、特定物体6と密着した状態となり得る点に基づく。したがって、画像データD1のペット5が実際に食事をしている場合に、ペット状況も「食事中」と推定される可能性が高くなる。
本実施形態では、推定部34は、画像データD1内に特定物体6が存在せず、物体領域B1が検出されなかった場合であっても、ペット状況を推定可能である。例えば、条件情報9は、ペットの姿勢のみとペットの特定の行動及び感情の少なくとも一方とが紐づけされたパターンを含む。具体的には、「目を瞑った状態で寝転んでいる」というペットの姿勢は、「睡眠中/安らか」という「行動/感情」と紐づけされている。結果的に、推定部34は、ペットの姿勢のみで、画像データD1内のペット5のペット状況が「睡眠中/安らか」であると推定する。
出力部35は、推定部34の推定結果(推定されたペット状況)を出力するように構成される。特に本実施形態では、出力部35は、推定部34の推定結果を、上記推定結果の基となった特定領域A1が検出された画像データD1とを紐づけた態様で出力する。出力部35は、推定結果(例えば「睡眠中/安らか」)と画像データD1とを紐づけた情報(以下、「出力情報」と呼ぶ)を、通信部11を通じて、提示装置4に送信する。提示装置4を携帯する利用者300が外出中であれば、出力情報は、サーバ7を経由して提示装置4に送信されてもよい。出力情報は、推定結果の基となった画像データD1が撮像部2で撮像された時間に関する情報を、更に含むことが好ましい。
出力情報は、ペットカメラ100に内蔵のメモリ等に保存されることが好ましい。出力情報は、サーバ7又はその他の周辺機器に送信されて保存されてもよい。
提示装置4は、ペットカメラ100から出力情報を受信すると、出力情報に含まれるペット状況を、例えば簡易的な表現(メッセージ)に置き換えて、そのメッセージを添えたプッシュ通知等にて画面上に通知(提示)してもよい。利用者300がプッシュ通知を開封すると、提示装置4は、ペットアプリが起動して、画像データD1を含む詳細なペット状況を画面上で提示してもよい(図7A及び図7B参照)。或いは出力情報は、メールサーバを経由してメールにより通知されてもよい。
図7Aの例では、提示装置4は、表示部43の画面430上に、ペット状況の推定の基となった画像データD1(図3C参照:床に伏せている姿勢)を表示している。ここでは条件情報9は、「特定物体が存在せず」及び「床に伏せている姿勢」という2つの条件に「寂しい」という「感情」が紐づけされたパターンを含んでいる。その結果、ペット状況として「寂しい」が推定された例である。提示装置4は、「寂しい」というペット5の感情を「さみしいよ~」という親しみやすい表現に変換した文字列データを吹き出し付きで、画像データD1上に重畳させて表示する。
また図7Bの例では、提示装置4は、表示部43の画面430上に、ペット状況の推定の基となった画像データD1(図6参照:四つ足で起立し、頭部を下げている姿勢)を表示している。ここでは条件情報9は、「第1距離状態」、「四つ足で起立し、頭部を下げている」及び「食器の方を向いている」という3つの条件に「食事中/美味しい」という「行動/感情」が紐づけされたパターンを含んでいる。その結果、ペット状況として「食事中/美味しい」と推定された例である。提示装置4は、「食事中」という文字列データと、「美味しい」というペット5の感情を「おいしい~」という親しみやすい表現に変換した文字列データとを吹き出し付きで、画像データD1上に重畳させて表示する。
なお、提示装置4は、表示部43の画面430上に、画像データD1が撮像された時間(日時)を更に表示させることが好ましい。
出力部35は、推定結果の基となった画像データD1(生データ)を含めて出力情報を送信することに限定されず、画像のデータ加工を行った上で送信してもよい。また出力部35は、画像データD1を、推定されたペット状況に対応するアイコン画像(例えば、涙を流して寂しい様子の犬のアイコン画像)に置き換えた上で送信してもよい。データの加工処理、及びアイコン画像への置き換えは、提示装置4又はサーバ7の側で実行されてもよい。
推定部34の推定結果は、画面出力に限られず、画面出力の代わりに又は画面出力に加えて、音声出力によって行われてもよい。
ところで、処理部3は、取得部31が画像データD1を取得する度に推定処理を実行する。例えば撮像部2が所定の間隔(例えば、数分又は数十分等の間隔)で静止画像を撮像する場合、処理部3は、概ね上記所定の間隔で推定処理を実行し得る。或いは、撮像部2が所定のフレームレートで動画像を撮像する場合、動画像の中で連続する複数のフレーム画像について一定の間隔(例えば、数分又は数十分等の間隔)を空けてフレーム画像を画像データD1として取得して推定処理を実行し得る。出力部35は、推定部34が1つの画像データD1についてペット状況を推定する度に、出力情報を提示装置4に送信してもよいし、出力情報をある程度ペットカメラ100に内蔵のメモリ等にプールして、まとめて送信してもよい。
また出力部35は、複数の画像データD1に関する推定部34の推定結果が、所定回数(例えば2回)連続してペット5が同じ方向を向いた姿勢であることを示す場合、推定部34の推定結果の出力を制限してもよい。具体的には、ある画像データD1に対するペット5の姿勢と向きが、「四つ足で起立し、頭部を下げている」及び「食器の方を向いている」(つまり、「食事中」という行動)と推定されて出力情報が提示装置4に出力されたとする。そして、以降に連続して取得した画像データD1に対するペット5の姿勢と向きも、上記のある画像データD1と同じに推定された場合、出力部35は、その推定結果を出力しなくてもよい。出力部35は、複数の出力情報を内蔵のメモリ等にプールする場合、所定回数連続して同じ推定結果だった出力情報については、一の推定結果としてまとめて送信してもよい。「所定回数」に関する設定は、ペットカメラ100又は提示装置4への利用者300の操作入力によって適宜変更可能でもよい。
このように推定結果の出力を制限することで、類似する推定結果が連続して出力されることを抑制でき、例えば処理負荷や通信量の低減を図れる。また短期間に何度も同じペット状況(例えば「食事中」)が利用者300に通知されることが抑制されるため、利便性も向上する。
(2.3)動作説明
以下、本実施形態におけるペット管理システム200の動作について、図8及び図9を参照しながら簡単に説明する。なお、以下の動作説明における順序は、単なる一例であって特に限定されない。特に以下では、ペット検出部X1における、特定領域A1の検出処理とペット情報の生成処理とが、この順で実行される一例を説明するが、これらの処理は、概ね同時に並行して実行されてもよい。
利用者300の宅内に設置されたペットカメラ100は、ペット5が主に活動し得る所定の管理領域を、撮像部2で撮像して監視する。ペットカメラ100は、管理領域を、静止画像として所定の周期で撮像してもよいし、動画像として所定の期間撮像し続けてもよい。
ペットカメラ100のペット状況推定システム1は、図8に示すように、撮像部2で撮像された画像データD1(静止画像、又は動画像の中の1コマ)を取得すると(S1)、推定処理を実行する(S2)。
ペット状況推定システム1は、領域検出部32にて、第2モデルM2を用いて画像データD1内に犬(ペット5)が被写体H1として写っているか否かを判定する(S3)。ペット状況推定システム1は、犬(ペット5)が写っていれば(S3:Yes)、ペット5を示す特定領域A1を検出し(S4:ペット検出ステップ)、頭部50の判定(S5)に進む。
本実施形態では、仮に画像データD1内に犬(ペット5)が写っていないと判定しても(S3:No)、処理は、頭部50の判定(S5)に進む。これは、上述の通り、画像データD1が犬の顔のアップ画像の場合に、「犬」の検出に関する失敗をフォローするためである。
ペット状況推定システム1は、領域検出部32にて、第3モデルM3を用いて画像データD1内に犬(ペット5)の頭部50が写っているか否かを判定する(S5)。ペット状況推定システム1は、頭部50が写っていれば(S5:Yes)、頭部50を示す頭部領域A2を検出する(S6)。本実施形態では、ペット状況推定システム1は、頭部50が写っていなければ(S5:No)、この画像データD1に関する推定処理を終えて、次の画像データD1の取得を待つ(S1に戻る)。ただし、特定領域A1を検出していれば、頭部領域A2を検出していなくても、推定処理を続けてもよい。
ペット状況推定システム1は、頭部領域A2の検出後、特定領域A1を検出済みであれば(S7:Yes)、処理は、特定物体6の判定(S9:図9参照)に進む。一方、ペット状況推定システム1は、頭部領域A2の検出後、特定領域A1を検出していなければ(S7:No)、頭部領域A2と略同等の領域を特定領域A1に設定して(S8)、処理は、特定物体6の判定(S9)に進む。
ペット状況推定システム1は、図9に示すように、物体検出部36にて、第4モデルM4を用いて画像データD1内に特定物体6が写っているか否かを判定する(S9)。ペット状況推定システム1は、特定物体6が写っていれば(S9:Yes)、特定物体6を示す物体領域B1を検出し(S10)、姿勢の判定(S12)に進む。一方、特定物体6が写っていなければ(S9:No)、物体領域B1は非検出という結果を得て(S11)、姿勢の判定(S12)に進む。
ペット状況推定システム1は、姿勢判定部331にて、第1モデルM1と特定領域A1に関する情報とを用いて、犬(ペット5)の姿勢を判定する(S12)。
次にペット状況推定システム1は、向き判定部332にて、特定領域A1に関する情報と頭部領域A2に関する情報とに基づいて、ペット5の向きを判定する(S13)。
またペット状況推定システム1は、距離判定部333にて、頭部領域A2に関する情報と、物体領域B1に関する情報と、姿勢情報とに基づいて、ペット物体間距離を判定する(S14)。なお、物体領域B1が非検出の場合には、処理S14はスキップされる。
ペット状況推定システム1は、処理S12~S14で得られた判定結果から、ペット情報を生成する(S15:情報生成ステップ)。
そしてペット状況推定システム1は、ペット情報と条件情報9とに基づいて、ペット状況を推定する(S16:推定ステップ)。
ペット状況推定システム1は、推定したペット状況と画像データD1とを紐づけた出力情報を提示装置4に送信して、提示装置4から提示させる(S17)。
[利点]
このようにペット状況推定システム1では、推定部34は、ペット情報8に基づいて、ペット5の感情及び行動の少なくとも一方に関するペット状況を推定するため、結果的に、ペットの状況を把握しやすくすることができる。
また本実施形態では、画像データD1におけるペット5が向いている方向を判定する向き判定部332が設けられているため、ペット5の向きを考慮することで、ペットの状況に関する推定の信頼性を向上できる。また特定領域A1に対する頭部領域A2の相対的な位置関係から、ペット5が向いている方向を判定するため、ペット5が向いている方向に関する判定の信頼性をより向上できる。
また出力部35が、推定部34の推定結果を、上記推定結果の基となった特定領域A1が検出された画像データD1とを紐づけた態様で出力するため、ペットの状況をより把握しやすくすることができる。
特に、利用者300は、ペット状況推定システム1によって推定されたペット状況を通じて、ペット5の行動/感情を把握しやすく、その結果、ペット5とのコミュニケーションが図りやすくなる。また利用者300は、外出中においても、提示装置4からの通知によって、宅内のペット5の行動/感情を把握しやすく、その結果、ペット5を管理(見守り)しやすい。特に例えばペット状況が、緊急性を要するような行動(体調が悪く、ぐったりしている等)と推定された場合に、その旨をいち早く知ることができる。
(3)変形例
上記実施形態は、本開示の様々な実施形態の一つに過ぎない。上記実施形態は、本開示の目的を達成できれば、設計等に応じて種々の変更が可能である。また、上記実施形態に係るペット状況推定システム1と同様の機能は、ペット状況推定方法、コンピュータプログラム、又はコンピュータプログラムを記録した非一時的記録媒体等で具現化されてもよい。
以下、上記実施形態の変形例を列挙する。以下に説明する変形例は、適宜組み合わせて適用可能である。以下では、上記実施形態を「基本例」と呼ぶこともある。
本開示におけるペット状況推定システム1は、コンピュータシステムを含んでいる。コンピュータシステムは、ハードウェアとしてのプロセッサ及びメモリを主構成とする。コンピュータシステムのメモリに記録されたプログラムをプロセッサが実行することによって、本開示におけるペット状況推定システム1としての機能が実現される。プログラムは、コンピュータシステムのメモリに予め記録されてもよく、電気通信回線を通じて提供されてもよく、コンピュータシステムで読み取り可能なメモリカード、光学ディスク、ハードディスクドライブ等の非一時的記録媒体に記録されて提供されてもよい。コンピュータシステムのプロセッサは、半導体集積回路(IC)又は大規模集積回路(LSI)を含む1ないし複数の電子回路で構成される。ここでいうIC又はLSI等の集積回路は、集積の度合いによって呼び方が異なっており、システムLSI、VLSI(Very Large Scale Integration)、又はULSI(Ultra Large Scale Integration)と呼ばれる集積回路を含む。さらに、LSIの製造後にプログラムされる、FPGA(Field-Programmable Gate Array)、又はLSI内部の接合関係の再構成若しくはLSI内部の回路区画の再構成が可能な論理デバイスについても、プロセッサとして採用することができる。複数の電子回路は、1つのチップに集約されていてもよいし、複数のチップに分散して設けられていてもよい。複数のチップは、1つの装置に集約されていてもよいし、複数の装置に分散して設けられていてもよい。ここでいうコンピュータシステムは、1以上のプロセッサ及び1以上のメモリを有するマイクロコントローラを含む。したがって、マイクロコントローラについても、半導体集積回路又は大規模集積回路を含む1ないし複数の電子回路で構成される。
また、ペット状況推定システム1における複数の機能が、1つのハウジング内に集約されていることは必須の構成ではない。例えば、ペット状況推定システム1の構成要素は、複数のハウジングに分散して設けられていてもよい。具体的には、ペット状況推定システム1の第1モデルM1~第4モデルM4の少なくとも一部の学習済みモデルは、ペットカメラ100の外部(例えばサーバ7等の外部サーバ)に設けられてもよい。
反対に、ペット状況推定システム1における複数の機能が、基本例のように、1つのハウジング(ペットカメラ100の筐体)内に集約されてもよい。さらに、ペット状況推定システム1の少なくとも一部の機能、例えば、ペット状況推定システム1の一部の機能がクラウド(クラウドコンピューティング)等によって実現されてもよい。
(3.1)変形例1
以下、本開示における変形例1について、図10を参照しながら説明する。図10は、本変形例のペット状況推定システム1Aを示す。以下では基本例のペット状況推定システム1と実質的に同じ構成要素については、同じ符号を付与して適宜にその説明を省略する場合がある。
基本例のペット状況推定システム1では、ペット検出部X1は、領域検出部32及び情報生成部33を有し、領域検出部32でペット5を検出してから、情報生成部33の姿勢判定部331でペット5の姿勢を判定して姿勢情報を生成している。つまり、先ずは取得した画像データD1内におけるペット5の存否を検出してから、姿勢判定を行っている。
本変形例のペット状況推定システム1Aは、図10に示すように、領域検出部32が、姿勢判定部331の機能を有している点で、基本例のペット状況推定システム1と相違する。
本変形例では、領域検出部32は、画像データD1において、ペットの姿勢について画像認識するためにペットの姿勢について学習した第1モデルM1に基づいて、特定の姿勢を取っているペット5の特定領域A1を検出する。ここでは領域検出部32は、例えば第1モデルM1~第4モデルM4を用いて、特定の姿勢を取っているペット5が被写体H1として画像データD1内に写っているか否かを判定し、特定の姿勢を取っているペット5を示す特定領域A1を検出する。特定の姿勢は、上述の通り、犬の感情と結びつきの深い行動と関連性を有した姿勢である。特定の姿勢は、例えば座っている、伏せている、寝ている、又は四つ足で起立している等である。
特定の姿勢を取っているペット5を示す特定領域A1に関する情報は、情報生成部33に入力されて、向き判定部332における向きの判定、及び距離判定部333における距離の判定に用いられる。
要するに、本変形例のペット検出部X1では、ペット5の存在を検出してから姿勢を判定するというよりは、特定の姿勢のペット5を検出する。
本変形例の構成においても、ペット5の状況を把握しやすくすることができる。
(3.2)その他の変形例
以下、その他の変形例について列記する。
基本例では、推定部34は、ペット情報と、条件情報9とに基づいて、ペット状況を推定している。しかし、推定部34は、条件情報9の代わりに、ペット情報と、ペットの特定の行動及び感情の少なくとも一方について機械学習した学習済みモデル(分類器)とを用いて、ペット状況が推定されてもよい。分類器は、ペット情報が入力されることで、ペット情報をペットの特定の行動及び感情の少なくとも一方に分類する。
基本例では、1つの画像データD1内における被写体H1としての犬(ペット5)の数が1匹であった。しかし、当然ながら、1つの画像データD1内における被写体H1としての犬(ペット5)の数が2匹以上(例えば親犬と子犬の2匹)の場合もあり得る。ペット状況推定システム1は、1つの画像データD1内において、複数の特定領域A1を検出した場合には、各特定領域A1についてペット情報を生成し、ペット状況を推定する。
基本例では、1つの画像データD1内におけるペット5以外の特定物体6の数が、ゼロ又は1つであった。しかし、当然ながら、1つの画像データD1内における特定物体6の数が、2つ以上の場合もあり得る。ペット状況推定システム1は、1つの画像データD1内において、複数の物体領域B1を検出した場合には、各物体領域B1に対するペット物体間距離を判定する。この場合、ペット状況推定システム1は、複数のペット物体間距離の中で、ペット5との距離が最も短い物体領域B1を選定して、ペット状況を推定してもよい。
基本例では、ペット状況推定システム1は、ペット5の向きを判定する機能(向き判定部332)とペット物体間距離を判定する機能(距離判定部333)を有しているが、これらの機能は、必須の機能ではなく、省略されてもよい。
基本例における第1モデルM1~第4モデルM4の少なくとも一部は、強化学習により機械学習されてもよい。この場合、上記一部のモデルは、強化学習のための処理負荷を考慮すると、ペットカメラ100の外部(例えばサーバ7等の外部サーバ)に設けられることが好ましい。
(4)まとめ
以上説明したように、第1の態様に係るペット状況推定システム(1,1A)は、領域検出部(32)と、情報生成部(33)と、推定部(34)と、を備える。領域検出部(32)は、画像データ(D1)において、被写体(H1)であるペット(5)の容姿の少なくとも一部を示す特定領域(A1)を検出する。情報生成部(33)は、ペット情報を生成する。ペット情報は、ペットの姿勢について画像認識するためにペットの姿勢について学習した学習済みモデル(第1モデルM1)と、画像データ(D1)とに基づくペット(5)の少なくとも姿勢に関する姿勢情報を含む。推定部(34)は、ペット情報に基づいて、特定領域(A1)に示されるペット(5)の感情及び行動の少なくとも一方に関するペット状況を推定する。第1の態様によれば、推定部(34)は、ペット情報に基づいて、ペット(5)の感情及び行動の少なくとも一方に関するペット状況を推定するため、結果的に、ペット(5)の状況を把握しやすくすることができる。
第2の態様に係るペット状況推定システム(1,1A)に関して、第1の態様において、推定部(34)は、ペット情報と、ペットの特定の行動及び感情の少なくとも一方に関連する条件情報(9)とに基づいて、ペット状況を推定する。第2の態様によれば、推定部(34)が、例えば、機械学習された学習済みモデルを用いて、ペット状況を推定する場合に比べて、ペット状況推定システム(1,1A)を簡単な構成で実現可能である。
第3の態様に係るペット状況推定システム(1,1A)に関して、第1又は第2の態様において、領域検出部(32)は、学習済みモデル(第2モデルM2)に基づいて、特定領域(A1)を検出する。学習済みモデル(第2モデルM2)は、所定の種類のペットについて画像認識するためにその外観要因を学習したものである。第3の態様によれば、特定領域(A1)の検出に関する信頼性が向上され、結果的に、ペット(5)の状況に関する推定の信頼性を向上できる。
第4の態様に係るペット状況推定システム(1,1A)に関して、第1~第3の態様のいずれか1つにおいて、領域検出部(32)は、学習済みモデル(第3モデルM3)に基づいて、被写体(H1)の頭部(50)を示す頭部領域(A2)を検出する。学習済みモデル(第3モデルM3)は、所定の種類のペットの頭部について画像認識するためにその外観要因を学習したものである。第4の態様によれば、頭部領域(A2)の検出に関する信頼性が向上され、結果的に、ペット(5)の状況に関する推定の信頼性を向上できる。
第5の態様に係るペット状況推定システム(1,1A)に関して、第4の態様において、情報生成部(33)は、特定領域(A1)が検出された画像データ(D1)を用いて、画像データ(D1)におけるペット(5)が向いている方向を判定する向き判定部(332)を有する。ペット情報は、向き判定部(332)の判定結果を更に含む。第5の態様によれば、ペット(5)が向いている方向を考慮することで、ペット(5)の状況に関する推定の信頼性を向上できる。
第6の態様に係るペット状況推定システム(1,1A)に関して、第5の態様において、向き判定部(332)は、少なくとも特定領域(A1)に対する頭部領域(A2)の相対的な位置関係から、ペット(5)が向いている方向を判定する。第6の態様によれば、ペット(5)が向いている方向に関する判定の信頼性を向上できる。
第7の態様に係るペット状況推定システム(1,1A)に関して、第5又は第6の態様において、推定部(34)は、ペット情報と、ペットの特定の行動及び感情の少なくとも一方に関連する条件情報(9)とに基づいて、ペット状況を推定する。条件情報(9)は、ペット(5)が向いている複数の方向と、複数のペット状況とがそれぞれ対応付けされた向き情報を含む。推定部(34)は、向き判定部(332)の判定結果と向き情報とに基づいて、ペット状況を推定する。第7の態様によれば、ペット(5)の状況に関する推定の信頼性を向上できる。
第8の態様に係るペット状況推定システム(1,1A)は、第5~第7の態様のいずれか1つにおいて、推定部(34)の推定結果を出力する出力部(35)を更に備える。出力部(35)は、複数の画像データ(D1)に関する推定部(34)の推定結果が、所定回数連続してペット(5)が同じ方向を向いた姿勢であることを示す場合、推定部(34)の推定結果の出力を制限する。第8の態様によれば、類似する推定結果が連続して出力されることを抑制でき、例えば処理負荷の低減を図れる。
第9の態様に係るペット状況推定システム(1,1A)は、第1~第8の態様のいずれか1つにおいて、画像データ(D1)においてペット(5)以外の特定物体(6)を示す物体領域(B1)を検出する物体検出部(36)を更に備える。情報生成部(33)は、物体領域(B1)に対するペット(5)の相対的な距離を判定する距離判定部(333)を有する。ペット情報は、距離判定部(333)の判定結果を更に含む。推定部(34)は、ペット情報と、ペットの特定の行動及び感情の少なくとも一方に関連する条件情報(9)とに基づいて、ペット状況を推定する。条件情報(9)は、複数種類の特定物体と、ペット及び特定物体間の距離に関する複数の閾値とがそれぞれ対応付けされた情報を含む。推定部(34)は、距離判定部(333)の判定結果と複数の閾値との比較により、ペット状況を推定する。第9の態様によれば、物体領域(B1)に対する特定領域(A1)の相対的な距離を考慮することで、ペット(5)の状況に関する推定の信頼性を向上できる。
第10の態様に係るペット状況推定システム(1,1A)に関して、第9の態様において、物体検出部(36)は、所定の種類の特定物体について画像認識するためにその外観要因を学習した学習済みモデル(第4モデルM4)に基づいて、物体領域(B1)を検出する。第10の態様によれば、物体領域(B1)の検出に関する信頼性が向上される。
第11の態様に係るペット状況推定システム(1,1A)に関して、第9又は第10の態様において、推定部(34)は、物体検出部(36)にて検出された物体領域(B1)に示される特定物体(6)が食器(64)であり、かつ、距離判定部(333)にて判定された距離が所定の閾値以下の場合、ペット状況として、ペット(5)が食事をしていると推定する。第11の態様によれば、画像データ(D1)のペット(5)が実際に食事をしている場合に、ペット状況も「食事をしている」と推定される可能性が高くなる。
第12の態様に係るペット状況推定システム(1,1A)は、第1~第11の態様のいずれか1つにおいて、出力部(35)を更に備える。出力部(35)は、推定部(34)の推定結果を、上記推定結果の基となった特定領域(A1)が検出された画像データ(D1)とを紐づけた態様で出力する。第12の態様によれば、ペット(5)の状況をより把握しやすくすることができる。
第13の態様に係るペット状況推定システム(1,1A)に関して、第1~第12の態様のいずれか1つにおいて、領域検出部(32)は、画像データ(D1)において、ペットの姿勢について画像認識するためにペットの姿勢について学習した学習済みモデル(第1モデルM1)に基づいて、特定の姿勢を取っているペット(5)の特定領域(A1)を検出する。第13の態様によれば、ペット(5)の状況をより把握しやすくすることができる。
第14の態様に係るペットカメラ(100)は、第1~第13の態様のいずれか1つにおけるペット状況推定システム(1,1A)と、画像データ(D1)を撮像する撮像部(2)と、を備える。第14の態様によれば、ペット(5)の状況を把握しやすくすることが可能なペットカメラ(100)を提供できる。
第15の態様に係るサーバ(7)は、第1~第13の態様のいずれか1つにおけるペット状況推定システム(1,1A)における情報生成部(33)及び推定部(34)が設けられたペットカメラ(100)と通信可能である。サーバ(7)には、領域検出部(32)が設けられている。第15の態様によれば、ペット(5)の状況を把握しやすくすることが可能なサーバ(7)を提供できる。
第16の態様に係るサーバ(7)は、第1~第13の態様のいずれか1つにおけるペット状況推定システム(1,1A)における領域検出部(32)が設けられたペットカメラ(100)と通信可能である。サーバ(7)には、情報生成部(33)及び推定部(34)が設けられている。第16の態様によれば、ペット(5)の状況を把握しやすくすることが可能なサーバ(7)を提供できる。
第17の態様に係るペット状況推定方法は、ペット検出ステップと、情報生成ステップと、推定ステップと、を含む。ペット検出ステップにて、画像データ(D1)において、被写体(H1)としてのペット(5)の容姿の少なくとも一部を示す特定領域(A1)を検出する。情報生成ステップにて、ペット情報を生成する。ペット情報は、ペットの姿勢について画像認識するためにペットの姿勢について学習した学習済みモデル(第1モデルM1)と、画像データ(D1)とに基づくペット(5)の少なくとも姿勢に関する姿勢情報を含む。推定ステップにて、ペット情報に基づいて、特定領域(A1)に示されるペット(5)の感情及び行動の少なくとも一方に関するペット状況を推定する。第17の態様によれば、ペット(5)の状況を把握しやすくすることが可能なペット状況推定方法を提供できる。
第18の態様に係るプログラムは、1以上のプロセッサに、第17の態様におけるペット状況推定方法を実行させるためのプログラムである。第18の態様によれば、ペット(5)の状況を把握しやすくすることが可能な機能を提供できる。
第2~13の態様に係る構成については、ペット状況推定システム(1,1A)に必須の構成ではなく、適宜省略可能である。
100 ペットカメラ
1,1A ペット状況推定システム
2 撮像部
32 領域検出部
33 情報生成部
332 向き判定部
333 距離判定部
34 推定部
35 出力部
36 物体検出部
5 ペット
50 頭部
6 特定物体
7 サーバ
64 食器
9 条件情報
A1 特定領域
A2 頭部領域
B1 物体領域
D1 画像データ
H1 被写体
M1~M4 第1モデル~第4モデル(学習済みモデル)

Claims (16)

  1. 画像データにおいて、被写体であるペットの容姿の少なくとも一部を示す特定領域を検出する領域検出部と、
    ペットの姿勢について画像認識するためにペットの姿勢について学習した学習済みモデルと、前記画像データとに基づく前記ペットの少なくとも姿勢に関する姿勢情報を含むペット情報を生成する情報生成部と、
    前記ペット情報に基づいて、前記特定領域に示される前記ペットの感情及び行動の少なくとも一方に関するペット状況を推定する推定部と、
    前記画像データにおいて前記ペット以外の特定物体を示す物体領域を検出する物体検出部と、
    を備え、
    前記情報生成部は、前記物体領域に対する前記ペットの相対的な距離を判定する距離判定部を有し、
    前記ペット情報は、前記距離判定部の判定結果を更に含み、
    前記推定部は、前記ペット情報と、ペットの特定の行動及び感情の少なくとも一方に関連する条件情報とに基づいて、前記ペット状況を推定し、
    前記条件情報は、複数種類の特定物体と、ペット及び特定物体間の距離に関する複数の閾値とがそれぞれ対応付けされた情報を含み、
    前記推定部は、前記距離判定部の判定結果と前記複数の閾値との比較により、前記ペット状況を推定する、
    ペット状況推定システム。
  2. 前記領域検出部は、所定の種類のペットについて画像認識するためにその外観要因を学習した学習済みモデルに基づいて、前記特定領域を検出する、
    請求項1に記載のペット状況推定システム。
  3. 前記領域検出部は、所定の種類のペットの頭部について画像認識するためにその外観要因を学習した学習済みモデルに基づいて、前記被写体の頭部を示す頭部領域を検出する、
    請求項1又は2に記載のペット状況推定システム。
  4. 前記情報生成部は、前記特定領域が検出された前記画像データを用いて、前記画像データにおける前記ペットが向いている方向を判定する向き判定部を有し、
    前記ペット情報は、前記向き判定部の判定結果を更に含む、
    請求項3に記載のペット状況推定システム。
  5. 前記向き判定部は、少なくとも前記特定領域に対する前記頭部領域の相対的な位置関係から、前記ペットが向いている方向を判定する、
    請求項4に記載のペット状況推定システム。
  6. 前記条件情報は、ペットが向いている複数の方向と、複数のペット状況とがそれぞれ対応付けされた向き情報を含み、
    前記推定部は、前記向き判定部の判定結果と前記向き情報とに基づいて、前記ペット状況を推定する、
    請求項4又は5に記載のペット状況推定システム。
  7. 前記推定部の推定結果を出力する出力部を更に備え、
    前記出力部は、複数の前記画像データに関する前記推定部の推定結果が、所定回数連続して前記ペットが同じ方向を向いた姿勢であることを示す場合、前記推定部の推定結果の出力を制限する、
    請求項4~6のいずれか1項に記載のペット状況推定システム。
  8. 前記物体検出部は、所定の種類の特定物体について画像認識するためにその外観要因を学習した学習済みモデルに基づいて、前記物体領域を検出する、
    請求項1~7のいずれか1項に記載のペット状況推定システム。
  9. 前記推定部は、前記物体検出部にて検出された前記物体領域に示される前記特定物体が食器であり、かつ、前記距離判定部にて判定された前記距離が所定の閾値以下の場合、前記ペット状況として、前記ペットが食事をしていると推定する、
    請求項1~8のいずれか1項に記載のペット状況推定システム。
  10. 前記推定部の推定結果を、上記推定結果の基となった前記特定領域が検出された前記画像データと紐づけた態様で出力する出力部を更に備える、
    請求項1~9のいずれか1項に記載のペット状況推定システム。
  11. 前記領域検出部は、前記画像データにおいて、ペットの姿勢について画像認識するためにペットの姿勢について学習した前記学習済みモデルに基づいて、特定の姿勢を取っている前記ペットの前記特定領域を検出する、
    請求項1~10のいずれか1項に記載のペット状況推定システム。
  12. 請求項1~11のいずれか1項に記載のペット状況推定システムと、
    前記画像データを撮像する撮像部と、
    を備える、
    ペットカメラ。
  13. 請求項1~11のいずれか1項に記載のペット状況推定システムにおける前記情報生成部及び前記推定部が設けられたペットカメラと通信可能なサーバであって、
    前記領域検出部が設けられている、
    サーバ。
  14. 請求項1~11のいずれか1項に記載のペット状況推定システムにおける前記領域検出部が設けられたペットカメラと通信可能なサーバであって、
    前記情報生成部及び前記推定部が設けられている、
    サーバ。
  15. 画像データにおいて、被写体としてのペットの容姿の少なくとも一部を示す特定領域を検出するペット検出ステップと、
    ペットの姿勢について画像認識するためにペットの姿勢について学習した学習済みモデルと、前記画像データとに基づく前記ペットの少なくとも姿勢に関する姿勢情報を含むペット情報を生成する情報生成ステップと、
    前記ペット情報に基づいて、前記特定領域に示される前記ペットの感情及び行動の少なくとも一方に関するペット状況を推定する推定ステップと、
    前記画像データにおいて前記ペット以外の特定物体を示す物体領域を検出する物体検出ステップと、
    を含み、
    前記情報生成ステップは、前記物体領域に対する前記ペットの相対的な距離を判定する距離判定ステップを有し、
    前記ペット情報は、前記距離判定ステップの判定結果を更に含み、
    前記推定ステップでは、前記ペット情報と、ペットの特定の行動及び感情の少なくとも一方に関連する条件情報とに基づいて、前記ペット状況を推定し、
    前記条件情報は、複数種類の特定物体と、ペット及び特定物体間の距離に関する複数の閾値とがそれぞれ対応付けされた情報を含み、
    前記推定ステップでは、前記距離判定ステップの判定結果と前記複数の閾値との比較により、前記ペット状況を推定する、
    ペット状況推定方法。
  16. 1以上のプロセッサに、請求項15に記載のペット状況推定方法を実行させるためのプログラム。
JP2022546235A 2020-09-01 2021-08-20 ペット状況推定システム、ペットカメラ、サーバ、ペット状況推定方法、及びプログラム Active JP7479019B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020147129 2020-09-01
JP2020147129 2020-09-01
PCT/JP2021/030654 WO2022050093A1 (ja) 2020-09-01 2021-08-20 ペット状況推定システム、ペットカメラ、サーバ、ペット状況推定方法、及びプログラム

Publications (3)

Publication Number Publication Date
JPWO2022050093A1 JPWO2022050093A1 (ja) 2022-03-10
JPWO2022050093A5 JPWO2022050093A5 (ja) 2023-05-12
JP7479019B2 true JP7479019B2 (ja) 2024-05-08

Family

ID=80490861

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022546235A Active JP7479019B2 (ja) 2020-09-01 2021-08-20 ペット状況推定システム、ペットカメラ、サーバ、ペット状況推定方法、及びプログラム

Country Status (4)

Country Link
US (1) US20230320328A1 (ja)
JP (1) JP7479019B2 (ja)
CN (1) CN115885313A (ja)
WO (1) WO2022050093A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3174258A1 (en) * 2020-10-14 2022-04-21 One Cup Productions Ltd. Animal visual identification, tracking, monitoring and assessment systems and methods thereof
WO2023175931A1 (ja) * 2022-03-18 2023-09-21 日本電気株式会社 画像分類装置、画像分類方法、及び、記録媒体
JP7410607B1 (ja) 2023-07-24 2024-01-10 株式会社Eco‐Pork 飼養管理システム、および飼養管理方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019122368A (ja) 2018-01-12 2019-07-25 デザミス株式会社 牛の健康状態管理システム及び管理方法並びに健康状態管理プログラム
US20200205382A1 (en) 2018-12-28 2020-07-02 Acer Incorporated Pet monitoring method and pet monitoring system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019091233A (ja) * 2017-11-14 2019-06-13 株式会社Jvcケンウッド 通知制御システム、通知制御方法およびプログラム
JP7290922B2 (ja) * 2018-07-06 2023-06-14 ユニ・チャーム株式会社 動物撮影装置、動物状態判定システム及びプログラム
JP2020014421A (ja) * 2018-07-26 2020-01-30 日本ユニシス株式会社 家畜出産予測システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019122368A (ja) 2018-01-12 2019-07-25 デザミス株式会社 牛の健康状態管理システム及び管理方法並びに健康状態管理プログラム
US20200205382A1 (en) 2018-12-28 2020-07-02 Acer Incorporated Pet monitoring method and pet monitoring system

Also Published As

Publication number Publication date
CN115885313A (zh) 2023-03-31
WO2022050093A1 (ja) 2022-03-10
US20230320328A1 (en) 2023-10-12
JPWO2022050093A1 (ja) 2022-03-10

Similar Documents

Publication Publication Date Title
JP7479019B2 (ja) ペット状況推定システム、ペットカメラ、サーバ、ペット状況推定方法、及びプログラム
WO2022050092A1 (ja) ペット状況推定システム、ペットカメラ、サーバ、ペット状況推定方法、及びプログラム
US20210170585A1 (en) Robot reacting on basis of user behavior and control method therefor
CN112655019A (zh) 监控农业围栏中的牲畜
KR102022883B1 (ko) 애완동물의 행태와 감정을 보여주는 그래픽 사용자 인터페이스 제공 방법 및 장치
US11910784B2 (en) Animal visual identification, tracking, monitoring and assessment systems and methods thereof
WO2023279697A1 (zh) 宠物看护方法、装置、电子设备及存储介质
KR101714976B1 (ko) 증강현실 기반의 축사 모니터링 장치
CN110121696B (zh) 电子设备及其控制方法
JP2010068268A (ja) 愛玩動物再現システムおよび愛玩動物再現プログラム
KR20130007079A (ko) 동물 상태 원격 관리 방법 및 시스템
CN113986093A (zh) 互动方法及相关装置
US20140108377A1 (en) Methods, systems, and computer readable media for locating a lost animal
JP2023056040A (ja) 活動検証のためのシステム及び方法
CN115793483A (zh) 监控场景构建方法、智能设备及存储介质
KR20220076817A (ko) 반려동물 융복합 콘텐츠 제공 및 게임 시스템
KR20190133328A (ko) 현실의 소통대상을 투영하는 가상 메신저 시스템
WO2022181131A1 (ja) 体重推定システム、及び、体重推定方法
US20240242414A1 (en) Electronic device and method for creating avatar in virtual space
KR102464539B1 (ko) 영역별 개체 모니터링을 위한 유저 인터페이스 장치
JP6601644B1 (ja) 画像情報表示装置
US20230055329A1 (en) Systems and methods for dynamic choice filtering
Lee Wireless Dispenser System: Pet Care
CN117952230A (zh) 宠物行为分析方法、装置、设备及介质
JP2022143047A (ja) 行動予測モデル生成装置、行動予測装置、行動予測モデル生成システム、行動予測モデル生成方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230222

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240412

R150 Certificate of patent or registration of utility model

Ref document number: 7479019

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150