JP7154024B2 - ペット動画解析装置、ペット動画解析システム、ペット動画解析方法、及びプログラム - Google Patents

ペット動画解析装置、ペット動画解析システム、ペット動画解析方法、及びプログラム Download PDF

Info

Publication number
JP7154024B2
JP7154024B2 JP2018059747A JP2018059747A JP7154024B2 JP 7154024 B2 JP7154024 B2 JP 7154024B2 JP 2018059747 A JP2018059747 A JP 2018059747A JP 2018059747 A JP2018059747 A JP 2018059747A JP 7154024 B2 JP7154024 B2 JP 7154024B2
Authority
JP
Japan
Prior art keywords
pet
video
event
unit
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018059747A
Other languages
English (en)
Other versions
JP2019170180A (ja
Inventor
剛 中村
千恵子 廣渡
尚史 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PKSHA Technology Inc
Original Assignee
PKSHA Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PKSHA Technology Inc filed Critical PKSHA Technology Inc
Priority to JP2018059747A priority Critical patent/JP7154024B2/ja
Publication of JP2019170180A publication Critical patent/JP2019170180A/ja
Application granted granted Critical
Publication of JP7154024B2 publication Critical patent/JP7154024B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Studio Devices (AREA)

Description

本発明は、ペット動画解析装置、ペット動画解析システム、ペット動画解析方法、及びプログラムに関する。
飼い主が自宅を留守にしている間、自宅に残したペットの様子を見守ることが望まれている。例えば、ペットの様子を見ること自体が飼い主にとって楽しみであり、外出中の自分のペットの様子を眺めたくなることがある。また、例えば、飼い主は、留守中にペットがきちんと餌を食べているか、ペットがいたずらをしていないか、あるいはペットに異常がないかが確認したくなることがある。
自宅に残したペットを見守るために、自宅に市販のネットワークカメラを設置し、飼い主が自宅外においてスマートフォンなどを用いて画像を確認する技術が一般に流通している。また、赤外線などを使用した動体検知を用いて自宅に残したペットの動きを検知し、カメラ撮影範囲に動きがあったタイミングにおいて飼い主に通知を行う商品が一般に流通している。
上記のような技術として、例えば、無線通信ネットワークに基づくペット用インタラクティブシステムが知られている(特許文献1)。特許文献1に記載のペット用インタラクティブシステムは、室内に取付けられた無線カメラ、ペット用玩具及び制御端末を含む。無線カメラは、撮影した影像を制御端末に送信する。ペット用玩具には、制御端末と通信するための無線通信モジュールと、即時に無線通信モジュールにより受信した制御端末からの音声を再生するための発声モジュールと、制御端末の発した制御指令によりペット用玩具の走行を制御するための制御モジュールとが、取付けられている。
特開2016-220671号公報
自宅に残したペットが撮像された動画を、無線通信ネットワークを介して、端末装置において鑑賞する場合、この動画には、ペットが撮像されている場面の割合が多いこと求められる。また、ペットが特定の場所において特定の行動を取った場合に、動画が撮像されたことの通知や記録を残すことが求められる。
上記の一般流通品や、特許文献1に記載のペット用インタラクティブシステムにおいては、飼い主である利用者は、カメラを用いて撮像された動画の中からペットが映っている箇所を探す必要があり不便である。ペットを撮像するカメラに、ペットがよく映っている箇所を検出する演算を行う演算装置を搭載する場合、ペットがよく映っている箇所を検出には高い検出精度が要求されため、この演算装置は高い性能をもつことが要求される。そのため、カメラのコストが高くなってしまうことが考えられる。
このように、従来、ペットを効率よく見守ることができなかった。
本発明は上記の点に鑑みてなされたものであり、ペットを効率よく見守ることができるペット動画解析装置、ペット動画解析システム、ペット動画解析方法、及びプログラムを提供する。
本発明は上記の課題を解決するためになされたものであり、本発明の一態様は、ペットが撮像された動画を取得する動画取得部と、前記動画取得部が取得した前記動画を構成する複数のフレームから、ペットが撮像されているフレームであるペットフレームを抽出するペットフレーム抽出部と、前記ペットフレーム抽出部が抽出した前記ペットフレームのなかから、前記動画取得部が取得した前記動画において連続する前記ペットフレームを判定する連続ペットフレーム判定部と、前記連続ペットフレーム判定部が判定した前記ペットフレームが、予め登録されている前記ペットの行動を示すイベントが撮像されている前記フレームであるイベントフレームであるか否かを判定するイベント判定部と、前記ペットフレーム抽出部が抽出した前記ペットフレームの数が、前記複数のフレームのうち前記ペットフレームを除くフレームである非ペットフレームの数よりも多い動画である要約動画を、前記連続ペットフレーム判定部が判定した前記ペットフレームであって、前記イベント判定部が前記イベントフレームであると判定した前記ペットフレームから構成されるシーン動画である要約前イベント動画に含まれる連続する前記ペットフレームの数を所定の数以下にした動画に基づいて生成する要約動画生成部と、前記要約動画生成部が生成した前記要約動画を出力する要約動画出力部と、を備え、前記要約動画生成部は、前記要約前イベント動画が所定の時間の長さである第1の時間の長さ以上であると判定する場合、前記要約前イベント動画のいずれかの部分を削除することによって、前記第1の時間の長さ以下に短縮した動画であるイベント動画を前記要約動画として生成し、前記要約動画生成部は、前記要約前イベント動画が前記第1の時間の長さ以上であると判定する場合に前記要約前イベント動画のいずれかの部分を削除し前記第1の時間の長さ以下に短縮するかを、学習結果に基づいて選択し、前記要約動画生成部は、複数の前記イベント動画をそれぞれ所定の時間の長さである第2の時間の長さ以下に短縮し時系列の順に連結することによって、前記第1の時間の長さ以下の動画であるサマリ動画を前記要約動画として生成するペット動画解析装置である。
また、本発明の一態様は、上記のペット動画解析装置において、前記シーン動画に含まれる連続する前記ペットフレームのなかからサムネイル画像に対応する前記ペットフレームを選択する。
また、本発明の一態様は、上記のペット動画解析装置において、前記シーン動画を記憶部に記憶させる記憶制御部と、前記記憶制御部が前記記憶部に記憶させた前記シーン動画を出力するシーン動画出力部とをさらに備える。
また、本発明の一態様は、上記のペット動画解析装置において、前記イベント判定部が前記イベントフレームであると判定した前記ペットフレームと、前記連続ペットフレーム判定部が判定した連続する前記ペットフレームとに基づいて前記イベントの発生回数を数えるイベント計数部をさらに備え、要約動画出力部は、前記要約動画生成部が生成した前記要約動画に加えて、前記イベント計数部が計数した前記発生回数をさらに出力する。
また、本発明の一態様は、上記のペット動画解析装置において、前記要約動画生成部は、前記動画取得部が取得した前記動画に複数の種類の前記イベントが含まれる場合、前記イベント判定部が判定した前記イベントフレームに基づいて、前記複数の種類の前記イベントが前記要約動画に含まれるように前記要約動画を生成する。
また、本発明の一態様は、上記のペット動画解析装置において、前記イベント判定部は、前記ペットフレーム抽出部が抽出した前記ペットフレームに撮像されている場所によって前記イベントの種類を判定する。
また、本発明の一態様は、上記のペット動画解析装置において、前記ペットフレーム抽出部が抽出した前記ペットフレームに撮像された前記ペットが特定のペットであるか否かを判定するペット判定部と、前記ペット判定部が判定した結果を通知するペット判定結果通知部とをさらに備える。
また、本発明の一態様は、上記のペット動画解析装置において、前記ペット判定部が判定した結果が通知されたことに応じて得られる評価を取得する評価取得部をさらに備え、前記ペット判定部は、前記評価取得部が取得した前記評価に基づいて前記動画取得部が取得した前記動画に撮像された前記ペットが特定のペットであるか否かを判定する。
また、本発明の一態様は、上記のペット動画解析装置と、前記動画を撮像し、前記ペット動画解析装置に供給する撮影装置と、前記ペット動画解析装置が出力する前記要約動画を取得する端末装置とを備えるペット動画解析システムである。
また、本発明の一態様は、ペットが撮像された動画を取得する動画取得手順と、前記動画取得手順において取得された前記動画を構成する複数のフレームから、ペットが撮像されているフレームであるペットフレームを抽出するペットフレーム抽出手順と、前記ペットフレーム抽出手順において抽出された前記ペットフレームのなかから、前記動画取得手順において取得された前記動画において連続する前記ペットフレームを判定する連続ペットフレーム判定手順と、前記連続ペットフレーム判定手順において判定された前記ペットフレームが、予め登録されている前記ペットの行動を示すイベントが撮像されている前記フレームであるイベントフレームであるか否かを判定するイベント判定手順と、前記ペットフレーム抽出手順において抽出された前記ペットフレームの数が、前記複数のフレームのうち前記ペットフレームを除くフレームである非ペットフレームの数よりも多い動画である要約動画を、前記連続ペットフレーム判定手順において判定された前記ペットフレームであって、前記イベント判定手順において前記イベントフレームであると判定された前記ペットフレームから構成されるシーン動画である要約前イベント動画に含まれる連続する前記ペットフレームの数を所定の数以下にした動画に基づいて生成する要約動画生成手順と、前記要約動画生成手順において生成された前記要約動画を出力する要約動画出力手順と、を有し、前記要約動画生成手順において、前記要約前イベント動画が所定の時間の長さである第1の時間の長さ以上であると判定される場合、前記要約前イベント動画のいずれかの部分を削除することによって、前記第1の時間の長さ以下に短縮した動画であるイベント動画が前記要約動画として生成され、前記要約動画生成手順において、前記要約前イベント動画が前記第1の時間の長さ以上であると判定される場合に前記要約前イベント動画のいずれかの部分を削除し前記第1の時間の長さ以下に短縮するかを、学習結果に基づいて選択し、前記要約動画生成手順において、複数の前記イベント動画をそれぞれ所定の時間の長さである第2の時間の長さ以下に短縮し時系列の順に連結することによって、前記第1の時間の長さ以下の動画であるサマリ動画が前記要約動画として生成されるペット動画解析方法である。
また、本発明の一態様は、コンピュータにペットが撮像された動画を取得する動画取得ステップと、前記動画取得ステップにおいて取得された前記動画を構成する複数のフレームから、ペットが撮像されているフレームであるペットフレームを抽出するペットフレーム抽出ステップと、前記ペットフレーム抽出ステップにおいて抽出された前記ペットフレームのなかから、前記動画取得ステップにおいて取得された前記動画において連続する前記ペットフレームを判定する連続ペットフレーム判定ステップと、前記連続ペットフレーム判定ステップにおいて判定された前記ペットフレームが、予め登録されている前記ペットの行動を示すイベントが撮像されている前記フレームであるイベントフレームであるか否かを判定するイベント判定ステップと、前記ペットフレーム抽出ステップにおいて抽出された前記ペットフレームの数が、前記複数のフレームのうち前記ペットフレームを除くフレームである非ペットフレームの数よりも多い動画である要約動画を、前記連続ペットフレーム判定ステップにおいて判定された前記ペットフレームであって、前記イベント判定ステップにおいて前記イベントフレームであると判定された前記ペットフレームから構成されるシーン動画である要約前イベント動画に含まれる連続する前記ペットフレームの数を所定の数以下にした動画に基づいて生成する要約動画生成ステップと、前記要約動画生成ステップにおいて生成された前記要約動画を出力する要約動画出力ステップと、を実行させるためのプログラムであって、前記要約動画生成ステップにおいて、前記要約前イベント動画が所定の時間の長さである第1の時間の長さ以上であると判定される場合、前記要約前イベント動画のいずれかの部分を削除することによって、前記第1の時間の長さ以下に短縮した動画であるイベント動画が前記要約動画として生成され、前記要約動画生成ステップにおいて、前記要約前イベント動画が前記第1の時間の長さ以上であると判定される場合に前記要約前イベント動画のいずれかの部分を削除し前記第1の時間の長さ以下に短縮するかを、学習結果に基づいて選択し、前記要約動画生成ステップにおいて、複数の前記イベント動画をそれぞれ所定の時間の長さである第2の時間の長さ以下に短縮し時系列の順に連結することによって、前記第1の時間の長さ以下の動画であるサマリ動画が前記要約動画として生成されるプログラムである。
本発明によれば、ペットを効率よく見守ることができる。
本発明の第1の実施形態に係るペット見守りシステムの一例を示す図である。 本発明の第1の実施形態に係るペット動画解析装置の機能構成の一例を示す図である。 本発明の第1の実施形態に係る撮像動画の解析結果の一例を示す図である。 本発明の第1の実施形態に係るイベント動画とサマリ動画との関係の一例を示す図である。 本発明の第1の実施形態に係るイベント動画の生成及び出力処理の一例を示す図である。 本発明の第1の実施形態に係るイベント動画の生成方法の一例を示す図である。 本発明の第1の実施形態に係るサマリ動画の生成及び出力処理の一例を示す図である。 本発明の第1の実施形態に係るサマリ動画の生成方法の一例を示す図である。 本発明の第1の実施形態に係る時系列画面の一例を示す図である。 本発明の第1の実施形態に係るアルバム画面の一例を示す図である。 本発明の第1の実施形態に係る活動量表示画面の一例を示す図である。 本発明の第1の実施形態に係るレポート画面の一例を示す図である。 本発明の第2の実施形態に係るペット動画解析装置の機能構成の一例を示す図である。 本発明の第2の実施形態に係る撮像動画の解析結果の一例を示す図である。 本発明の第2の実施形態に係るペット判定処理の一例を示す図である。 本発明の第3の実施形態に係るペット動画解析装置の機能構成の一例を示す図である。
(第1の実施形態)
以下、図面を参照しながら本発明の実施形態について詳しく説明する。図1は、本実施形態に係るペット見守りシステムSの一例を示す図である。ペット見守りシステムSは、撮像装置1と、ペット動画解析装置2と、端末装置3とを備える。
撮像装置1は、ペットPが撮像された動画である撮像動画MVを撮像し、ペット動画解析装置2に供給する。撮像装置1は、通信機能を備えたカメラであり、ペットPの飼い主である利用者の自宅に設置される。撮像装置1は、ペットPの飼い主である利用者の自宅に残されたペットPを撮像する。撮像装置1は、撮像した撮像動画MVをペット動画解析装置2に送信する。ペットPとは、一例として、飼い猫である。ペットPは、飼い猫以外であってもよい。ペットPは、例えば、飼い犬や、猫や犬以外の飼われている動物であってもよい。
撮像装置1が利用者の自宅内において設置される場所とは、ペットPの行動が撮像できると期待される場所であり、利用者によって決定される。ペットPの行動が撮像できると期待される場所とは、例えば、ペットPの餌入れの付近、水飲み場の付近、及びトイレの付近などである。
ペット動画解析装置2は、撮像動画MVの中からペットPを高精度において検出するグラフィックス プロセッシング ユニット(Graphics Processing UnitGPU)計算ユニットを備えるサーバである。ペット動画解析装置2は、撮像装置1との間において動画及び音声の暗号化通信を確立した上で、撮像動画MVを解析し、要約動画Vを生成する。ここで要約動画Vとは、ペットが撮像されている場面の割合が、ペットが撮像されていない場面の割合よりも多い動画である。ペット動画解析装置2は、要約動画Vが生成されたことを、1日において定期的に端末装置3に通知する。
ペット動画解析装置2は、機械学習を用いて、撮像動画MVの中からペットPを検出する。ペット動画解析装置2は、予め蓄積された学習データVDを用いて機械学習を実行する。ペット動画解析装置2は、機械学習の結果を用いて、撮像動画MVの中から物体を認識し、さらに認識した物体がペットPであるか否かを判定する。ここで機械学習とは、例えば、深層学習である。
ペット見守りシステムSでは、ペットPの位置や動きを撮像装置1ではなく、クラウドサーバであるペット動画解析装置2において撮像動画MVを解析する。これによりペット見守りシステムSでは、スケーラブルかつ高精度な解析が可能となる。
端末装置3は、ペット動画解析装置2が出力する要約動画Vを取得する。端末装置3は利用者に所有され、ペット動画解析装置2から要約動画Vが生成されたことの通知を受信する。端末装置3から要約動画Vのリクエストがあると、ペット動画解析装置2は、リクエストのあった要約動画Vを端末装置3に出力する。
ペット見守りシステムSでは、24時間の撮像動画MVの中から、ペットPが撮像されている場面の部分だけを抜粋したり、ペットPが撮像されている場面の部分を繋げて一日分のサマリ動画を作成したりといったことが可能である。
また、ペット見守りシステムSでは、利用者は、撮像装置1が撮影する画像内において、ペットPが存在することにより何らかの行動を意味する場所を事前に指定することができる。これにより、ペット見守りシステムSでは、事前に指定した場所と、ペットPの動きとを紐付けてペットPの行動の解析を行い、ペットPの行動管理を行うことができる。ここで、ペットPが存在することにより何らかの行動を意味する場所とは、例えば、餌入れ、水飲み場、トイレ等である。
図2は、本実施形態に係るペット動画解析装置2の機能構成の一例を示す図である。ペット動画解析装置2は、動画取得部20と、動画記憶部21と、シーン判定部22と、記憶部23と、イベント解析部24と、サムネイル選択部25と、フレーム属性記憶部26と、要約動画生成部27と、サムネイル生成部28と、出力部29とを備える。
動画取得部20は、ペットPが撮像された撮像動画MVを撮像装置1から取得する。動画取得部20は、暗号化通信が可能な通信モジュールである。
動画記憶部21は、動画取得部20が取得した撮像動画MVを、ペット動画解析装置2が撮像動画MVを解析する間、記憶する。動画記憶部21は、記憶している撮像動画MVを、シーン判定部22、イベント解析部24、サムネイル選択部25、及び要約動画生成部27に供給する。
シーン判定部22は、動画記憶部21から供給される撮像動画MVに含まれるシーンを判定する。ここでシーン判定部22は、記憶部23に記憶される学習結果230に基づいてシーンを判定する。シーンとは、撮像動画MVにおける撮像されている内容にまとまりがある部分である。シーンとは、例えば、ペットPが撮像されている部分や、ペットPが撮像されていない部分である。
ペットPが撮像されている部分であるシーンとは、例えば、水飲み場において水を飲むシーン、餌入れに入っている餌を食べるシーン、トイレにおいて排泄するシーン、カメラの前において動いているシーン、カメラの付近を走り回りカメラに映ることと映らないことを短時間に繰り返しているシーン、撮像装置1のカメラに尾だけが映っているシーン、カメラの遠くに位置し姿が小さく映っているシーンなどである。
シーン判定部22は、ペットフレーム抽出部220と、連続ペットフレーム判定部221とを備える。
ペットフレーム抽出部220は、動画記憶部21から供給される撮像動画MVを構成する複数のフレームからペットフレームを抽出する。ペットフレームとは、ペットPが撮像されているフレームである。一方、撮像動画MVを構成するフレームのうちペットフレームを除くフレームを非ペットフレームという。
連続ペットフレーム判定部221は、ペットフレーム抽出部220が抽出したペットフレームのなかから、動画記憶部21から供給される撮像動画MVにおいて連続するペットフレームを判定する。連続ペットフレーム判定部221が判定する連続するペットフレームはシーンに対応する。連続ペットフレーム判定部221が判定したペットフレームから構成される動画を、シーン動画CVという。
連続するペットフレームとは、動画として内容が連続して見える一続きのペットフレームである。連続するペットフレームは、例えば、撮像動画MVにおいてペットフレームが隣り合っている一続きのペットフレームである。
なお、撮像動画MVにおいてペットフレームが隣り合っておらず、ペットフレームの間に非ペットフレームが存在していても、動画として内容が連続して見えれば、それらペットフレームと非ペットフレームとを合わせてシーン動画CVとされてよい。例えば、ペットPがカメラの付近を走り回りカメラに映ることと映らないことを短時間に繰り返しているシーンでは、ペットフレームと非ペットフレームとを合わせてシーン動画CVとされてよい。
また、連続するペットフレームと判定されたペットフレームの前後が非ペットフレームである場合であっても、連続するペットフレームと判定されたペットフレームと同じシーンでると判定される場合には、この非ペットフレームがシーン動画CVに含められてもよい。
シーン判定部22は、ペットフレーム抽出部220、及び連続ペットフレーム判定部221の処理の結果を、フレーム属性情報FPとしてイベント解析部24及びフレーム属性記憶部26に供給する。フレーム属性情報FPとは、撮像動画MVを構成する複数のフレームのフレーム番号と、撮像動画MVを構成する複数のフレームに対するシーン判定部22、イベント解析部24、及びサムネイル選択部25の処理の結果とが対応づけられた情報である。
ここで図3を参照し、ペットフレーム抽出部220、及び連続ペットフレーム判定部221の処理について説明する。
図3は、本実施形態に係る撮像動画MVの解析結果の一例を示す図である。撮像動画MVは、フレームFN1~フレームFNnから構成される。図3に示す例では、フレームFN1~フレームFN8においては、フレームFN3、フレームFN5、及びフレームFN6がペットフレームである。フレームFN1~フレームFN8においては、フレームFN1、フレームFN2、フレームFN4、フレームFN7、フレームFN8が、非ペットフレームである。
ペットフレーム抽出部220は、フレームFN1~フレームFNnそれぞれについてペットフレームであるかを判定する。ペットフレーム抽出部220は、フレームFN1~フレームFNnのフレーム番号毎に、判定結果をそれぞれ対応づけ、フレーム属性情報FPに含める。
連続ペットフレーム判定部221は、ペットフレーム抽出部220がペットフレームであると判定したフレームFN3、フレームFN5、及びフレームFN6が、連続ペットフレームであるか否かを判定する。図3に示す例では、フレームFN3、フレームFN5、及びフレームFN6のうち、フレームFN5と、フレームFN6とが連続ペットフレームであると判定する。
連続ペットフレーム判定部221は、フレームFN5と、フレームFN6とのフレーム番号毎に、判定結果をそれぞれ対応づけ、フレーム属性情報FPに含める。
図2に戻って、ペット動画解析装置2の構成の説明を続ける。
記憶部23には、学習結果230と、イベント情報231とが記憶される。
学習結果230とは、学習データVDを用いた機械学習による学習結果である。学習結果230には、例えば、動画に含まれるフレームに撮像されている物体の位置の判定結果や、この物体がペットであるか否かの判定結果が含まれる。
また、学習結果230には、動画に含まれるフレームに撮像されている内容にまとまりがあるか否かの判定結果が含まれる。また、学習結果230には、動画に含まれるフレームに撮像されているペットの動きに対応する活動量の値が含まれる。また、学習結果230には、動画に含まれるフレームのうちいずれがサムネイルに適しているかの判定結果が含まれる。
イベント情報とは、イベントの種類と、場所情報とが対応づけられた情報である。場所情報とは、動画内における領域を示す情報である。動画内における領域は、ペットPが残された自宅内の特定の場所毎に割り当てられている。
例えば、「水飲み」のイベントには、水飲みの近くの領域を示す情報が対応づけられる。「ごはん」のイベントには、餌入れの近くの領域を示す情報が対応づけられる。「トイレ」のイベントには、トイレの近くの領域を示す情報が対応づけられる。「カメラの前で動いている」のイベントには、水飲み、餌入れ、及びトイレから遠い領域を示す情報が対応づけられる。
なお、領域を示す情報は、例えば、2次元平面における領域を2次元座標により表した情報である。領域を示す情報は、3次元空間内における領域を3次元座標により表した情報であってもよい。
イベント解析部24は、シーン判定部22が供給するフレーム属性情報FPに基づいて、動画記憶部21から供給される撮像動画MVに含まれるイベントを解析する。ここでイベント解析部24は、記憶部23に記憶される学習結果230及びイベント情報231に基づいてイベントを解析する。
ここでイベントとは、イベント情報231により示されるペットPの行動である。イベントは、イベント情報231の一部として予め記憶される。つまり、イベントは、予め登録されているペットPの行動を示す。
イベントには、例えば、水飲み場において水を飲む行動である「水飲み」、餌入れに入っている餌を食べる行動である「ごはん」、トイレにおいて排泄する行動である「トイレ」、及びカメラの前において動いている行動である「カメラの前で動いている」である。
イベント解析部24は、イベント判定部240と、イベント計数部241と、活動量計測部242とを備える。
イベント判定部240は、撮像動画MVに含まれるイベントを判定する。ここでイベント判定部240は、連続ペットフレーム判定部221が判定したペットフレームが、イベントが撮像されているフレームであるイベントフレームであるか否かを判定する。つまり、イベント判定部240は、シーン動画CVに含まれるペットフレームにイベントが含まれているか否かを判定する。ペットフレームにイベントが含まれているシーン動画CVを、要約前イベント動画PEVという。
イベント計数部241は、撮像動画MVに含まれるイベントの発生回数を数える。ここでイベント計数部241は、イベント判定部240が判定したイベントフレームと、連続ペットフレーム判定部221が判定した連続するペットフレームとに基づいて数える。
活動量計測部242は、撮像動画MVに含まれるイベントに伴うペットPの運動量を計測する。ここで活動量計測部242は、動画記憶部21が供給する撮像動画MVと、イベント判定部240が供給するフレーム属性情報FPと、記憶部23に記憶される学習結果230に基づいて計測する。
活動量計測部242は、測定結果に基づいて活動量情報Aを生成する。ここで活動量情報Aとは、撮像動画MVを構成する複数のフレームのフレーム番号と、活動量計測部242が測定した活動量の値とが対応づけられた情報である。
イベント解析部24は、イベント判定部240の処理の結果を、フレーム属性情報FPとしてサムネイル選択部25及びフレーム属性記憶部26に供給する。
サムネイル選択部25は、要約動画Vのサムネイルを選択する。ここでサムネイル選択部25は、動画記憶部21が供給する撮像動画MVと、イベント解析部24が供給するフレーム属性情報FPと、記憶部23に記憶される学習結果230に基づいて選択する。サムネイル選択部25は、選択結果をフレーム属性情報FPに含め、フレーム属性記憶部26に供給する。
サムネイルとは、要約動画Vを表示させる場合に視認性を高めるために縮小されて表示される画像である。サムネイルは、要約動画Vを構成するペットフレームのなかから選択される。
ここで再び図3を参照し、イベント判定部240、イベント計数部241、サムネイル選択部25、及び活動量計測部242の処理について説明する。
図3に示す例では、イベント判定部240は、連続ペットフレーム判定部221が連続ペットフレームであると判定したフレームFN5、及びフレームFN6に撮像されているペットPの行動が、「カメラの前で動いている」のイベントであると判定する。イベント判定部240は、判定結果をフレーム属性情報FPに含める。
イベント計数部241は、フレームFN1~フレームFN8において、イベント判定部240が判定したイベントの発生回数を1回であると数える。
サムネイル選択部25は、イベント判定部240がイベントフレームであると判定したフレームFN5、及びフレームFN6のなかからサムネイルに対応するフレームを選択する。サムネイル選択部25は、選択結果をフレーム属性情報FPに含める。
活動量計測部242は、イベント判定部240がイベントフレームであると判定したフレームFN5、及びフレームFN6毎に、撮像されているペットPの活動量を測定する。図3に示す例では、活動量計測部242は、フレームFN5、及びフレームFN6それぞれに対して活動量の値として「3」を対応づけ活動量情報Aとする。
図2に戻って、ペット動画解析装置2の構成の説明を続ける。
フレーム属性記憶部26は、シーン判定部22、イベント解析部24、及びサムネイル選択部25が供給するフレーム属性情報FPを記憶する。フレーム属性記憶部26は、記憶したフレーム属性情報FPを要約動画生成部27、サムネイル生成部28、及び出力部29に供給する。
また、フレーム属性記憶部26は、イベント解析部24が供給する活動量情報Aを記憶する。フレーム属性記憶部26は、記憶した活動量情報Aを要約動画生成部27に供給する。
要約動画生成部27は、要約動画Vを生成する。ここで要約動画Vとは、ペットフレームの数が非ペットフレームの数よりも多い動画である。要約動画Vには、イベント毎に生成されるイベント動画EVと、それらのイベント動画EVに基づいて生成されるサマリ動画SVとがある。
要約動画生成部27は、イベント動画生成部270と、サマリ動画生成部271とを備える。
イベント動画生成部270は、動画記憶部21が供給する撮像動画MVと、フレーム属性記憶部26が供給するフレーム属性情報FPとに基づいてイベント動画EVを生成する。また、イベント動画生成部270は、フレーム属性記憶部26が供給する活動量情報Aに基づいて、生成したイベント動画EVに対する活動量を算出する。
サマリ動画生成部271は、イベント動画生成部270が生成したイベント動画EVに基づいてサマリ動画SVを生成する。
ここで図4を参照し、イベント動画EVとサマリ動画SVとの関係について説明する。
図4は、本実施形態に係るイベント動画EVとサマリ動画SVとの関係の一例を示す図である。ペット動画解析装置2は、撮像装置1から取得する撮像動画MVを、所定の周期において解析する。ここで所定の周期とは、例えば、1時間である。
1時間の撮像動画MVにイベントが含まれている場合、イベント動画生成部270は、イベント動画EVを生成する。図4に示す例では、時刻t1において、イベント動画生成部270-1は、1時間の撮像動画MVに含まれる複数のイベント#1-1、イベント#1-2、及びイベント#1-3についてそれぞれイベント動画EV1-1、イベント動画EV1-2、及びイベント動画EV1-3を生成する。ここでイベント動画生成部270-1は、図2のイベント動画生成部270である。
生成されたイベント動画EV1-1、イベント動画EV1-2、及びイベント動画EV1-3は、時刻t1において要約動画出力部290により端末装置3に出力される。
図4に示す例では、時刻t2において、イベント動画生成部270-2は、次の1時間の撮像動画MVに含まれる複数のイベント#2-1、及びイベント#2-2についてそれぞれイベント動画EV2-1、及びイベント動画EV2-2を生成する。ここでイベント動画生成部270-2は、図2のイベント動画生成部270である。
生成されたイベント動画EV2-1、及びイベント動画EV2-2は、時刻t2において要約動画出力部290により端末装置3に出力される。
サマリ動画生成部271は、生成した複数のイベント動画EV1-1、イベント動画EV1-2、イベント動画EV1-3を、イベント動画EV2-1、及びイベント動画EV2-2から所定の周期においてサマリ動画SV1を生成する。ここで所定の周期とは、例えば、8時間である。
生成されたサマリ動画SV1は、スケジュール#1において要約動画出力部290により端末装置3に出力される。
なお、図4に示す例では、ペット動画解析装置2が撮像動画MVを解析する周期を1時間としたが、これに限らない。ペット動画解析装置2が撮像動画MVを解析する周期は、イベントが発生すると、ペット動画解析装置2がイベント動画EVを端末装置3に逐次送信できる程度に短い周期であってもよい。イベントが発生すると、ペット動画解析装置2がイベント動画EVを端末装置3に逐次送信できる程度に短い周期とは、例えば、1分である。
また、ペット動画解析装置2は、イベント動画EVと、サマリ動画SVとを同じ周期において端末装置3に出力してもよい。イベント動画EVと、サマリ動画SVとが同じ周期において出力される場合、ペット動画解析装置2が撮像動画MVを解析する周期は、例えば、サマリ動画生成部271がサマリ動画SVを生成する周期(例えば、8時間)と同じある。
また、ペット動画解析装置2が撮像動画MVを解析する周期は、例えば、24時間であってもよい。
図2に戻って、ペット動画解析装置2の構成の説明を続ける。
サムネイル生成部28は、動画記憶部21が供給する撮像動画MVと、フレーム属性記憶部26が供給するフレーム属性情報FPと、要約動画生成部27が供給するサマリ動画SVとに基づいてサムネイルSNを生成する。
出力部29は、要約動画Vを端末装置3に出力する。出力部29は、要約動画出力部290と、サムネイル出力部291とを備える。
要約動画出力部290は、要約動画生成部27が生成した要約動画Vを端末装置3に出力する。
サムネイル出力部291は、サムネイル生成部28が生成したサムネイルSNを端末装置3に出力する。
(イベント動画の生成及び出力)
次に図5及び図6を参照し、イベント動画EVの生成及び出力処理について説明する。
図5は、本実施形態に係るイベント動画EVの生成及び出力処理の一例を示す図である。図5に示す処理は、所定の周期(例えば、1時間)において実行される。
ステップS100:動画取得部20は、撮像装置1が撮像した撮像動画MVを取得する。動画取得部20は、取得した撮像動画MVを動画記憶部21に供給する。
動画記憶部21は、動画取得部20が供給する撮像動画MVを、シーン判定部22と、イベント解析部24と、サムネイル選択部25と、要約動画生成部27と、サムネイル生成部28とに供給する。
ステップS102:ペットフレーム抽出部220は、動画記憶部21が供給する撮像動画MVを構成する複数のフレームからペットフレームを抽出する。ここで、ペットフレーム抽出部220は、記憶部23に記憶される学習結果230に基づく機械学習を用いて、ペットフレームを抽出する。ペットフレーム抽出部220は、フレームに猫の画像が撮像されている場合に、このフレームにペットPが撮像されていると判定する。
ペットフレーム抽出部220は、撮像動画MVを構成する複数のフレームそれぞれについてペットフレームであるかを、学習結果230に基づく機械学習を用いて判定することによりペットフレームを抽出する。ペットフレーム抽出部220は、学習結果230に基づいて、撮像動画MVを構成する複数のフレームそれぞれについて、対象物の位置を判定する。ペットフレーム抽出部220は、学習結果230に基づいて、判定した対象物がペットPであるか否かを判定する。
ペットフレーム抽出部220は、撮像動画MVを構成する複数のフレームのフレーム番号毎に、判定結果をそれぞれ対応づけ、フレーム属性情報FPに含める。
ペットフレーム抽出部220は、判定結果を含めたフレーム属性情報FPを連続ペットフレーム判定部221に供給する。
ここで、動画記憶部21から供給される撮像動画MVとは、動画取得部20が撮像装置1から取得した動画である。したがって、ペットフレーム抽出部220は、動画取得部20が取得した撮像動画MVを構成する複数のフレームからペットフレームを抽出する。
ステップS104:連続ペットフレーム判定部221は、ペットフレーム抽出部220が供給するフレーム属性情報FPに基づいて、動画記憶部21から供給される撮像動画MVにおいて連続するペットフレームを判定する。つまり、連続ペットフレーム判定部221は、撮像動画MVに含まれるシーン動画CVを判定する。
ここで連続ペットフレーム判定部221は、フレーム属性情報FPに基づいて、ペットフレーム抽出部220が抽出したペットフレームを判定する。連続ペットフレーム判定部221は、ペットフレーム抽出部220が抽出したペットフレームのなかから、撮像動画MVにおいて連続するペットフレームを判定する。
連続ペットフレーム判定部221は、記憶部23に記憶される学習結果230に基づく機械学習を用いて、連続するペットフレームを判定する。連続ペットフレーム判定部221は、ペットフレームに加えて非ペットフレームを含めて、複数のフレームが連続しているか否かを判定してもよい。
連続ペットフレーム判定部221は、撮像動画MVを構成する複数のフレームのフレーム番号毎に、判定結果をそれぞれ対応づけ、フレーム属性情報FPに含める。連続ペットフレーム判定部221は、判定結果を含めたフレーム属性情報FPを、イベント解析部24と、フレーム属性記憶部26とに供給する。
ここで、動画記憶部21から供給される撮像動画MVとは、動画取得部20が撮像装置1から取得した動画である。したがって、連続ペットフレーム判定部221は、ペットフレーム抽出部220が抽出したペットフレームのなかから、動画取得部20が取得した撮像動画MVにおいて連続するペットフレームを判定する。
ステップS106:イベント判定部240は、連続ペットフレーム判定部221が供給するフレーム属性情報FPに基づいて、動画記憶部21から供給される撮像動画MVに含まれるイベントを判定する。イベント判定部240は、連続ペットフレーム判定部221が判定したシーン動画CVを構成するペットフレームそれぞれについてイベントを判定する。
イベント判定部240は、判定した結果をフレーム属性情報FPに含め、イベント計数部241に供給する。
ここでイベント判定部240は、記憶部23に記憶される学習結果230に基づく機械学習、及び記憶部23に記憶されるイベント情報231を用いて判定する。イベント判定部240は、学習結果230に基づく機械学習を用いて、ペットPの位置が、イベント情報231が示すイベントの種類に対応づけられた場所情報が示す領域に含まれるか否かを判定する。イベント判定部240は、ペットPの位置が含まれる領域を示す場所情報に、イベント情報231において対応づけられたイベントの種類を、イベントの判定対象であるペットフレームに撮像されているイベントであると判定する。
例えば、イベント判定部240は、ペットPの位置が水飲みの近くの領域に含まれると判定する場合、ペットフレームに含まれるイベントの種類が「水飲み」であると判定する。
したがって、イベント判定部240は、ペットフレーム抽出部220が抽出したペットフレームに撮像されている場所によってイベントの種類を判定する。
なお、イベント判定部240は、場所によってイベントの種類を判定する代わりに、ペットフレーム抽出部220が抽出したペットフレームに撮像されているペットPの動きによってイベントの種類を判定してもよい。
ペットPの動きによってイベントの種類を判定する場合、イベント判定部240は、記憶部23に記憶される学習結果230に基づく機械学習を用いて、ペットフレームに撮像されているペットPの動きを解析する。イベント判定部240がペットPの動きによってイベントの種類を判定する場合、学習結果230には、ペットの動きとイベントの種類との対応が学習された結果が含まれてよい。
ステップS108:イベント計数部241は、イベント判定部240が供給するフレーム属性情報FPに基づいて、動画記憶部21が供給する撮像動画MVに含まれるイベントの発生回数を数える。ここで、イベント計数部241は、イベント判定部240がイベントフレームであると判定したペットフレームと、連続ペットフレーム判定部221が判定した連続するペットフレームとに基づいてイベントの発生回数を数える。イベント計数部241は、イベントの発生回数をイベントの種類毎に数える。
イベント計数部241は、数えたイベントの発生回数をフレーム属性情報FPに含める。イベント計数部241は、発生回数を含めたフレーム属性情報FPを活動量計測部242に供給する。
ステップS110:活動量計測部242は、イベント計数部241が供給するフレーム属性情報FPに基づいて、動画記憶部21が供給する撮像動画MVに含まれるイベントに伴うペットPの運動量を計測する。ここで、活動量計測部242は、記憶部23に記憶される学習結果230に基づいて計測する。
活動量計測部242は、記憶部23に記憶される学習結果230に含まれる撮像されているペットの動きに対応する活動量の値に基づいて、イベント判定部240が判定したイベントフレーム毎に活動量を計測する。
活動量計測部242は、計測した結果をフレーム属性情報FPに含める。活動量計測部242は、計測した結果を含めたフレーム属性情報FPを、サムネイル選択部25及びフレーム属性記憶部26に供給する。
なお、活動量計測部242は、活動量の測定に、学習結果230に含まれる撮像されているペットの動きに対応する活動量の値の代わりに、イベントの種類毎に予め割り当てられた活動量の値を用いてもよい。活動量計測部242は、活動量の測定にイベントの種類毎に予め割り当てられた活動量の値を用いる場合、イベントの種類毎に予め割り当てられた活動量の値は、イベント情報231に含まれてよい。
ステップS112:サムネイル選択部25は、イベント判定部240が判定したイベント毎に、イベントフレームのなかからサムネイルに対応するイベントフレームを選択する。ここでイベントフレームは、シーン動画CVに含まれる連続するペットフレームである。したがって、サムネイル選択部25は、シーン動画に含まれる連続するペットフレームのなかからサムネイル画像に対応するペットフレームを選択する。
ここでサムネイル選択部25は、動画記憶部21が供給する撮像動画MVと、イベント解析部24が供給するフレーム属性情報FPと、記憶部23に記憶される学習結果230に基づいて要約動画Vのサムネイルを選択する。サムネイル選択部25は、学習結果230に基づいて、イベント判定部240が判定したイベント毎に、イベントフレームのうちいずれがサムネイルに適しているかを判定する。
サムネイル選択部25は、選択結果をフレーム属性情報FPに含める。サムネイル選択部25は、選択結果を含めたフレーム属性情報FPをフレーム属性記憶部26に供給する。
なお、サムネイル選択部25は、学習結果230に基づいてサムネイルを選択する代わりに、所定のルールに基づいてサムネイルを選択してもよい。所定のルールとは、例えば、イベント毎に最も時間の順序が早いイベントフレームをサムネイルとして選択することである。また、別の例では、所定のルールとは、イベント毎に最も時間の順序が遅いイベントフレームをサムネイルとして選択することである。また、別の例では、所定のルールとは、イベントフレームの画像内に占めるペットPの画像の割合が最も大きいイベントフレームをサムネイルとして選択することである。
ステップS114:フレーム属性記憶部26は、イベント画像生成準備のための処理を実行する。フレーム属性記憶部26は、シーン判定部22、イベント解析部24、及びサムネイル選択部25が供給するフレーム属性情報FPを記憶する。フレーム属性記憶部26は、記憶したフレーム属性情報FPを要約動画生成部27、及びサムネイル生成部28に供給する。また、フレーム属性記憶部26は、記憶したフレーム属性情報FPを出力部29に供給する。
また、フレーム属性記憶部26は、イベント解析部24が供給する活動量情報Aを要約動画生成部27に供給する。
ステップS116:イベント動画生成部270は、フレーム属性記憶部26が供給するフレーム属性情報FPに基づいて、動画記憶部21が供給する撮像動画MVに含まれるイベントの発生回数が1以上であるか否かを判定する。
イベント動画生成部270は撮像動画MVに含まれるイベントの発生回数が1以上であると判定する場合(ステップS116;YES)、ステップS118の処理を実行する。一方、イベント動画生成部270は、撮像動画MVに含まれるイベントの発生回数が1以上でないと判定する場合(ステップS116;NO)、処理を終了する。
ステップS118:イベント動画生成部270は、イベント毎にイベント動画EVを生成する処理を繰り返す。
ステップS120:イベント動画生成部270は、要約前イベント動画PEVを抽出する。ここでイベント動画生成部270は、フレーム属性記憶部26が供給するフレーム属性情報FPに基づいて、動画記憶部21が供給する撮像動画MVから、1つのイベントについてイベントフレームを抽出する。イベント動画生成部270は、1つのイベントについて抽出したイベントフレームから構成される動画を要約前イベント動画PEVとする。
ステップS122:イベント動画生成部270は、抽出した要約前イベント動画PEVの時間の長さが所定の時間の長さ以上であるか否かを判定する。ここで所定の時間とは、例えば、3秒である。
イベント動画生成部270は、要約前イベント動画PEVの時間の長さが所定の時間の長さ以上であると判定する場合(ステップS122;YES)、ステップS124の処理を実行する。一方、イベント動画生成部270は、要約前イベント動画PEVの時間の長さが所定の時間の長さ以上でないと判定する場合(ステップS122;NO)、処理を終了する。
ステップS124:イベント動画生成部270は、イベント動画EVを生成する。イベント動画生成部270は、生成したイベント動画EVを出力部29に供給する。
ここで図6を参照し、イベント動画生成部270がイベント動画EVを生成方法について説明する。
図6は、本実施形態に係るイベント動画EVの生成方法の一例を示す図である。図6に示す例では、イベント動画生成部270は、要約前イベント動画PEV1からイベント動画EVを生成する。要約前イベント動画PEV1は、時間t10から時間t13までペットPのあるイベントについて撮像さている動画である。時間t10から時間t13まで、つまり要約前イベント動画PEV1の時間の長さは、3秒以上である。
イベント動画生成部270は、要約前イベント動画PEVの時間の長さが60秒より長い場合、要約前イベント動画PEV1の時間の長さを60秒以内に短縮する。ここでイベント動画生成部270は、要約前イベント動画PEV1の始めの部分と、終わりの部分とをそれぞれ所定の長さだけ削除することにより、要約前イベント動画PEV1の時間の長さを短縮する。
ここで、イベント動画生成部270は、ペットフレームの数が非ペットフレームの数よりも多くなるように要約前イベント動画PEVの時間の長さを短縮する。連続ペットフレーム判定部221が、非ペットフレームをシーン動画CVに含めない場合は、要約前イベント動画PEVには非ペットフレームは含まれない。
一方、連続ペットフレーム判定部221が非ペットフレームを、シーン動画CVに含めた場合、イベント動画生成部270は、ペットフレームの数が非ペットフレームの数よりも多くなるように要約前イベント動画PEVの時間の長さを短縮する。
図6に示す例では、始めの部分として部分動画P1が選択され、終わりの部分として部分動画P3が選択されている。イベント動画生成部270は、要約前イベント動画PEVから、部分動画P1と、部分動画P3とを削除し、部分動画P2とする。部分動画P2は、時間t11から時間t12までペットPのあるイベントについて撮像さている動画である。部分動画P2の時間の長さは、動画長さL11である。ここで動画長さL11は、60秒である。
イベント動画生成部270は、部分動画P2をイベント動画EVとする。
このように、イベント動画生成部270は、ペットフレーム抽出部220が抽出したペットフレームの数が、動画取得部20が取得した動画を構成する複数のフレームのうちペットフレームを除くフレームである非ペットフレームの数よりも多い動画であるイベント動画EVを、動画取得部20が取得した撮像動画MVに基づいて生成する。
ここでイベント動画生成部270は、シーン動画CVの時間の長さを所定の長さ以下にしてイベント動画EVを生成する。したがって、イベント動画生成部270は、連続ペットフレーム判定部221が判定したペットフレームから構成されるシーン動画CV(要約前イベント動画PEV)に含まれる連続するペットフレームの数を所定の数以下にした動画(部分動画P2)に基づいてイベント動画EVを生成する。
なお、イベント動画生成部270は、要約前イベント動画PEVの始めの部分を削除して、60秒以内に短縮してもよい。イベント動画生成部270は、要約前イベント動画PEVの終わりの部分を削除して、60秒以内に短縮してもよい。イベント動画生成部270は、要約前イベント動画PEVの途中の部分を削除して、60秒以内に短縮してもよい。
また、イベント動画生成部270は、要約前イベント動画PEVのいずれの部分を削除し60秒以内に短縮するかを、記憶部23に記憶される学習結果230に基づいて選択してもよい。イベント動画生成部270が要約前イベント動画PEVのいずれの部分を削除し60秒以内に短縮するかを、学習結果230に基づいて選択する場合、学習結果230には、ペットがよく撮像されている動画の判定結果が含まれてよい。
イベント動画生成部270は、生成したイベント動画EVに対する活動量を算出する。ここでイベント動画EVに対する活動量とは、イベント動画EVに含まれるペットフレーム毎に計測された活動量が、所定の時間間隔において集計された量である。所定の時間間隔とは、例えば、10秒である。
図5に戻って、イベント動画EVの生成及び出力処理の説明を続ける。
ステップS126:サムネイル生成部28は、動画記憶部21が供給する撮像動画MVと、フレーム属性記憶部26が供給するフレーム属性情報FPとに基づいてサムネイルSNを生成する。サムネイル生成部28は、生成したサムネイルSNを出力部29に供給する。
なお、イベント動画生成部270により要約前イベント動画PEVがイベント動画EVに短縮される処理において削除した部分に、サムネイル選択部25が選択したイベントフレームが含まれる場合、サムネイル選択部25は、イベント動画生成部270が生成したイベント動画EVを構成する複数のイベントフレームのなかからサムネイルに対応するフレームを再度選択してもよい。この場合、サムネイル選択部25は、選択結果に基づいてフレーム属性情報FPを更新し、フレーム属性記憶部26に再度供給する。
ステップS128:要約動画出力部290は、イベント動画生成部270が供給するイベント動画EVを、端末装置3に出力する。サムネイル出力部291は、サムネイル生成部28が供給するこのイベント動画EVに対応するサムネイルSNを、端末装置3に出力する。
また、要約動画出力部290は、フレーム属性記憶部26が供給するフレーム属性情報FPが示すイベント発生回数を、端末装置3に出力する。したがって、要約動画出力部290は、要約動画生成部27が生成した要約動画(イベント動画EV)に加えて、イベント計数部241が計数したイベントの発生回数をさらに出力する。
また、要約動画出力部290は、イベント動画生成部270が算出したイベント動画EVに対する活動量を、端末装置3に出力する。
また、要約動画出力部290は、イベント動画EVに加えて、このイベント動画EVに含まれるイベントの開始時刻を示す情報を端末装置3に送信する。
また、要約動画出力部290は、イベント動画EVに加えて、このイベント動画EVに含まれるイベントの種類を示す情報を端末装置3に送信する。
ステップS130:イベント動画生成部270は、イベント毎にイベント動画EVを生成する処理を終了する。
(サマリ動画の生成及び出力)
次に図7及び図8を参照し、サマリ動画SVの生成及び出力処理について説明する。
図7は、本実施形態に係るサマリ動画SV1の生成及び出力処理の一例を示す図である。図7に示す処理は、サマリ動画SVが生成される所定の周期において実行される。
ステップS200:サマリ動画生成部271は、イベント動画生成部270が生成したイベント動画EVを取得する。ここでイベント動画生成部270が生成したイベント動画EVとは、サマリ動画生成部271がサマリ動画SVを前回生成してからイベント動画生成部270が生成したイベント動画EVである。イベント動画生成部270が生成したイベント動画EVが複数ある場合、サマリ動画生成部271は、複数のイベント動画EVを取得する。
ステップS202:サマリ動画生成部271は、取得したイベント動画EVに基づいてサマリ動画SVを生成する。
ここで図8を参照し、サマリ動画SV1の生成方法について説明する。
図8は、本実施形態に係るサマリ動画SV1の生成方法の一例を示す図である。図8(A)では、イベント動画生成部270が生成したイベント動画EV1~PEV18が時系列に示されている。イベント動画EV1の時間の長さ、イベント動画EV2の時間の長さ、及びイベント動画EV3の時間の長さは、それぞれ動画長さL11(60秒)である。イベント動画EV4の時間の長さは、動画長さL12(例えば40秒)である。
イベント動画EV1~PEV18のそれぞれの間には、非イベント動画NEV1、非イベント動画NEV2、…が存在している。非イベント動画NEV1、非イベント動画NEV2、…は、イベント動画EVと判定されなかったシーン動画CVである。
イベント動画EV1~PEV18には、4種類のイベントが含まれる。イベント動画EV1、及びイベント動画EV10には、「水飲み」のイベントが含まれる。イベント動画EV4、及びイベント動画EV12には、「ごはん」のイベントが含まれる。イベント動画EV5、及びイベント動画EV17には、「トイレ」のイベントが含まれる。残りのイベント動画EV2、イベント動画EV3、イベント動画EV6~PEV9、イベント動画EV11、イベント動画EV13~PEV16、及びイベント動画EV18には、「カメラの前で動いている」のイベントが含まれる。
サマリ動画生成部271は、イベント動画EV1~PEV18に基づいて動画長さL31のサマリ動画SVを生成する。ここで動画長さL31とは、例えば、60秒である。サマリ動画生成部271は、イベント動画EV1~PEV18のなかから、サマリ動画SVを生成するためのイベント動画EVを選択する。サマリ動画生成部271は、選択したイベント動画EVを所定の時間の長さ以下に短縮し、60秒のサマリ動画SVを生成する。ここで所定の長さとは、例えば、7秒である。
したがって、図8に示す例では、サマリ動画生成部271は、イベント動画EV1~PEV18のなかから、少なくとも9つのイベント動画EVを選択する。
ただし、サマリ動画生成部271は、動画取得部20が取得した撮像動画MVに複数の種類のイベントが含まれる場合、イベント判定部240が判定したイベントフレームに基づいて、複数の種類のイベントがサマリ動画SVに含まれるようにサマリ動画SVを生成する。
図8(B)に示す例では、サマリ動画生成部271は、イベント動画EV1、イベント動画EV2、イベント動画EV4、イベント動画EV5、イベント動画EV9、イベント動画EV10、イベント動画EV12、イベント動画EV16、及びイベント動画EV18を、サマリ動画SVを生成するために選択する。これにより、「水飲み」、「カメラの前で動いている」、「ごはん」、及び「トイレ」の複数の種類のイベントがそれぞれサマリ動画SVに含まれる。
図8(C)に示すように、サマリ動画生成部271は、選択したイベント動画EV1を短縮して、動画長さL21の短縮イベント動画SEV1を生成する。ここで動画長さL21は、7秒以下である。同様に、サマリ動画生成部271は、残りの選択したイベント動画EV2、イベント動画EV4、…についてもそれぞれ7秒以下の長さに短縮し、短縮イベント動画SEV2、短縮イベント動画SEV4、…を生成する。ここでサマリ動画生成部271は、短縮イベント動画SEV1、短縮イベント動画SEV2、…の長さが均等になるように生成する。
サマリ動画生成部271は、生成した短縮イベント動画SEV1、短縮イベント動画SEV2、短縮イベント動画SEV4、短縮イベント動画SEV5、短縮イベント動画SEV9、短縮イベント動画SEV10、短縮イベント動画SEV12、短縮イベント動画SEV16、及び短縮イベント動画SEV18を時系列の順に連結し、サマリ動画SV1とする。
サマリ動画SV1は、イベント動画EVに基づいて生成されているため、サマリ動画SV1では、ペットフレームの数が非ペットフレームの数よりも多い。したがって、サマリ動画生成部271は、ペットフレーム抽出部220が抽出したペットフレームの数が、動画取得部20が取得した動画を構成する複数のフレームのうちペットフレームを除くフレームである非ペットフレームの数よりも多い動画であるサマリ動画SVを、動画取得部20が取得した撮像動画MVに基づいて生成する。
ここで、サマリ動画生成部271は、イベント動画EVの時間の長さを所定の長さ以下にしてサマリ動画SVを生成する。したがって、サマリ動画生成部271は、連続ペットフレーム判定部221が判定したペットフレームから構成されるシーン動画CV(要約前イベント動画PEV)に含まれる連続するペットフレームの数を所定の数以下にした動画(短縮イベント動画SEV1、短縮イベント動画SEV2、…)に基づいてサマリ動画SVを生成する。
図7に戻って、サマリ動画SVの生成及び出力処理の説明を続ける。
ステップS204:サムネイル生成部28は、サマリ動画生成部271が生成したサマリ動画SVのサムネイルSNを生成する。ここでサムネイル生成部28は、動画記憶部21が供給する撮像動画MVと、フレーム属性記憶部26が供給するフレーム属性情報FPとに基づいて、撮像動画MVに含まれるイベント動画EVそれぞれについてサムネイルSNを生成する。サムネイル生成部28は、生成したサムネイルSNのうち、サマリ動画生成部271がサマリ動画SVを生成するために選択したイベント動画EVに対応するサムネイルSNから、サマリ動画SVのサムネイルSNを選択する。
サムネイル生成部28は、例えば、サマリ動画生成部271がサマリ動画SVを生成するために選択したイベント動画EVに含まれる最も数の多い種類のイベントを含むイベント動画EVから、サマリ動画SVのサムネイルSNを選択する。
別の例では、サムネイル生成部28は、例えば、サマリ動画生成部271がサマリ動画SVを生成するために選択したイベント動画EVに含まれる最も時間の長い種類のイベントを含むイベント動画EVから、サマリ動画SVのサムネイルSNを選択する。
さらに別の例では、サムネイル生成部28は、サマリ動画生成部271がサマリ動画SVを生成するために選択したイベント動画EVのうち、時系列の最も新しいイベント動画EVのサムネイルSNを、サマリ動画SVのサムネイルSNを選択してもよい。
ステップS206:要約動画出力部290は、サマリ動画生成部271が供給するサマリ動画SVを端末装置3に出力する。サムネイル出力部291は、サムネイル生成部28が供給するこのサマリ動画SVに対応するサムネイルSNを、端末装置3に出力する。
なお、図5のステップS128の処理及び図7のステップS206の処理では、要約動画出力部290は、要約動画Vが生成されると、端末装置3に生成された要約動画Vを出力する場合について説明したが、これに限らない。
要約動画出力部290は、まず要約動画Vに対応するサムネイルSNを端末装置3に出力し、端末装置3からのリクエストを取得した場合に、要約動画Vを出力してもよい。
(出力結果)
図9~図12を参照し、ペット動画解析装置2の出力結果である端末装置3の画面の例について説明する。端末装置3の画面の例には、時系列画面G1、アルバム画面G2、活動量表示画面G3、及びレポート画面G4がある。
図9は、本実施形態に係る時系列画面G1の一例を示す図である。時系列画面G1は、イベントが発生したことを、イベント動画EVをイベントが発生した時系列の順に並べて通知するための画面である。また、時系列画面G1には、1日に3回、サマリ動画SVが生成されたことが通知される。
図9に示す時系列画面G1では、イベント動画EV1、及びイベント動画EV2が生成されたことが通知されている。時系列画面G1において、イベント動画EV1、及びイベント動画EV2は、イベントが発生した時系列の順に並べて表示される。
時系列画面G1には、イベント動画EV1について、タイムスタンプT1、アイコンA1、メッセージM1が表示されている。時系列画面G1には、イベント動画EV2について、タイムスタンプT2、アイコンA2、メッセージM2が表示されている。
タイムスタンプT1は、イベント動画EV1に含まれるイベントの開始時刻を示す。アイコンA1は、イベント動画EVとサマリ動画SVとの区別とともに、イベント動画EV1に含まれるイベントの種類を示す。メッセージM1は、イベント動画EV1に含まれるイベントの種類に応じた定型のテキストである。
タイムスタンプT2、アイコンA2、メッセージM2についても同様である。
図10は、本実施形態に係るアルバム画面G2の一例を示す図である。アルバム画面G2は、アルバムALを閲覧するための画面である。ここでアルバムALとは、過去に生成されたイベント動画EV、及びサマリ動画SVが蓄積されたものである。
アルバム画面G2には、イベント動画EV、及びサマリ動画SVそれぞれのサムネイルSNと、カレンダーの情報が表示されている。サムネイルSN1は、イベント動画EVのサムネイルSNの一例である。カレンダー画像C1は、カレンダーの情報の一例である。
図11は、本実施形態に係る活動量表示画面G3の一例を示す図である。活動量表示画面G3は、イベント動画EV毎に集計された活動量を確認するための画面である。活動量表示画面G3には、イベント動画EVのサムネイルSNと、一日の活動量を示す活動量グラフAGが表示される。
サムネイルSNは、イベントが発生した時系列の順に並べて表示される。サムネイルSN2は、イベント動画EVのサムネイルSNの一例である。
図12は、本実施形態に係るレポート画面G4の一例を示す図である。レポート画面G4は、イベントのうち「水飲み」、「ごはん」、及び「トイレ」のそれぞれの一日の回数をグラフにより表示するための画面である。レポート画面G4では、水飲み回数グラフCG1、ごはん回数グラフCG2、及びトイレ回数グラフCG3が表示されている。
以上に説明したように、本実施形態に係るペット動画解析装置2は、動画取得部20と、ペットフレーム抽出部220と、要約動画生成部27と、要約動画出力部290とを備える。
動画取得部20は、ペットPが撮像された動画(撮像動画MV)を取得する。
ペットフレーム抽出部220は、動画取得部20が取得した動画(撮像動画MV)を構成する複数のフレームから、ペットPが撮像されているフレームであるペットフレームを抽出する。
要約動画生成部27は、ペットフレーム抽出部220が抽出したペットフレームの数が、動画取得部20が取得した動画(撮像動画MV)を構成する複数のフレームのうちペットフレームを除くフレームである非ペットフレームの数よりも多い動画である要約動画Vを、動画取得部20が取得した動画(撮像動画MV)に基づいて生成する。
この構成により、本実施形態に係るペット動画解析装置2では、ペットPが撮像されている場面の割合が、ペットPが撮像されていない場面の割合よりも多い動画を出力できるため、ペットPを効率よく見守ることができる。
また、本実施形態に係るペット動画解析装置2は、連続ペットフレーム判定部221をさらに備える。
連続ペットフレーム判定部221は、ペットフレーム抽出部220が抽出したペットフレームのなかから、動画取得部20が取得した動画(撮像動画MV)において連続するペットフレームを判定する。
また、要約動画生成部27は、連続ペットフレーム判定部221が判定したペットフレームから構成されるシーン動画CVに含まれる連続するペットフレームの数を所定の数以下にした動画(部分動画P2、短縮イベント動画SEV1、短縮イベント動画SEV2、…)に基づいて要約動画Vを生成する。
この構成により、本実施形態に係るペット動画解析装置2では、動画(撮像動画MV)に含まれるシーン毎に要約動画Vを生成できるため、シーン毎にペットPを効率よく見守ることができる。
また、本実施形態に係るペット動画解析装置2は、サムネイル選択部25をさらに備える。
サムネイル選択部25は、シーン動画CVに含まれる連続するペットフレームのなかからサムネイル画像(サムネイルSN)に対応するペットフレームを選択する。
この構成により、本実施形態に係るペット動画解析装置2では、要約動画Vに対するサムネイル画像(サムネイルSN)を端末装置3に表示できるため、要約動画Vを再生する前に要約動画Vの内容の概略を確認できる。
また、本実施形態に係るペット動画解析装置2は、イベント判定部240をさらに備える。
イベント判定部240は、連続ペットフレーム判定部221が判定したペットフレームが、予め登録されているペットPの行動を示すイベントが撮像されているフレームであるイベントフレームであるか否かを判定する。
この構成により、本実施形態に係るペット動画解析装置2では、シーン動画CVに含まれるイベントを判定できるため、イベント毎にペットPを効率よく見守ることができる。
また、本実施形態に係るペット動画解析装置2は、イベント計数部241をさらに備える。
イベント計数部241は、イベント判定部240がイベントフレームであると判定したペットフレームと、連続ペットフレーム判定部221が判定した連続するペットフレームとに基づいてイベントの発生回数を数える。
要約動画出力部290は、要約動画生成部27が生成した要約動画Vに加えて、イベント計数部241が計数したイベントの発生回数をさらに出力する。
この構成により、本実施形態に係るペット動画解析装置2では、シーン動画CVに含まれるイベントの発生回数を通知できるため、イベントの発生回数を確認することができる。
また、本実施形態に係るペット動画解析装置2では、要約動画生成部27は、動画取得部20が取得した動画(撮像動画MV)に複数の種類のイベントが含まれる場合、イベント判定部240が判定したイベントフレームに基づいて、複数の種類のイベントが要約動画Vに含まれるように要約動画Vを生成する。
この構成により、本実施形態に係るペット動画解析装置2では、要約動画Vに複数の種類のイベントを含めることができるため、要約動画Vが単調な内容になることを防ぐことができる。
また、本実施形態に係るペット動画解析装置2では、イベント判定部240は、ペットフレーム抽出部220が抽出したペットフレームに撮像されている場所によってイベントの種類を判定する。
この構成により、本実施形態に係るペット動画解析装置2では、ペットフレームに撮像されている場所によってイベントの種類を判定できるため、画像認識の技術だけを用いてイベントの種類を判定する場合に比べてイベントの種類を簡便に判定することができる。
本発明においては、動画解析によりペットPの病気の予兆となるような行動を検出することにより、将来の病気のリスクを予防するなど、ペットの健康管理を行うことに用いられてもよい。このペットの健康管理には、図12のレポート画面G4において表示されるイベントの発生回数が用いられてもよい。
(第2の実施形態)
以下、図面を参照しながら本発明の第2の実施形態について詳しく説明する。
上記第1の実施形態では、ペット動画解析装置は、ペットが特定のペットであるか否かを判定せずにペット(一例として、猫)が撮像された動画を解析する場合について説明をした。本実施形態では、ペット動画解析装置が、ペットが特定のペット(一例として、特定の猫)であるか否かを判定してペットが撮像された動画を解析する場合について説明をする。
本実施形態に係るペット動画解析装置をペット動画解析装置2aといい、端末装置を端末装置3aという。
図13は、本実施形態に係るペット動画解析装置2aの機能構成の一例を示す図である。本実施形態に係るペット動画解析装置2a(図13)と第1の実施形態に係るペット動画解析装置2(図2)とを比較すると、動画記憶部21a、記憶部23a、フレーム属性記憶部26a、ペット判定部30a、評価取得部31a、及び出力部29aが異なる。ここで、他の構成要素(動画取得部20、シーン判定部22、イベント解析部24、サムネイル選択部25、要約動画生成部27、及びサムネイル生成部28)が持つ機能は第1の実施形態と同じである。第1の実施形態と同じ機能の説明は省略し、第2の実施形態では、第1の実施形態と異なる部分を中心に説明する。
動画記憶部21aは、記憶している撮像動画MVを、シーン判定部22、イベント解析部24、サムネイル選択部25、及び要約動画生成部27に加えて、ペット判定部30aに供給する。
記憶部23aには、学習結果230と、イベント情報231とに加えて、ペット情報232aが記憶される。
ペット情報232aとは、特定のペットPを示す情報である。ペット情報232aは、ペットPの名前と、ペットPの画像を判定するため機械学習による学習結果とが対応づけられた情報である。ペットPの画像を判定するため機械学習は、例えば、利用者によって予め登録されるペットPの全身の画像や、ペットPの顔の画像を用いて実行される。
ペット判定部30aは、ペットフレーム抽出部220が抽出したペットフレームに撮像されたペットが特定のペットPであるか否かを判定する。ここでペット判定部30aは、記憶部23aに記憶されるペット情報232aに基づいて判定する。
また、ペット判定部30aは、評価取得部31aが取得した評価に基づいて動画取得部20が取得した撮像動画MVに撮像されたペットが特定のペットPであるか否かを判定する。ここで評価取得部31aが取得した評価とは、評価取得部31aが判定した結果が通知されたことに応じて得られる評価である。この評価とは、ペット判定部30aが判定したペットの判定結果が正しいか否かについて利用者により行われる評価である。結果が通知されたことに応じて得られる評価とは、例えば、猫種(ペットPが犬の場合は犬種)が同一であるなど、外見が似通っている個別のペットPの判定に際し、ペットPを正しく特定していたり、間違っていたりする場合に、利用者が正誤を入力するフィードバックである。
ここで図14を参照し、ペット判定部30aの判定結果について説明する。
図14は、本実施形態に係る撮像動画MVの解析結果の一例を示す図である。ペット判定部30aは、ペットフレーム抽出部220が抽出したペットフレームであるフレームFN3、フレームFN5、及びフレームFN6に撮像されたペットが「タマ」の名前をもつ特定のペットPであるか否かを判定する。
図14に示す例では、フレームFN3、フレームFN5、及びフレームFN6に撮像されたペットが、「タマ」の名前をもつ特定のペットPであると判定されている。ペット判定部30aは、判定結果に基づいてペット判定情報Nを生成する。ここでペット判定情報Nとは、撮像動画MVを構成する複数のフレームのフレーム番号と、ペット判定部30aが判定した結果とが対応づけられた情報である。
なお、ペット判定部30aは、複数のペットを判定してもよい。ペット判定部30aが複数のペットを判定する場合、ペット情報232aには、複数のペット毎に、ペットの名前と、ペットの画像を判定するため機械学習による学習結果とが対応づけられた情報が含まれる。
ペット判定部30aが複数のペットを判定する場合、ペット判定情報Nは、撮像動画MVを構成する複数のフレームのフレーム番号毎に、例えば、ペットの名前が対応づけられた情報となる。
図13に戻って、ペット動画解析装置2aの構成の説明を続ける。
評価取得部31aは、ペット判定部30aが判定した結果が通知されたことに応じて得られる評価を、端末装置3から取得する。
フレーム属性記憶部26は、ペット判定部30aが供給するペット判定情報Nを要約動画生成部27に供給する。
出力部29aは、要約動画出力部290と、サムネイル出力部291とに加えて、ペット判定結果通知部292aを備える。
ペット判定結果通知部292aは、ペット判定部30aが判定した結果を、端末装置3aに通知する。
次に図15を参照し、ペット動画解析装置2aのペット判定処理について説明する。
図15は、本実施形態に係るペット判定処理の一例を示す図である。図5に示す処理は、所定の周期(例えば、1時間)において実行される。なお、ステップS300、及びステップS302の各処理は、図5におけるステップS100、及びステップS102の各処理と同様であるため、説明を省略する。
ステップS304:ペット判定部30aは、評価取得部31aが端末装置3aから評価を取得したか否かを判定する。ここでペット判定部30aは、評価取得部31aから評価が供給される場合、評価取得部31aが端末装置3aから評価を取得したと判定する。
ペット判定部30aは、評価取得部31aが端末装置3aから評価を取得したと判定する場合(ステップS304;YES)、ステップS306の処理を実行する。一方、ペット判定部30aは、評価取得部31aが端末装置3aから評価を取得していないと判定する場合(ステップS304;NO)、ステップS308の処理を実行する。
ステップS306:ペット判定部30aは、評価取得部31aが供給する評価に基づいて、記憶部23に記憶されるペット情報232aを更新する。ここでペット判定部30aは、ペット情報232aに含まれる、ペットの画像を判定するため機械学習による学習結果を更新する。ペット判定部30aは、評価取得部31aが供給する評価を教師データとして利用し、再学習を行うことにより、判定の精度を向上させる。
なお、ペット判定部30aが判定を行うために用いる機械学習モデルは、必ずしもあらゆるペットPを個々に特定する単一のモデルとして汎化性能を備える必要はなく、特定の撮像環境における判定の精度を向上させることを目的として学習されてよい。
ステップS308:ペット判定部30aは、ペット判定部30aは、記憶部23aに記憶されるペット情報232aに基づいて、ペットフレーム抽出部220が抽出したペットフレームに撮像されたペットが特定のペットPであるか否かを判定する。ここで特定のペットPとは、ペット情報232aが示すペットである。
ペット判定部30aは、判定結果に基づいてペット判定情報Nを生成する。ペット判定部30aは、生成したペット判定情報Nをフレーム属性記憶部26aに供給する。
ステップS310:ペット判定結果通知部292aは、フレーム属性記憶部26aが供給するペット判定情報Nに基づいて、ペット判定部30aの判定結果を端末装置3aに通知する。ここでペット判定結果通知部292aは、ペット判定部30aの判定結果を要約動画V(イベント動画EV、及びサマリ動画SV)に対応づけて通知する。
端末装置3aに表示される時系列画面G1において、ペット判定部30aの判定結果は、要約動画V(イベント動画EV、及びサマリ動画SV)とともに表示される。例えば、時系列画面G1には、タイムスタンプT1や、アイコンA1などとともに、判定結果としてペットPの名前が表示される。
以上に説明したように、本実施形態に係るペット動画解析装置2aは、ペット判定部30aと、ペット判定結果通知部292aとを備える。
ペット判定部30aは、ペットフレーム抽出部220が抽出したペットフレームに撮像されたペットが特定のペットPであるか否かを判定する。
ペット判定結果通知部292aは、ペット判定部30aが判定した結果を通知する。
この構成により、本実施形態に係るペット動画解析装置2aでは、特定のペットと他のペットとを区別することができるため、ペット毎にペットを効率よく見守ることができる。
また、本実施形態に係るペット動画解析装置2aは、評価取得部31aを備える。
評価取得部31aは、ペット判定部30aが判定した結果が通知されたことに応じて得られる評価を取得する。
ペット判定部30aは、評価取得部31aが取得した評価に基づいて動画取得部20が取得した動画(撮像動画MV)に撮像されたペットが特定のペットPであるか否かを判定する。
この構成により、本実施形態に係るペット動画解析装置2aでは、ペット判定部30aが判定した結果が通知されたことに応じて得られる評価に基づいて特定のペットPであるか否かを判定できるため、判定の精度を向上させることができる。
(第3の実施形態)
以下、図面を参照しながら本発明の第3の実施形態について詳しく説明する。
本実施形態では、ペット動画解析装置が、要約動画として短縮される前の動画や、利用者が録画した動画を保存し、それらの動画を端末装置からのリクエストに応じて端末装置に出力する場合について説明をする。
本実施形態に係るペット動画解析装置をペット動画解析装置2bといい、端末装置を端末装置3bという。
図16は、本実施形態に係るペット動画解析装置2bの機能構成の一例を示す図である。本実施形態に係るペット動画解析装置2b(図16)と第1の実施形態に係るペット動画解析装置2(図2)とを比較すると、動画記憶部21b、記憶部23b、フレーム属性記憶部26b、出力部29b、リクエスト取得部32b、及びアーカイブ動画管理部33bが異なる。ここで、他の構成要素(動画取得部20、シーン判定部22、イベント解析部24、サムネイル選択部25、要約動画生成部27、及びサムネイル生成部28)が持つ機能は第1の実施形態と同じである。第1の実施形態と同じ機能の説明は省略し、第3の実施形態では、第1の実施形態と異なる部分を中心に説明する。
動画記憶部21bは、記憶している撮像動画MVを、シーン判定部22、イベント解析部24、サムネイル選択部25、及び要約動画生成部27に加えて、アーカイブ動画管理部33bに供給する。
記憶部23bには、学習結果230と、イベント情報231とに加えて、シーン動画233bと、録画動画234bとが記憶される。
シーン動画233bとは、イベント判定部240によりイベントが含まれると判定されたシーン動画CV(要約前イベント動画PEV)である。シーン動画233bの時間の長さは、60秒以上である場合がある。
録画動画234bとは、ペット動画解析装置2bが撮像装置1から取得される撮像動画MVを即時に端末装置3bに出力する場合に、この撮像動画MVが録画された動画である。
シーン動画233bと、録画動画234bとをまとめてアーカイブ動画という。
フレーム属性記憶部26bは、イベント解析部24が供給するフレーム属性情報FPをアーカイブ動画管理部33bに供給する。
リクエスト取得部32bは、アーカイブ動画リクエスト取得部320bと、ライブ動画リクエスト取得部321bとを備える。
アーカイブ動画リクエスト取得部320bは、アーカイブ動画リクエスト命令を端末装置3bから取得する。ここでアーカイブ動画リクエスト命令とは、アーカイブ動画をペット動画解析装置2に出力させるための命令である。アーカイブ動画リクエスト命令は、アーカイブ動画のリストを出力させるための命令と、特定のアーカイブ動画を出力させるための命令とを含む。
アーカイブ動画リクエスト取得部320bは、アーカイブ動画リクエスト命令を取得すると、アーカイブ動画管理部33bに供給する。
ライブ動画リクエスト取得部321bは、ライブ動画リクエスト命令を端末装置3bから取得する。ここでライブ動画リクエスト命令とは、ライブ動画をペット動画解析装置2に出力させたり、ライブ動画をペット動画解析装置2に録画させたりするための命令である。
ライブ動画リクエスト取得部321bは、ライブ動画リクエスト命令を取得すると、ライブ動画リクエスト命令が示す命令の種類に応じて、ライブ動画出力命令とライブ動画録画命令とのいずれかを、アーカイブ動画管理部33bに供給する。
ライブ動画リクエスト取得部321bは、ライブ動画リクエスト命令がライブ動画をペット動画解析装置2に出力させることを示す場合、ライブ動画出力命令をアーカイブ動画管理部33bに供給する。
一方、ライブ動画リクエスト取得部321bは、ライブ動画リクエスト命令がライブ動画をペット動画解析装置2に録画させることを示す場合、ライブ動画録画命令をアーカイブ動画管理部33bに供給する。
アーカイブ動画管理部33bは、フレーム属性記憶部26bが供給するフレーム属性情報FPに基づいて、動画記憶部21aが供給する撮像動画MVから要約前イベント動画PEVを抽出する。アーカイブ動画管理部33bは、抽出した要約前イベント動画PEVを、シーン動画233bとして記憶部23bに記憶させる。
ここで、要約前イベント動画PEVは、連続ペットフレーム判定部221が判定したペットフレームから構成される。したがって、アーカイブ動画管理部33bは、連続ペットフレーム判定部221が判定したペットフレームから構成されるシーン動画233bを記憶部23bに記憶させる記憶制御部である。
また、アーカイブ動画管理部33bは、ライブ動画リクエスト取得部321bから供給されるライブ動画出力命令に応じて、撮像動画MVを、ライブ動画出力部294bに供給する。
また、アーカイブ動画管理部33bは、ライブ動画リクエスト取得部321bから供給されるライブ動画録画命令に応じて、動画記憶部21が供給する撮像動画MVを、記憶部23に録画動画234bとして記憶させる。
また、アーカイブ動画管理部33bは、アーカイブ動画リクエスト取得部320bから供給されるアーカイブ動画リクエスト命令に応じて、リクエスト取得部32bに記憶されるアーカイブ動画を、アーカイブ動画出力部293bに出力する。
ここでアーカイブ動画管理部33bは、アーカイブ動画リクエスト命令がアーカイブ動画のリストを出力させるための命令を含む場合、複数のアーカイブ動画(シーン動画233b、及び録画動画234b)にそれぞれ対応するサムネイルSNを、アーカイブ動画のリストとして、ライブ動画出力部294bに供給する。
一方、アーカイブ動画管理部33bは、アーカイブ動画リクエスト命令が特定のアーカイブ動画(シーン動画233b、及び録画動画234b)を出力させるための命令を含む場合、アーカイブ動画リクエスト命令が示す特定のアーカイブ動画(シーン動画233b、及び録画動画234b)を、ライブ動画出力部294bに供給する。
出力部29bは、要約動画出力部290と、サムネイル出力部291とに加えて、アーカイブ動画出力部293bと、ライブ動画出力部294bとを備える。
アーカイブ動画出力部293bは、アーカイブ動画管理部33bが供給するアーカイブ動画のリストを端末装置3bに出力する。アーカイブ動画のリストは、端末装置3bにおいて、図10に示したようなアルバム画面G2を用いて表示されてよい。
また、アーカイブ動画出力部293bは、アーカイブ動画管理部33bが供給するアーカイブ動画(シーン動画233b、または録画動画234b)を端末装置3bに出力する。したがって、アーカイブ動画出力部293bは、記憶制御部であるアーカイブ動画管理部33bが記憶部23bに記憶させたシーン動画233bを出力する。
ライブ動画出力部294bは、アーカイブ動画管理部33bがライブ動画として供給する撮像動画MVを、端末装置3bに出力する。ここでライブ動画出力部294bは、例えば、ストリーミングを用いて撮像動画MVを端末装置3に出力する。
以上に説明したように、本実施形態に係るペット動画解析装置2bは、記憶制御部(アーカイブ動画管理部33b)と、シーン動画出力部(アーカイブ動画出力部293b)とを備える。
この構成により、本実施形態に係るペット動画解析装置2bでは、要約動画Vとして短縮される前の動画をリクエストに応じて端末装置3bに出力できるため、しっかりと確認したいシーン動画を、短縮される前の長さにおいて確認することができる。
なお、上述した実施形態におけるペット動画解析装置2、2a、2bの一部、例えば、動画取得部20、動画記憶部21、21a、21b、シーン判定部22、記憶部23、23a、23b、イベント解析部24、サムネイル選択部25、フレーム属性記憶部26、26a、26b、要約動画生成部27、サムネイル生成部28、出力部29、29a、29b、ペット判定部30a、評価取得部31a、リクエスト取得部32b、及びアーカイブ動画管理部33bをコンピュータで実現するようにしてもよい。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、ペット動画解析装置2、2a、2bに内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
また、上述した実施形態におけるペット動画解析装置2、2a、2bの一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。ペット動画解析装置2、2a、2bの各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
S…ペット見守りシステム、1…撮像装置、2、2a、2b…ペット動画解析装置、3、3a、3b…端末装置、20…動画取得部、21、21a、21b…動画記憶部、22…シーン判定部、220…ペットフレーム抽出部、221…連続ペットフレーム判定部、23、23a、23b…記憶部、24…イベント解析部、240…イベント判定部、241…イベント計数部、242…活動量計測部、25…サムネイル選択部、26…フレーム属性記憶部、27…要約動画生成部、270…イベント動画生成部、271…サマリ動画生成部、28…サムネイル生成部、29、29a、29b…出力部、290…要約動画出力部290、291…サムネイル出力部、292a…ペット判定結果通知部、293b…アーカイブ動画出力部、294b…ライブ動画出力部、30a…ペット判定部、31a…評価取得部、32b…リクエスト取得部、320b…アーカイブ動画リクエスト取得部、321b…ライブ動画リクエスト取得部、30a…ペット判定部、31a…評価取得部、232a…ペット情報、292a…ペット判定結果通知部、33b…アーカイブ動画管理部、293b…アーカイブ動画出力部、294b…ライブ動画出力部、V…要約動画、EV…イベント動画、SV…サマリ動画

Claims (11)

  1. ペットが撮像された動画を取得する動画取得部と、
    前記動画取得部が取得した前記動画を構成する複数のフレームから、ペットが撮像されているフレームであるペットフレームを抽出するペットフレーム抽出部と、
    前記ペットフレーム抽出部が抽出した前記ペットフレームのなかから、前記動画取得部が取得した前記動画において連続する前記ペットフレームを判定する連続ペットフレーム判定部と、
    前記連続ペットフレーム判定部が判定した前記ペットフレームが、予め登録されている前記ペットの行動を示すイベントが撮像されている前記フレームであるイベントフレームであるか否かを判定するイベント判定部と、
    前記ペットフレーム抽出部が抽出した前記ペットフレームの数が、前記複数のフレームのうち前記ペットフレームを除くフレームである非ペットフレームの数よりも多い動画である要約動画を、前記連続ペットフレーム判定部が判定した前記ペットフレームであって、前記イベント判定部が前記イベントフレームであると判定した前記ペットフレームから構成されるシーン動画である要約前イベント動画に含まれる連続する前記ペットフレームの数を所定の数以下にした動画に基づいて生成する要約動画生成部と、
    前記要約動画生成部が生成した前記要約動画を出力する要約動画出力部と、
    を備え、
    前記要約動画生成部は、前記要約前イベント動画が所定の時間の長さである第1の時間の長さ以上であると判定する場合、前記要約前イベント動画のいずれかの部分を削除することによって、前記第1の時間の長さ以下に短縮した動画であるイベント動画を前記要約動画として生成し、
    前記要約動画生成部は、前記要約前イベント動画が前記第1の時間の長さ以上であると判定する場合に前記要約前イベント動画のいずれかの部分を削除し前記第1の時間の長さ以下に短縮するかを、学習結果に基づいて選択し、
    前記要約動画生成部は、複数の前記イベント動画をそれぞれ所定の時間の長さである第2の時間の長さ以下に短縮し時系列の順に連結することによって、前記第1の時間の長さ以下の動画であるサマリ動画を前記要約動画として生成する
    ペット動画解析装置。
  2. 前記シーン動画に含まれる連続する前記ペットフレームのなかからサムネイル画像に対応する前記ペットフレームを選択するサムネイル選択部
    をさらに備える請求項1に記載のペット動画解析装置。
  3. 前記シーン動画を記憶部に記憶させる記憶制御部と、
    前記記憶制御部が前記記憶部に記憶させた前記シーン動画を出力するシーン動画出力部と
    をさらに備える請求項1または請求項2に記載のペット動画解析装置。
  4. 前記イベント判定部が前記イベントフレームであると判定した前記ペットフレームと、前記連続ペットフレーム判定部が判定した連続する前記ペットフレームとに基づいて前記イベントの発生回数を数えるイベント計数部をさらに備え、
    要約動画出力部は、前記要約動画生成部が生成した前記要約動画に加えて、前記イベント計数部が計数した前記発生回数をさらに出力する
    請求項1から請求項のいずれか一項に記載のペット動画解析装置。
  5. 前記要約動画生成部は、前記動画取得部が取得した前記動画に複数の種類の前記イベントが含まれる場合、前記イベント判定部が判定した前記イベントフレームに基づいて、前記複数の種類の前記イベントが前記要約動画に含まれるように前記要約動画を生成する
    請求項1から請求項のいずれか一項に記載のペット動画解析装置。
  6. 前記イベント判定部は、前記ペットフレーム抽出部が抽出した前記ペットフレームに撮像されている場所によって前記イベントの種類を判定する
    請求項1から請求項のいずれか一項に記載のペット動画解析装置。
  7. 前記ペットフレーム抽出部が抽出した前記ペットフレームに撮像された前記ペットが特定のペットであるか否かを判定するペット判定部と、
    前記ペット判定部が判定した結果を通知するペット判定結果通知部と
    をさらに備える請求項1から請求項のいずれか一項に記載のペット動画解析装置。
  8. 前記ペット判定部が判定した結果が通知されたことに応じて得られる評価を取得する評価取得部をさらに備え、
    前記ペット判定部は、前記評価取得部が取得した前記評価に基づいて前記動画取得部が取得した前記動画に撮像された前記ペットが特定のペットであるか否かを判定する
    請求項に記載のペット動画解析装置。
  9. 請求項1から請求項のいずれか一項に記載のペット動画解析装置と、
    前記動画を撮像し、前記ペット動画解析装置に供給する撮影装置と、
    前記ペット動画解析装置が出力する前記要約動画を取得する端末装置と
    を備えるペット動画解析システム。
  10. ペットが撮像された動画を取得する動画取得手順と、
    前記動画取得手順において取得された前記動画を構成する複数のフレームから、ペットが撮像されているフレームであるペットフレームを抽出するペットフレーム抽出手順と、
    前記ペットフレーム抽出手順において抽出された前記ペットフレームのなかから、前記動画取得手順において取得された前記動画において連続する前記ペットフレームを判定する連続ペットフレーム判定手順と、
    前記連続ペットフレーム判定手順において判定された前記ペットフレームが、予め登録されている前記ペットの行動を示すイベントが撮像されている前記フレームであるイベントフレームであるか否かを判定するイベント判定手順と、
    前記ペットフレーム抽出手順において抽出された前記ペットフレームの数が、前記複数のフレームのうち前記ペットフレームを除くフレームである非ペットフレームの数よりも多い動画である要約動画を、前記連続ペットフレーム判定手順において判定された前記ペットフレームであって、前記イベント判定手順において前記イベントフレームであると判定された前記ペットフレームから構成されるシーン動画である要約前イベント動画に含まれる連続する前記ペットフレームの数を所定の数以下にした動画に基づいて生成する要約動画生成手順と、
    前記要約動画生成手順において生成された前記要約動画を出力する要約動画出力手順と、
    を有し、
    前記要約動画生成手順において、前記要約前イベント動画が所定の時間の長さである第1の時間の長さ以上であると判定される場合、前記要約前イベント動画のいずれかの部分を削除することによって、前記第1の時間の長さ以下に短縮した動画であるイベント動画が前記要約動画として生成され、
    前記要約動画生成手順において、前記要約前イベント動画が前記第1の時間の長さ以上であると判定される場合に前記要約前イベント動画のいずれかの部分を削除し前記第1の時間の長さ以下に短縮するかを、学習結果に基づいて選択し、
    前記要約動画生成手順において、複数の前記イベント動画をそれぞれ所定の時間の長さである第2の時間の長さ以下に短縮し時系列の順に連結することによって、前記第1の時間の長さ以下の動画であるサマリ動画が前記要約動画として生成される
    ペット動画解析方法。
  11. コンピュータに
    ペットが撮像された動画を取得する動画取得ステップと、
    前記動画取得ステップにおいて取得された前記動画を構成する複数のフレームから、ペットが撮像されているフレームであるペットフレームを抽出するペットフレーム抽出ステップと、
    前記ペットフレーム抽出ステップにおいて抽出された前記ペットフレームのなかから、前記動画取得ステップにおいて取得された前記動画において連続する前記ペットフレームを判定する連続ペットフレーム判定ステップと、
    前記連続ペットフレーム判定ステップにおいて判定された前記ペットフレームが、予め登録されている前記ペットの行動を示すイベントが撮像されている前記フレームであるイベントフレームであるか否かを判定するイベント判定ステップと、
    前記ペットフレーム抽出ステップにおいて抽出された前記ペットフレームの数が、前記複数のフレームのうち前記ペットフレームを除くフレームである非ペットフレームの数よりも多い動画である要約動画を、前記連続ペットフレーム判定ステップにおいて判定された前記ペットフレームであって、前記イベント判定ステップにおいて前記イベントフレームであると判定された前記ペットフレームから構成されるシーン動画である要約前イベント動画に含まれる連続する前記ペットフレームの数を所定の数以下にした動画に基づいて生成する要約動画生成ステップと、
    前記要約動画生成ステップにおいて生成された前記要約動画を出力する要約動画出力ステップと、
    を実行させるためのプログラムであって、
    前記要約動画生成ステップにおいて、前記要約前イベント動画が所定の時間の長さである第1の時間の長さ以上であると判定される場合、前記要約前イベント動画のいずれかの部分を削除することによって、前記第1の時間の長さ以下に短縮した動画であるイベント動画が前記要約動画として生成され、
    前記要約動画生成ステップにおいて、前記要約前イベント動画が前記第1の時間の長さ以上であると判定される場合に前記要約前イベント動画のいずれかの部分を削除し前記第1の時間の長さ以下に短縮するかを、学習結果に基づいて選択し、
    前記要約動画生成ステップにおいて、複数の前記イベント動画をそれぞれ所定の時間の長さである第2の時間の長さ以下に短縮し時系列の順に連結することによって、前記第1の時間の長さ以下の動画であるサマリ動画が前記要約動画として生成される
    プログラム。
JP2018059747A 2018-03-27 2018-03-27 ペット動画解析装置、ペット動画解析システム、ペット動画解析方法、及びプログラム Active JP7154024B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018059747A JP7154024B2 (ja) 2018-03-27 2018-03-27 ペット動画解析装置、ペット動画解析システム、ペット動画解析方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018059747A JP7154024B2 (ja) 2018-03-27 2018-03-27 ペット動画解析装置、ペット動画解析システム、ペット動画解析方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2019170180A JP2019170180A (ja) 2019-10-10
JP7154024B2 true JP7154024B2 (ja) 2022-10-17

Family

ID=68165902

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018059747A Active JP7154024B2 (ja) 2018-03-27 2018-03-27 ペット動画解析装置、ペット動画解析システム、ペット動画解析方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP7154024B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102238322B1 (ko) * 2019-11-22 2021-04-08 주식회사 엘지유플러스 반려 동물 모니터링을 위한 장치 및 방법
JP7345111B2 (ja) 2020-01-14 2023-09-15 パナソニックIpマネジメント株式会社 ダイジェスト映像再生システムおよびダイジェスト映像再生プログラム
JP7069439B1 (ja) 2022-01-26 2022-05-17 株式会社トレッタキャッツ 管理システム、管理装置及び方法
JP7160417B1 (ja) 2022-01-26 2022-10-25 株式会社トレッタキャッツ 管理装置、方法及びプログラム
WO2023187865A1 (ja) * 2022-03-28 2023-10-05 日本電気株式会社 情報処理装置、情報処理方法、及び、記録媒体

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001275509A (ja) 2000-04-04 2001-10-09 Hitachi Building Systems Co Ltd ペット類の遠隔監視制御システム
JP2004158950A (ja) 2002-11-05 2004-06-03 Nippon Telegr & Teleph Corp <Ntt> 記録映像自動生成システム,記録映像自動生成方法,記録映像自動生成プログラムおよび記録映像自動生成プログラムの記録媒体
JP2005277981A (ja) 2004-03-26 2005-10-06 Seiko Epson Corp 画像処理のための対象画像の選択
WO2007043347A1 (ja) 2005-10-13 2007-04-19 Pioneer Corporation 録画データ再生装置およびプログラム
WO2007077694A1 (ja) 2005-12-28 2007-07-12 Atomsystem Co., Ltd. 鼻紋情報生成装置及び鼻紋情報照合装置及び鼻紋情報生成プログラム及び鼻紋情報生成方法
JP2008236729A (ja) 2007-02-19 2008-10-02 Victor Co Of Japan Ltd ダイジェスト生成装置及びダイジェスト生成方法
JP2009182400A (ja) 2008-01-29 2009-08-13 Sony Corp 画像処理装置、画像処理方法、画像処理方法のプログラム及び画像処理方法のプログラムを記録した記録媒体
JP2012160880A (ja) 2011-01-31 2012-08-23 Nagoya Univ ダイジェスト映像生成装置
JP2013126175A (ja) 2011-12-15 2013-06-24 Nikon Corp 画像記録装置、画像生成装置、画像記録装置の制御プログラムおよび画像生成装置の制御プログラム
JP2016197437A (ja) 2016-07-07 2016-11-24 カシオ計算機株式会社 見守り装置、見守り方法、及びプログラム
JP2017035016A (ja) 2015-08-07 2017-02-16 アプリックスIpホールディングス株式会社 ペット用品使用通知システム、ペット用品及びペット用品使用通知方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001275509A (ja) 2000-04-04 2001-10-09 Hitachi Building Systems Co Ltd ペット類の遠隔監視制御システム
JP2004158950A (ja) 2002-11-05 2004-06-03 Nippon Telegr & Teleph Corp <Ntt> 記録映像自動生成システム,記録映像自動生成方法,記録映像自動生成プログラムおよび記録映像自動生成プログラムの記録媒体
JP2005277981A (ja) 2004-03-26 2005-10-06 Seiko Epson Corp 画像処理のための対象画像の選択
WO2007043347A1 (ja) 2005-10-13 2007-04-19 Pioneer Corporation 録画データ再生装置およびプログラム
WO2007077694A1 (ja) 2005-12-28 2007-07-12 Atomsystem Co., Ltd. 鼻紋情報生成装置及び鼻紋情報照合装置及び鼻紋情報生成プログラム及び鼻紋情報生成方法
JP2008236729A (ja) 2007-02-19 2008-10-02 Victor Co Of Japan Ltd ダイジェスト生成装置及びダイジェスト生成方法
JP2009182400A (ja) 2008-01-29 2009-08-13 Sony Corp 画像処理装置、画像処理方法、画像処理方法のプログラム及び画像処理方法のプログラムを記録した記録媒体
JP2012160880A (ja) 2011-01-31 2012-08-23 Nagoya Univ ダイジェスト映像生成装置
JP2013126175A (ja) 2011-12-15 2013-06-24 Nikon Corp 画像記録装置、画像生成装置、画像記録装置の制御プログラムおよび画像生成装置の制御プログラム
JP2017035016A (ja) 2015-08-07 2017-02-16 アプリックスIpホールディングス株式会社 ペット用品使用通知システム、ペット用品及びペット用品使用通知方法
JP2016197437A (ja) 2016-07-07 2016-11-24 カシオ計算機株式会社 見守り装置、見守り方法、及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CHEN, Y.-C. et al.,Locality Constrained Sparse Representation for Cat Recognition,Lecture notes in computer science,2016年,Vol. 9517,pp. 140-151

Also Published As

Publication number Publication date
JP2019170180A (ja) 2019-10-10

Similar Documents

Publication Publication Date Title
JP7154024B2 (ja) ペット動画解析装置、ペット動画解析システム、ペット動画解析方法、及びプログラム
JP5227911B2 (ja) 監視映像検索装置及び監視システム
KR101898575B1 (ko) 진행성 병변에 대한 미래 상태를 예측하는 방법 및 이를 이용한 장치
JP6636792B2 (ja) 刺激提示システム、刺激提示方法、コンピュータ、および制御方法
JP2023036898A (ja) 視聴者エンゲージメントを評価するためのシステムおよび方法
JP7470203B2 (ja) 水産養殖における分析及び選別
JP5424852B2 (ja) 映像情報処理方法及びその装置
US20110169982A1 (en) Image management apparatus, method of controlling the same, and storage medium storing program therefor
JP2000106661A (ja) 画像処理方法及びシステム並びに装置
TWI552591B (zh) 標記視頻中物件的方法、裝置及電腦可讀取記錄媒體
US11481791B2 (en) Method and apparatus for immediate prediction of performance of media content
JP2014511620A (ja) 感情に基づく映像推薦
JP6942764B2 (ja) システム、クライアント端末、その制御方法
CN110163066A (zh) 多媒体数据推荐方法、装置及存储介质
JP2020091702A (ja) 撮像装置および撮像方法
JP2009123196A (ja) 画像検索装置
JP2010211485A (ja) 注視度合測定装置、注視度合測定方法、注視度合測定プログラムおよびそのプログラムを記録した記録媒体
JP2010113691A (ja) 行動分析装置及び行動分析方法並びにプログラム
KR101796871B1 (ko) 영상 및 호흡 음향을 이용하여 수면 무호흡증을 진단하는 장치
US20210192266A1 (en) Systems and methods for performing object detection and motion detection on video information
JP2005056213A5 (ja)
JP6566799B2 (ja) 提供装置、提供方法、及びプログラム
JP6733766B1 (ja) 解析装置、制御方法、及びプログラム
US20220192561A1 (en) Information processing system, information processing method, and information processing apparatus
JP5495998B2 (ja) 画像処理装置及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180507

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221004

R150 Certificate of patent or registration of utility model

Ref document number: 7154024

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150