JP2021135592A - 個体推定装置、個体推定方法、およびプログラム - Google Patents

個体推定装置、個体推定方法、およびプログラム Download PDF

Info

Publication number
JP2021135592A
JP2021135592A JP2020029567A JP2020029567A JP2021135592A JP 2021135592 A JP2021135592 A JP 2021135592A JP 2020029567 A JP2020029567 A JP 2020029567A JP 2020029567 A JP2020029567 A JP 2020029567A JP 2021135592 A JP2021135592 A JP 2021135592A
Authority
JP
Japan
Prior art keywords
image
individual
skeleton
information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020029567A
Other languages
English (en)
Other versions
JP7282704B2 (ja
Inventor
秀安 北山
Hideyasu Kitayama
秀安 北山
真一郎 木崎
Shinichiro Kizaki
真一郎 木崎
裕一 平山
Yuichi Hirayama
裕一 平山
藤江 長森
Fujie Nagamori
藤江 長森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Comware Corp
Original Assignee
NTT Comware Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Comware Corp filed Critical NTT Comware Corp
Priority to JP2020029567A priority Critical patent/JP7282704B2/ja
Publication of JP2021135592A publication Critical patent/JP2021135592A/ja
Application granted granted Critical
Publication of JP7282704B2 publication Critical patent/JP7282704B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】対象者の行動や姿勢にかかわらず個体の推定を高い精度で行うこと。【解決手段】本発明の一態様は、利用者の関節の位置に基づく骨格情報を、利用者ごとに記憶する記憶部と、少なくとも対象者の形が認識可能である画像を取得する画像取得部と、画像取得部により取得された画像に基づいて、対象者の骨格情報を推定する骨格推定部と、骨格推定部により推定された骨格情報と、記憶部に記憶された骨格情報との比較に基づいて、対象者が前記利用者のうち特定の個体であるかを推定する個体推定部と、を備える、個体推定装置である。【選択図】図1

Description

本発明は、個体推定装置、個体推定方法、およびプログラムに関する。
従来、個人を特定する技術としては、RFID(radio frequency identifier)や生体情報(指紋、虹彩、静脈パターンなど)を用いた個人識別技術や、撮像画像を用いた個人推定技術が知られている。撮像画像を用いた個人推定技術としては、例えば、「顔の特徴点」や「表皮下の血管パターン」を撮像した画像を用いる技術がある。
撮像画像を用いた他の個人推定技術としては、例えば、下記の特許文献1が知られている。特許文献1に記載された対象者識別方法は、距離画像センサから得られる対象者の距離画像に基づいて、対象者が特定の個人である可能性を判定する。具体的に、対象者識別方法は、対象者の距離情報を画素値とする第1距離画像から得られる対象者の身体部位の位置データに基づいて、対象者の第1身体特徴量に対応する第1距離と、対象者の別の第2身体特徴量に対応する第2距離とを算出し、第1距離及び第2距離の比と、特定の個人の体格に関する体格情報を記憶する記憶部から取得する体格情報とに基づいて、対象者が特定の個人である可能性を判定する。
撮像画像を用いた他の個人推定技術としては、下記の非特許文献1に記載された技術が知られている。非特許文献1に記載された技術は、単眼カメラからの骨格情報を用いて個人を識別する手法が記載されている。具体的に、非特許文献1は、単眼カメラにより撮像した画像から人物の特徴として肩、肘、膝等の画像内位置と認識の確信度を抽出し、抽出した特徴および認識の確信度をCNN(Convolutional Neural Network)に入力することで個人を推定している。
特開2018−089161号公報
戸田 哲郎、Alessandro Moro、梅田 和昇「単眼カメラから得られる骨格情報を用いた人物識別−CNNとSVMの比較−」、2018年精密工学会春季大会学術講演会講演論文集、267-268頁
しかしながら、RFIDや生体情報を用いるためには、対象者に意図的な動作を強いる必要があり、対象者の負担が大きいという問題があった。また、「顔の特徴点」や「表皮下の血管パターン」の撮像画像を用いる場合、画像に顔が含まれていない場合や後ろ姿しか撮像できない場合には個人の推定をすることができない。また、対象者の顔画像を取得することができる状況であることが必要であるため、用途が限定される問題があった。
また、特許文献1や非特許文献1のようにRGB−Dカメラ等の距離画像カメラや、単眼RGBカメラを用いた場合、夜間等の暗所では利用することができないため、用途が限定される問題があった。また、距離画像カメラや単眼RGBカメラを用いた場合、対象者の明瞭な画像が保存されるため、プライバシの観点から居住環境等へ導入することに対して敬遠される場合がある。
さらに、撮像画像を用いた個人推定技術において、対象者の行動を撮像した複数の画像を用いて姿勢を推定する技術がある。しかし、対象者が歩く等の行動をしている必要があるため、対象者が座っている状況や寝ている状況では利用できず、用途が限定される問題があった。
本発明は、上記の課題に鑑みてなされたものであって、対象者の行動や姿勢にかかわらず個体の推定を高い精度で行うことができる個体推定装置、個体推定方法、およびプログラムを提供することを目的としている。
(1)本発明の一態様は、利用者の関節の位置に基づく骨格情報を、利用者ごとに記憶する記憶部と、少なくとも対象者の形が認識可能である画像を取得する画像取得部と、前記画像取得部により取得された画像に基づいて、前記対象者の骨格情報を推定する骨格推定部と、前記骨格推定部により推定された骨格情報と、前記記憶部に記憶された骨格情報との比較に基づいて、前記対象者が前記利用者のうち特定の個体であるかを推定する個体推定部と、を備える、個体推定装置である。
(2)本発明の一態様は、上記の個体推定装置であって、前記骨格推定部は、認識モデルを用いて骨格情報の推定を行い、前記認識モデルは、前記ヒトを含む学習画像が入力された場合に前記ヒトの関節の位置および当該関節に対応するタグ情報を出力するように処理パラメータが学習されてよい。
(3)本発明の一態様は、上記の個体推定装置であって、前記画像取得部により取得された画像から人に対応する領域を明確化する画像処理部を備え、前記骨格推定部は、前記画像処理部により処理された画像に基づいて前記対象者の骨格情報を推定してよい。
(4)本発明の一態様は、上記の個体推定装置であって、前記画像取得部により取得された画像から、人を除く画像を除去する画像処理部を備え、前記骨格推定部は、前記画像処理部により処理された画像に基づいて前記対象者の姿勢を推定してよい。
(5)本発明の一態様は、上記の個体推定装置であって、前記画像取得部により取得された画像を回転させる画像処理部を備え、前記骨格推定部は、前記画像処理部により処理された画像に基づいて前記対象者の骨格情報を推定してよい。
(6)本発明の一態様は、上記の個体推定装置であって、前記個体推定部は、特定の個体を推定した時刻から所定の期間、当該推定された特定の個体に対応した利用者を推定しやすくするパラメータを設定し、前記パラメータを用いて利用者を推定してよい。
(7)本発明の一態様は、上記の個体推定装置であって、前記個体推定部は、前記骨格推定部により推定された骨格情報のうち、前記画像の撮像方向に依存しにくい傾向を持つ一部の骨格情報を用いて個体を推定してよい。
(8)本発明の一態様は、前記骨格推定部により推定された骨格情報に基づいて前記対象者の姿勢を推定する姿勢推定部を備え、前記個体推定部は、前記姿勢推定部により推定された姿勢と、前記骨格推定部により推定された骨格情報と、前記記憶部に記憶された骨格情報との比較に基づいて、前記対象者が前記利用者のうち特定の個体であるかを推定してよい。
(9)本発明の一態様は、上記の個体推定装置であって、前記記憶部は、前記利用者の存在する場所と前記利用者の姿勢との対応関係を、前記利用者ごとに記憶し、前記個体推定部は、前記記憶部に記憶された対応関係と、前記画像取得部により取得した画像に含まれる対象者の存在する場所と前記姿勢推定部により推定された対象者の姿勢との対応関係と、の比較に基づいて、個体を推定してよい。
(10)本発明の一態様は、利用者の関節の位置に基づく骨格情報を、利用者ごとに記憶するステップと、少なくとも対象者の形が認識可能である画像を取得するステップと、前記画像に基づいて、対象者の骨格情報を推定するステップと、推定された骨格情報と、記憶された骨格情報との比較に基づいて、前記対象者が前記利用者のうち特定の個体であるかを推定するステップと、を含む、個体推定方法である。
(11)本発明の一態様は、情報処理装置のコンピュータに、利用者の関節の位置に基づく骨格情報を、利用者ごとに記憶するステップと、少なくとも対象者の形が認識可能である画像を取得するステップと、前記画像に基づいて、対象者の骨格情報を推定するステップと、推定された骨格情報と、記憶された骨格情報との比較に基づいて、前記対象者が前記利用者のうち特定の個体であるかを推定するステップと、を実行させるプログラムである。
本発明の一態様によれば、対象者の行動や姿勢にかかわらず個体の推定を高い精度で行うことができる。
実施形態の個体推定システムの構成例を示すブロック図である。 実施形態の個体推定システムにおける学習処理を実現するための構成例を示すブロック図である。 実施形態の個体推定システムにおける骨格推定部において学習および認識される関節等、および関節等に対応したタグ情報の一例を示す図である。 実施形態の個体推定システムにおける全体処理の一例を示すフローチャートである。 サーモグラフィ画像に対する骨格情報を説明する図であり、(A)はサーモグラフィ画像を示す図であり、(B)はサーモグラフィ画像から推定された骨格情報を含む図であり、(C)は、骨格情報の特徴ベクトルを示す図であり、(D)は(C)と異なる姿勢(体位)である時の骨格情報の特徴ベクトルを示す図である。 サーモグラフィ画像を正規化して骨格情報を推定する処理を説明する図であり、(A)はRGB画像、(B)はサーモグラフィ画像、(C)は正規化されたサーモグラフィ画像を示す。 サーモグラフィ画像から人を除く画像を除去して骨格情報を推定する処理を説明する図であり、(A)はサーモグラフィ画像、(B)はサーモグラフィ画像から推定した骨格情報を含む画像、(C)は人を除く画像が除去されたサーモグラフィ画像、(D)は人を除く画像が除去されたサーモグラフィ画像から推定した骨格情報を含む画像を示す。 サーモグラフィ画像を回転して骨格情報を推定する処理を説明する図であり、(A)はRGB画像、(B)はサーモグラフィ画像、(C)はサーモグラフィ画像から推定した骨格情報を含む画像、(D)は回転後のサーモグラフィ画像、(E)は回転後のサーモグラフィ画像から推定した骨格情報を含む画像を示す。 実施形態の個体推定システムの第1変形例を示す図である。 実施形態の個体推定システムの第2変形例を示す図である。 実施形態の個体推定システムにおける個体推定装置の変形例を示す図である。
以下、本発明を適用した個体推定装置、個体推定方法、およびプログラムを、図面を参照して説明する。
<実施形態の概要>
実施形態の個体推定システム1は、例えば住宅の居住者の特徴を利用者の特徴として登録し、当該利用者のうち特定の個体を推定する処理を行う。なお、以下の説明において、個体を推定する対象となる者を「対象者」と記載し、住宅の居住者等の予め登録しておく者を「利用者」と記載する。
個体推定システム1は、個体を推定するために、撮像した画像を用いた関節等の位置を含む骨格情報の推定を行い、推定した骨格情報に基づいて個体を推定する。本実施形態において、個体とは、他の物とその存在を区別して認識されるものであって、ヒトの個体を指すものとする。骨格情報の推定処理は、個体としてのヒトのキーポイントとして、関節等の位置を推定する処理である。本実施形態において、キーポイントは関節の位置であるが、これに限定されず、ヒトの骨格情報を推定することができる位置であれば、首の始点、目、鼻、耳の位置であってよい。個体の推定処理は、対象者が、利用者のうちどの利用者であるかを特定する処理である。
個体推定システム1は、個体を推定した結果に基づいて、例えば、個体に関する情報を提供したり、住宅内の各種機器を制御したりすることができる。個体推定システム1は、例えば、住宅内での利用者の異常状態を緊急に外部に通知するような緊急性検知サービスや、住宅内での利用者の異変の予兆を発見して外部に通知するような予兆発見サービスに利用することができる。
<個体推定システム1の構成>
図1は、実施形態の個体推定システム1の構成例を示すブロック図である。個体推定システム1は、例えば、個体推定装置100と、複数の赤外線カメラ200A、200Bおよび200Cとを備える。赤外線カメラ200A、200Bおよび200Cのそれぞれは、例えば、住宅内における部屋(区画)A、B、およびCに対応して設けられ、各部屋にいる対象者を撮像する。なお、赤外線カメラを総称する場合には単に「赤外線カメラ200」と記載する。なお、実施形態においては、各部屋に一つの赤外線カメラ200を記載したが、これに限定されず、各部屋に複数個の赤外線カメラ200を配置してよい。
実施形態において、赤外線カメラ200は、サーモグラフィ画像を撮像するが、これに限定されず、少なくとも対象者の形を含む画像を取得することができるものであればよい。例えば、個体推定システム1は、赤外線カメラ200に代えて、ミリ波センサやToFセンサ等の非可視光を発してヒトから反射した波に基づいて画像を取得するセンサや、ヒトから発する波を捕らえて画像を取得するセンサを備えればよい。また、個体推定システム1は、利用者の明瞭な画像が保存されないことを考慮し、RGB画像の輪郭(エッジ、境界線)をぼかした画像や、複数の画素で平均した画素値を、当該複数の画素の画素値に変換した画像を取得してもよい。
個体推定装置100および赤外線カメラ200は、例えば、住宅内の通信ネットワークに接続される。個体推定装置100及び赤外線カメラ200は、NIC(Network Interface Card)をはじめとする有線通信モジュールや無線通信モジュールなどの通信インターフェースを備えている(図1では不図示)。通信ネットワークは、例えば、Wifi(登録商標)であるが、これに限らず、インターネット、WAN(Wide Area Network)、LAN(Local Area Network)、セルラー網、USB、Bluetooth(登録商標)などを含んでよい。赤外線カメラ200により撮像された画像を示す信号は、個体推定装置100に送信される。なお、個体推定システム1において、住宅内の通信ネットワークには、個体を推定した結果に基づく情報を表示する表示装置や、個体を推定した結果に基づいて制御される制御対象装置が接続されていてよい。制御対象装置は、例えば、特定の個体が近づいた場合に点灯する照明装置や、開く動作をするドア装置などである。
個体推定装置100は、例えば、画像取得部110、画像処理部120、骨格推定部130、学習結果データ記憶部132、姿勢推定部140、個体推定部150、利用者データ記憶部152、および情報処理部160を備える情報処理装置である。画像取得部110、画像処理部120、骨格推定部130、姿勢推定部140、および個体推定部150といった機能部は、例えばCPU(Central Processing Unit)等のプロセッサがプログラムメモリに格納されたプログラムを実行することにより実現してよい。また、これらの機能部のうち一部または全部は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、またはFPGA(Field-Programmable Gate Array)等のハードウェアにより実現されてもよいし、ソフトウェアとハードウェアが協働することで実現してよい。学習結果データ記憶部132および利用者データ記憶部152は、例えば、HDD(Hard Disc Drive)、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、ROM(Read Only Memory)、またはRAM(Random Access Memory)等により実現してよい。
画像取得部110は、例えば赤外線カメラ200から出力された信号を入力し、ディジタル信号のサーモグラフィ画像に変換する通信インターフェース回路である。画像処理部120は、画像取得部110により取得されたサーモグラフィ画像に対して所定の画像処理を施す。
骨格推定部130は、サーモグラフィ画像を用いて対象者の骨格情報を推定する。骨格推定部130は、例えば、対象者の骨格情報を推定する処理として、サーモグラフィ画像に含まれる対象者の関節等の特徴の位置を推定する処理を行う。なお、骨格推定部130の詳細については後述する。なお、骨格推定部130は、関節等の特徴として関節を含む特徴を推定するが、関節に限らず、ヒトの関節以外の特徴を推定してもよい。
姿勢推定部140は、骨格推定部130により推定された対象者の骨格情報から姿勢を推定する。なお、姿勢推定部140は、姿勢の推定結果を、特徴ベクトルで表現してよい。特徴ベクトルは、例えば、始点に相当する特定の関節(タグ情報)と、終点に相当する特定の関節(タグ情報)と、始点から終点までの距離により特定される情報である。なお、特徴ベクトルの方向は、始点と終点のうち頭部に近い側の一方の点から他方の点に向かう方向であってよい。
個体推定部150は、骨格推定部130により算出された骨格情報と、利用者データ記憶部152に記憶された骨格情報との比較に基づいて、利用者のうち特定の個体を推定する。利用者データ記憶部152には、利用者データが記憶される。利用者データは、例えば、利用者の識別情報と、利用者の骨格情報とが対応付けられたデータベースである。利用者は、例えば、住居者である成人男性、成人女性、10代以上の子供、10歳未満の子供などである。利用者の骨格情報は、例えば、赤外線カメラ200によって利用者を撮像した画像を用いて、画像処理部120により画像処理を行い、画像処理が行われた画像を用いて骨格推定部130により推定された骨格情報である。
情報処理部160は、個体推定部150により推定された個体に応じて所定の処理を行う。情報処理部160は、所定の処理として、例えば、推定された個体に関する情報を表示する処理や、制御対象機器を制御する処理や、個体の存在する場所や姿勢や時刻を保存する処理や外部サーバに送信する処理などを行う。
図2は、学習処理を実現するための構成例を示すブロック図である。個体推定システム1は、例えば、学習画像データベース134と、学習処理部136とを備える。なお、学習画像データベース134および学習処理部136は、個体推定装置100に含まれてよいが、これに限定されず、個体推定装置100に学習画像データベース134および学習処理部136を備えず、学習処理部136の処理結果を入力して学習結果データ記憶部132に記憶すればよい。
学習画像データベース134は、学習画像および学習骨格情報を記憶するデータベースである。学習画像は、骨格推定部130における認識エンジンを学習させるための画像であって、例えばヒトが明瞭に撮像された画像である。すなわち、学習画像は、例えばRGB画像のように、赤外線カメラ200によって撮像された画像よりもヒトの輪郭が明確な画像である。学習画像データベース134には、例えば、学習画像に対応付けて、学習画像内のヒトの輪郭を示す輪郭情報と、学習画像内の関節等に相当する位置を示す座標情報と、各関節等に対応したタグ情報とが記憶される。なお、学習画像データベース134には、RGB画像に限らず、サーモグラフィ画像や、ミリ波画像などの各種の画像が記憶されてよい。また、学習画像データベース134には、学習画像として、ヒトが含まれる正例画像のみならず、ヒトとは異なる動物(猫など)を撮像した負例画像や、動物が含まれていない負例画像が記憶されてよい。学習骨格情報は、姿勢推定部140および/または個体推定部150における認識エンジンを学習させるための骨格情報であって、例えば、ヒトの画像から骨格推定部130によって推定した骨格情報と利用者とを対応付ける情報の組、または骨格情報と姿勢とを対応付けた組である。
図3は、実施形態の個体推定システムにおける骨格推定部130において学習および認識される関節等、および関節等に対応したタグ情報の一例を示す図である。ヒトの関節等のうち学習および認識される関節等には、タグ情報として、ユニークな識別子が付与される。個体推定装置100は、学習画像に対して管理者の操作または自動認識により学習画像内の関節等の位置に対応して、当該関節等に対応するタグ情報を付与してよい。また、個体推定装置100は、サーモグラフィ画像を認識した結果として、サーモグラフィ画像内の関節等の位置および当該関節等に対応するタグ情報を付与してよい。個体推定装置100は、推定した関節等ごとに確信度を計算してよい。
学習処理部136には、学習画像データベース134から学習画像または学習骨格情報が供給される。学習処理部136は、学習画像または学習骨格情報を用いて認識処理を行い、判定結果を得る。学習処理部136は、正例画像を入力した場合に、当該正例画像内の関節等に相当する位置を示す座標情報と、各関節等に対応したタグ情報を出力するように認識モデル132Aの処理パラメータを学習し、学習結果データを生成する。学習処理部136は、負例画像を入力した場合に、ヒトが存在しないという判定結果となるように認識モデル132Aの処理パラメータを学習し、学習結果データを生成する。認識モデル132Aの処理パラメータとは、例えば、ニューラルネットワークに含まれるフィルタ(重み、バイアスともいう)である。学習結果データは、学習結果データ記憶部132に記憶される。学習処理部136は、正例骨格情報を入力した場合に、当該正例骨格情報に関連付けられた利用者を出力するように認識モデル132Aの処理パラメータを学習し、学習結果データを生成する。学習処理部136は、負例骨格情報を入力した場合に、関連付けられた利用者が存在しないという判定結果となるように認識モデル132Aの処理パラメータを学習し、学習結果データを生成する。認識モデル132Aの処理パラメータとは、例えば、ニューラルネットワークに含まれるフィルタである。学習結果データは、学習結果データ記憶部132に記憶される。
骨格推定部130は、サーモグラフィ画像を入力とし、関節等の位置を示す情報を認識結果として出力するように学習された認識モデル132Aによって実現される認識エンジンである。骨格推定部130は、処理対象のサーモグラフィ画像を認識エンジンに入力し、当該認識エンジンから出力された認識結果を取得する。認識結果は、例えば、関節等の位置、および当該関節等に対応したタグ情報を含む。骨格推定部130は、認識結果を、対象者の関節等の位置を推定した結果として取得することができる。
なお、個体推定装置100は、個体推定部150を、例えばCNNなどの認識エンジンで構成してもよい。個体推定装置100は、特定の利用者について、骨格推定部130により推定した骨格情報の特徴ベクトル(x1,y1,x2,y2、・・・)の直積を認識エンジンへの入力とし、認識エンジンの出力を当該特定の個体の推定結果とするように認識エンジンの処理パラメータを学習させる。
なお、個体推定装置100は、個体推定部150を、例えばSVM(Support Vector Machin)などの認識エンジンで構成してもよい。個体推定装置100は、特定の利用者について、骨格推定部130により推定した骨格情報の特徴ベクトル(x1,y1,x2,y2,・・・)を認識エンジンへの入力とし、認識エンジンの出力を当該特定の個体の推定結果とするように認識エンジンの処理パラメータを学習させる。
さらに、個体推定装置100は、姿勢推定部140を、例えばCNNなどの認識エンジンで構成してもよい。個体推定装置100は、特定の姿勢について骨格推定部130により推定された骨格情報を入力したことに対し、当該特定の姿勢を出力するように認識エンジンの処理パラメータを学習させる。
図4は、実施形態の個体推定システム1における全体処理の一例を示すフローチャートである。個体推定システム1は、赤外線カメラ200から信号を個体推定装置100により受信し、サーモグラフィ画像を取得する(ステップS100)。個体推定装置100は、サーモグラフィ画像に基づいて対象者の骨格情報を取得する(ステップS102)。次に、利用者データ記憶部152から利用者の骨格情報を取得する(ステップS106)。次に個体推定装置100は、ステップS102において取得した対象者の骨格情報と、ステップS106において取得した利用者の骨格情報とを比較し、利用者ごとに骨格情報の整合性を計算する(ステップS108)。個体推定装置100は、例えば、利用者の骨格情報が対象者の骨格情報と類似するほど、当該利用者の骨格情報の整合性を高くする。具体的に、個体推定装置100は、利用者A、B、およびCが登録されている場合、利用者Aの整合性を80%、利用者Bの整合性を50%、利用者Cの整合性を10%などといったように計算を行う。次に個体推定装置100は、骨格情報の整合性の計算結果を出力する(ステップS110)。
個体推定部150は、特定の個体を推定した時刻から所定の期間(例えば数10分)、当該推定された個体に対応した利用者を推定しやすくするパラメータを設定し、パラメータを用いて利用者を推定してよい。例えば、個体推定部150は、成人男性、成人女性、10代以上の子供、10歳未満の子供のうち、成人男性の存在を推定した場合、整合性を計算する際のパラメータを、他の利用者のパラメータよりも整合性が高く計算されるように変更する。これにより、個体推定部150は、成人男性の整合性を他の利用者の整合性よりも高くすることができ、この結果、他の利用者よりも成人男性であると推定しやすくすることができる。また、個体推定部150は、成人男性であることを推定した後、成人男性の姿勢の変化によって成人男性以外であると判定することを抑制することができる。この結果、個体推定部150は、個体推定結果を安定させることができる。
個体推定部150は、利用者が存在する場所に基づいて個体を推定してよい。利用者データ記憶部152は、利用者の存在する場所と利用者の姿勢との対応関係を、利用者ごとに記憶する。利用者データ記憶部152は、例えば、居間における成人男性の座る場所と当該成人男性の座る姿勢との対応関係や、個室における成人女性が寝る場所と当該成人女性の寝る姿勢との対応関係などを記憶する。利用者の姿勢は、例えば、成人男性が座った状態における特徴ベクトルを示す情報である。個体推定部150は、利用者データ記憶部152に記憶された対応関係と、サーモグラフィ画像に含まれる対象者の存在する場所と対象者の姿勢との対応関係と、の比較に基づいて、個体を推定する。個体推定部150は、例えば、居間と成人男性の特徴ベクトルとの対応関係が記憶されている場合、居間に設置された赤外線カメラ200からの信号に基づいて取得したサーモグラフィ画像に基づいて、成人男性の特徴ベクトルに類似する対象者の特徴ベクトルが推定された場合、当該成人男性について高い整合性を取得することができる。
個体推定部150は、時間帯と、利用者が存在する場所に基づいて個体を推定してよい。利用者データ記憶部152は、例えば、時間帯と、利用者の存在する場所との対応関係を、利用者ごとに記憶する。利用者データ記憶部152は、例えば、成人女性について夕方という時間帯とキッチンとの対応関係などを記憶する。個体推定部150は、例えば、夕方にキッチンで対象者が検出された場合、成人女性についてのパラメータを、他の利用者のパラメータよりも高く変更する。これにより、個体推定部150は、成人女性の整合性を他の利用者の整合性よりも高くすることができ、他の利用者よりも成人女性であると推定しやすくすることができる。
個体推定部150は、骨格推定部130により推定された骨格情報のうち、サーモグラフィ画像の撮像方向に依存しにくい傾向を持つ一部の骨格情報を用いて個体を推定してよい。サーモグラフィ画像の撮像方向に依存しにくい傾向を持つ一部の骨格情報は、例えば利用者を多方向から撮像した複数の画像において、最も差が小さい骨格情報であってよい。
例えば、利用者の身長は、赤外線カメラ200から近い場所に利用者がいる場合と赤外線カメラ200から遠い場所に利用者がいる場合とで大差なく推定することができる。個体推定部150は、例えば、利用者の身長に相当する特徴ベクトルの組み合わせに基づいて、個体を推定する。利用者の身長に相当する特徴ベクトルの組み合わせは、例えば、図3における0および1のタグ情報を持つ特徴ベクトルと、1および8のタグ情報を持つ特徴ベクトルと、9および10のタグ情報を持つ特徴ベクトルと、10および11のタグ情報を持つ特徴ベクトルと、の組み合わせである。
個体推定部150は、複数の赤外線カメラ200により検出された信号に基づいて骨格情報を補正してよい。個体推定部150は、例えば、複数の赤外線カメラ200の設置位置の情報から利用者までの距離を算出することにより赤外線カメラ200から利用者までの距離を検出し、検出した距離に基づいて骨格情報を補正してよい。これにより、個体推定部150は、補正した骨格情報と記憶された骨格情報との比較に基づいて、高い精度で個体を推定することができる。
図5は、サーモグラフィ画像に対する骨格情報を説明する図であり、(A)はサーモグラフィ画像を示す図であり、(B)はサーモグラフィ画像から推定された骨格情報を含む図であり、(C)は、骨格情報の特徴ベクトルを示す図であり、(D)は(C)と異なる姿勢(体位)である時の骨格情報の特徴ベクトルを示す図である。
個体推定装置100は、図5(A)に示すように、赤外線カメラ200から入力した信号に基づくサーモグラフィ画像300を取得する。なお、図5(A)は、サーモグラフィ画像から関節等の位置を取得しやすいように所定の画像処理を施した画像であってよい。個体推定装置100は、所定の画像処理を施したサーモグラフィ画像300を認識エンジンに入力し、当該認識エンジンからの出力によって、サーモグラフィ画像300内における関節等の位置、当該関節等のタグ情報を取得し、骨格情報として、特徴ベクトルを取得する。特徴ベクトルは、図5(B)に示すように、321,322,323,324,325のような特定の2つの関節等をつなぐ方向と距離を持つベクトルの集合であってよい。また、特徴ベクトルは、図5(C)に示すように、関節等の座標(x1、y1)〜(x6、y6)の集合であってよい。個体推定装置100は、サーモグラフィ画像に基づく特徴ベクトルと、利用者データ記憶部152に記憶された特徴ベクトルとの比較に基づいて、例えば図5(D)に示すように利用者の体位が変更した場合であっても、高い精度で個体を推定することができる。
図6は、サーモグラフィ画像を正規化して骨格情報を推定する処理を説明する図であり、(A)はRGB画像、(B)はサーモグラフィ画像、(C)は正規化されたサーモグラフィ画像を示す。例えば図6(A)に示すようなRGB画像が撮像される状況において、赤外線カメラ200が、図6(B)のようなサーモグラフィ画像300を撮像したものとする。画像処理部120は、サーモグラフィ画像300に対して正規化処理を行うことで、サーモグラフィ画像300を図6(C)に示すようなサーモグラフィ画像300Aに変換する。画像処理部120は、例えば、サーモグラフィ画像300の画素のうちヒトの体温を基準値(例えば10℃〜40℃)とした最大および最小の画素値を決定し、最大の画素値以上の画素値を「1」に変換し、最小の画素値以下の画素値を「0」に変換する最小−最大正規化を行う。これにより、個体推定装置100は、サーモグラフィ画像300のように、ヒトの輪郭を明瞭に撮像できない画像であっても、高い精度で関節等の座標を推定することができる。
図7は、サーモグラフィ画像から人を除く画像を除去して骨格情報を推定する処理を説明する図であり、(A)はサーモグラフィ画像300、(B)はサーモグラフィ画像300から推定した骨格情報を含む画像、(C)は人を除く画像が除去されたサーモグラフィ画像300B、(D)は人を除く画像が除去されたサーモグラフィ画像300Bから推定した骨格情報を含む画像を示す。例えば図7(A)に示すようなサーモグラフィ画像を撮像し、当該サーモグラフィ画像を用いて骨格の推定を行った場合、図7(B)に示すような骨格情報が推定される。これに対し、画像処理部120は、図7(A)に示すサーモグラフィ画像300からヒトの背景を除去したサーモグラフィ画像300Bを用いて骨格の推定を行った場合、図7(D)に示すような骨格情報が推定される。この結果、個体推定装置100は、サーモグラフィ画像300からヒトの背景を除去する処理を実行することにより、ヒトの背景を除去しないサーモグラフィ画像を用いるよりもより多くの骨格を推定することができる。この結果、個体推定装置100は、さらに高い精度で個体を推定することができる。
なお、画像処理部120は、サーモグラフィ画像からヒトの背景を除去する以外に、他の要素をサーモグラフィ画像から除去または抽出してよい。例えば、複数の対象者がサーモグラフィ画像に含まれる場合、画像処理部120は、複数の対象者の背景を除去し、各対象者の形をサーモグラフィ画像から抽出してよく、特定の対象者(最も大きい対象者)のみを抽出してよい。なお、対象者がサーモグラフィ画像に含まれるかどうかの判定は、例えばCNNなどの認識エンジンで構成してもよい。
図8は、サーモグラフィ画像を回転して骨格情報を推定する処理を説明する図であり、(A)はRGB画像、(B)はサーモグラフィ画像300、(C)はサーモグラフィ画像300から推定した骨格を含む画像、(D)は回転後のサーモグラフィ画像300C、(E)は回転後のサーモグラフィ画像300Cから推定した骨格を含む画像を示す。例えば図8(A)に示すようなRGB画像が撮像される状況において、赤外線カメラ200が、図8(B)のようなサーモグラフィ画像300を撮像したものとする。個体推定装置100は、サーモグラフィ画像300を回転させず、サーモグラフィ画像300を骨格推定部130の認識エンジンに入力して骨格を推定した場合、図8(C)に示すような結果を得る。図8(C)に示した結果は、数個程度のタグ情報に対応した関節等しか取得されていないことが分かる。これに対し、画像処理部120は、図8(D)に示すようなサーモグラフィ画像300を回転させたサーモグラフィ画像300Cを骨格推定部130の認識エンジンに入力して骨格を推定した場合、図8(E)に示すような結果を得る。図8(E)に示した結果は、図8(C)に示した関節等よりも多くの関節等が取得されていることが分かる。
以上のように、個体推定装置100は、個体推定の精度を向上させるために、認識エンジンにより推定される関節等が多くなるようにサーモグラフィ画像を回転させることが望ましい。個体推定装置100は、例えば、認識エンジンの学習画像が立っているヒトを含む縦方向に長い画像が多い場合、赤外線カメラ200により撮像されたサーモグラフィ画像の頭部位置を縦方向に長い画像における上方に位置するようにサーモグラフィ画像を回転させることが望ましい。すなわち、個体推定装置100は、学習画像におけるヒトの関節等の配置とサーモグラフィ画像内のヒトの関節等の配置とが近づくように、サーモグラフィ画像を回転させることにより、個体推定の精度を向上させることができる。
なお、画像処理部120は、骨格推定部130の骨格推定に利用する認識エンジンの学習対象の姿勢と乖離がある場合に、サーモグラフィ画像を回転させてよい。これにより、画像処理部120は、回転後のサーモグラフィ画像を用いて関節の位置を推定することができる。
さらに、画像処理部120は、赤外線カメラ200が対象者を正面から撮像したように補正してよい。赤外線カメラ200は、例えば、部屋の天井に設置され、部屋の中心位置に向けた撮像角度が設定されている場合がある。この場合、赤外線カメラ200により撮像されたサーモグラフィ画像は、対象者を頭上から見下ろした角度で撮像されている。これに対し、画像処理部120は、赤外線カメラ200により撮像されたサーモグラフィ画像を、対象者を正面から見たサーモグラフィ画像に変換する。画像処理部120は、例えば、赤外線カメラ200の見下ろし角度に基づいて、二次元射影変換を行う。これにより、個体推定装置100は、ヒトを正面から撮像した学習画像が多くても、サーモグラフィ画像を当該学習画像に近づけることができる。この結果、個体推定装置100は、認識エンジンにより推定される関節等を多くすることができ、この結果、個体推定の精度を向上させることができる。さらに、個体推定装置100は、利用者データ記憶部152に記憶された利用者の骨格情報が利用者を正面から撮像した画像に基づく情報である場合、個体推定の精度をさらに高くすることができる。
<実施形態の効果>
以上に説明したように、実施形態の個体推定システム1によれば、利用者の関節の位置に基づく骨格情報を、利用者ごとに記憶する利用者データ記憶部152と、少なくとも対象者の形が認識可能である画像を取得する画像取得部110と、画像取得部110により取得された画像に基づいて、対象者の骨格情報を推定する骨格推定部130と、骨格推定部130により推定された骨格情報と、利用者データ記憶部152に記憶された骨格情報との比較に基づいて、対象者が利用者のうち特定の個体であるかを推定する個体推定部150と、を備える、個体推定装置100を実現することができる。
または、実施形態の個体推定システム1によれば、利用者の関節の位置に基づく骨格情報を、利用者ごとに記憶する利用者データ記憶部152と、少なくとも対象者の形が認識可能である画像を取得する画像取得部110と、画像取得部110により取得された画像に基づいて、対象者の骨格情報を推定する骨格推定部130と、骨格情報部130により推定された骨格情報に基づいて、対象者の姿勢を推定する姿勢推定部と、骨格推定部130により推定された骨格情報と、利用者データ記憶部152に記憶された骨格情報との比較に基づいて、対象者が利用者のうち特定の個体であるかを推定する個体推定部150と、を備える、個体推定装置100を実現することができる。
個体推定システム1によれば、対象者の関節等の位置に基づく骨格情報を用いて個体を推定するので、対象者の行動や姿勢にかかわらず個体の推定を高い精度で行うことができる。
実施形態の個体推定システム1によれば、ヒトを含む学習画像が入力された場合にヒトの関節等の位置および当該関節等に対応するタグ情報を出力するように処理パラメータが学習された認識モデルを用いて骨格情報の推定を行う。この個体推定システム1によれば、認識モデルの精度を高くすることによって、対象者の行動や姿勢にかかわらず個体の推定を高い精度で行うことができる。また、個体推定システム1によれば、サーモグラフィ画像のような低解像度の画像を認識するために、RGB画像のような高解像度の画像を学習画像として用いて認識エンジンの学習を行う。これにより、個体推定システム1によれば、学習時に正確な関節等の位置を指定して学習させることにより、サーモグラフィ画像から推定する関節等の位置の精度をさらに高くすることができる。
実施形態の個体推定システム1によれば、画像取得部110により取得された画像から人に対応する領域を明確化する画像処理部120を備えてよい。これにより、個体推定システム1によれば、サーモグラフィ画像のような低解像度の画像を用いても、対象者の行動や姿勢にかかわらず個体の推定を高い精度で行うことができる。
実施形態の個体推定システム1によれば、画像取得部110により取得された画像から、人を除く画像を除去する画像処理部120を備えてよい。これにより、個体推定システム1によれば、ヒトの背景といったノイズを除去することで、対象者の行動や姿勢にかかわらず個体の推定を高い精度で行うことができる。
実施形態の個体推定システム1によれば、画像取得部110により取得された画像を回転させる画像処理部120を備えてよい。これにより、個体推定システム1は、例えば骨格推定部130により推定された関節等の数が所定値よりも少ない場合や、個体推定部150により推定された利用者の整合性の値が低く特定の個体を特定できない場合に、サーモグラフィを回転させることで、推定される関節等の数や、利用者の整合性の値を高くすることができる。この結果、個体推定システム1によれば、対象者の行動や姿勢にかかわらず個体の推定を高い精度で行うことができる。さらに、個体推定システム1によれば、学習画像においてヒトが含まれているレイアウトに合わせてサーモグラフィ画像を回転させることができ、これによって、対象者の行動や姿勢にかかわらず個体の推定を高い精度で行うことができる。
個体推定システム1によれば、通常のRGBカメラでは撮像することができない、夜間の部屋で撮像したサーモグラフィ画像を用いて個体を推定することができる。個体推定システム1によれば、例えば、夜間にトイレなどに行く場合に、個体の推定結果に基づいて寝室からトイレまでの照明をオンオフさせることやドアを開閉させることができ、夜間における転倒などを防止することができる。
個体推定システム1は、サーモグラフィ画像を用いているので、写真や映像、人形や絵などのヒト以外の物体の影響を受けずに個体を推定することができる。
個体推定システム1によれば、例えば住宅内でリハビリ等の運動を行う場合に、骨格情報に基づいて運動のデータを収集することができ、運動のデータに基づいてリハビリ等のプランを検討したり、モチベーション向上のための提案を行ったりすることができる。
実施形態の個体推定システム1によれば、特定の個体を推定した時刻から所定の期間、当該推定された特定の個体に対応した利用者を推定しやすくするパラメータを設定し、パラメータを用いて利用者を推定する。これにより、個体推定システム1によれば、特定の個人を推定した直後に他の個体を推定することを抑制することができる。この結果、個体推定システム1によれば、対象者の向きによって個体の推定精度が低下する場合や、サーモグラフィ画像のような低解像度画像を用いても、安定して、個体の推定を高い精度で行うことができる。
実施形態の個体推定システム1によれば、利用者データ記憶部152に、利用者の存在する場所と利用者の姿勢との対応関係を利用者ごとに記憶しておき、記憶された対応関係と、取得した画像に含まれる対象者の存在する場所と、推定された対象者の姿勢との対応関係と、の比較に基づいて、個体を推定することができる。これにより、個体推定システム1によれば、例えば住宅内の場所に関連して個体を推定することができる。この結果、個体推定システム1によれば、例えばソファのある場所で特定の個体が座ることが多いなど、住宅内の特定の場所に関連が強い姿勢がある場合に、個体の推定を高い精度で行うことができる。
実施形態の個体推定システム1によれば、骨格推定部130により推定された骨格情報のうち、サーモグラフィ画像の撮像方向に依存しにくい傾向を持つ一部の骨格情報を用いて個体を推定する。これにより、個体推定システム1によれば、例えば、身長やヒトの骨格のうちで大きな部分の骨格情報を用いて個体を推定することができ、対象者の姿勢に拘わらず個体の推定を高い精度で行うことができる。
<変形例>
図9は、実施形態の個体推定システムの第1変形例を示す図である。第1変形例の個体推定システム1Aにおいて、住宅内ネットワークは、赤外線カメラ200、画像取得部110および送信部112を備え、個体推定装置100は、画像処理部120、学習結果データ記憶部132、骨格推定部130、個体推定部150、利用者データ記憶部152、および情報処理部160を備える。個体推定システム1Aは、画像取得部110により取得したサーモグラフィ画像を、送信部112により通信ネットワークを介して個体推定装置100に送信する。個体推定装置100は、送信部112から取得したサーモグラフィ画像に基づいて個体推定を行い、個体推定の結果に関する情報を住宅内ネットワークの表示装置等の情報処理装置(不図示)に送信する。なお、個体推定システム1Aにおいて、個体推定装置100は、一つの住宅内ネットワークに限定されず、複数の住宅内ネットワークに接続されてよい。個体推定装置100は、住宅内ネットワークごとに学習結果データおよび利用者データを記憶し、住宅内ネットワークごとに個体推定を行う。このような個体推定システム1Aは、住宅内ネットワークから個体推定装置100への要求に応じて、個体推定装置100が個体推定を行い、個体の推定結果に基づくサービスを提供することができる。
図10は、実施形態の個体推定システムの第2変形例を示す図である。第2変形例の個体推定システム1Bにおいて、住宅内ネットワークは、赤外線カメラ200、画像取得部110、画像処理部120、学習結果データ記憶部132、骨格推定部130、および送信部112を備える。個体推定装置100は、個体推定部150、利用者データ記憶部152、および情報処理部160を備える。個体推定システム1Bは、骨格推定部140により推定した骨格情報を、送信部112により通信ネットワークを介して個体推定装置100に送信する。個体推定装置100は、送信部112から取得した骨格情報に基づいて個体推定を行い、個体推定の結果に関する情報を住宅内ネットワークの表示装置等の情報処理装置(不図示)に送信する。なお、個体推定システム1Bにおいて、個体推定装置100は、一つの住宅内ネットワークに限定されず、複数の住宅内ネットワークに接続されてよい。個体推定システム1Bは、サーモグラフィ画像を住宅内ネットワークから外部に送信しなくてよいので、サーモグラフィ画像が傍受されることを回避することができる。
図11は、実施形態の個体推定システムにおける個体推定装置の変形例を示す図である。変形例の個体推定装置100Aは、上述した個体推定装置100に加えて、結果評価部170および学習処理部180を備える。結果評価部170は、情報処理部160から個体推定部150により特定された個体を示す情報を取得する。結果評価部170では、例えば、利用者が個体推定結果から導出された利用者と異なると認識した場合に、利用者が、個体推定結果の誤りや個体推定結果の正例を入力することができる。学習処理部180は、結果評価部170により評価された個体推定結果を得るために用いられたサーモグラフィ画像(正例画像)もしくは骨格情報を学習画像もしくは学習骨格情報、当該サーモグラフィ画像に基づいて推定された骨格情報もしくは姿勢もしくは個体の推定結果を取得する。学習処理部180は、取得した学習画像もしくは学習骨格情報を入力したことに応じて、取得した骨格情報もしくは姿勢もしくは個体の推定結果を出力するように、学習結果データ記憶部132に記憶された認識エンジンの処理パラメータを更新する。なお、結果評価部170は、正例の学習画像ではなく、負例の学習画像に基づいて学習するための個体推定結果を抽出してよい。これにより、変形例の個体推定装置100Aによれば、より高い精度で個体を推定することができる。
なお、各実施形態および変形例について説明したが、一例であってこれらに限られず、例えば、各実施形態や各変形例のうちのいずれかや、各実施形態の一部や各変形例の一部を、他の1または複数の実施形態や他の1または複数の変形例と組み合わせて本発明の一態様を実現させてもよい。
なお、本実施形態における個体推定装置100の各処理を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムを、コンピュータシステムに読み込ませ、実行することにより、個体推定装置100に係る上述した種々の処理を行ってもよい。
なお、ここでいう「コンピュータシステム」とは、OSや周辺機器などのハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリなどの書き込み可能な不揮発性メモリ、CD−ROMなどの可搬媒体、コンピュータシステムに内蔵されるハードディスクなどの記憶装置のことをいう。
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネットなどのネットワークや電話回線などの通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic
Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置などに格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。
ここで、プログラムを伝送する「伝送媒体」は、インターネットなどのネットワーク(通信網)や電話回線などの通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
以上、本発明の実施形態について図面を参照して詳述したが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計なども含まれる。
1 個体推定システム
100 個体推定装置
110 画像取得部
112 送信部
120 画像処理部
130 骨格推定部
132 学習結果データ記憶部
132A 認識モデル
134 学習画像データベース
136 学習処理部
140 姿勢推定部
150 個体推定部
152 利用者データ記憶部
160 情報処理部
170 結果評価部
180 学習処理部
200 赤外線カメラ
200 情報処理装置
300 サーモグラフィ画像

Claims (11)

  1. 利用者の関節の位置に基づく骨格情報を、利用者ごとに記憶する記憶部と、
    少なくとも対象者の形が認識可能である画像を取得する画像取得部と、
    前記画像取得部により取得された画像に基づいて、前記対象者の骨格情報を推定する骨格推定部と、
    前記骨格推定部により推定された骨格情報と、前記記憶部に記憶された骨格情報との比較に基づいて、前記対象者が前記利用者のうち特定の個体であるかを推定する個体推定部と、
    を備える、個体推定装置。
  2. 前記骨格推定部は、認識モデルを用いて骨格情報の推定を行い、
    前記認識モデルは、ヒトを含む学習画像が入力された場合に前記ヒトの関節の位置および当該関節に対応するタグ情報を出力するように処理パラメータが学習される、
    請求項1に記載の個体推定装置。
  3. 前記画像取得部により取得された画像から人に対応する領域を明確化する画像処理部を備え、
    前記骨格推定部は、前記画像処理部により処理された画像に基づいて前記対象者の骨格情報を推定する、
    請求項1または2に記載の個体推定装置。
  4. 前記画像取得部により取得された画像から、人を除く画像を除去する画像処理部を備え、
    前記骨格推定部は、前記画像処理部により処理された画像に基づいて前記対象者の骨格情報を推定する、
    請求項1または2に記載の個体推定装置。
  5. 前記画像取得部により取得された画像を回転させる画像処理部を備え、
    前記骨格推定部は、前記画像処理部により処理された画像に基づいて前記対象者の骨格情報を推定する、
    請求項1または2に記載の個体推定装置。
  6. 前記個体推定部は、特定の個体を推定した時刻から所定の期間、当該推定された特定の個体に対応した利用者を推定しやすくするパラメータを設定し、前記パラメータを用いて利用者を推定する、
    請求項1または2に記載の個体推定装置。
  7. 前記個体推定部は、前記骨格推定部により推定された骨格情報のうち、前記画像の撮像方向に依存しにくい傾向を持つ一部の骨格情報を用いて個体を推定する、
    請求項1または2に記載の個体推定装置。
  8. 前記骨格推定部により推定された骨格情報に基づいて前記対象者の姿勢を推定する姿勢推定部を備え、
    前記個体推定部は、前記姿勢推定部により推定された姿勢と、前記骨格推定部により推定された骨格情報と、前記記憶部に記憶された骨格情報との比較に基づいて、前記対象者が前記利用者のうち特定の個体であるかを推定する、
    請求項1または2に記載の個体推定装置。
  9. 前記記憶部は、前記利用者の存在する場所と前記利用者の姿勢との対応関係を、前記利用者ごとに記憶し、
    前記個体推定部は、前記記憶部に記憶された対応関係と、前記画像取得部により取得した画像に含まれる対象者の存在する場所と前記姿勢推定部により推定された対象者の姿勢との対応関係と、の比較に基づいて、個体を推定する、
    請求項8に記載の個体推定装置。
  10. 利用者の関節の位置に基づく骨格情報を、利用者ごとに記憶するステップと、
    少なくとも対象者の形が認識可能である画像を取得するステップと、
    前記画像に基づいて、対象者の骨格情報を推定するステップと、
    推定された骨格情報と、記憶された骨格情報との比較に基づいて、前記対象者が前記利用者のうち特定の個体であるかを推定するステップと、
    を含む、個体推定方法。
  11. 情報処理装置のコンピュータに、
    利用者の関節の位置に基づく骨格情報を、利用者ごとに記憶するステップと、
    少なくとも対象者の形が認識可能である画像を取得するステップと、
    前記画像に基づいて、対象者の骨格情報を推定するステップと、
    推定された骨格情報と、記憶された骨格情報との比較に基づいて、前記対象者が前記利用者のうち特定の個体であるかを推定するステップと、
    を実行させるプログラム。
JP2020029567A 2020-02-25 2020-02-25 個体推定装置、個体推定方法、およびプログラム Active JP7282704B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020029567A JP7282704B2 (ja) 2020-02-25 2020-02-25 個体推定装置、個体推定方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020029567A JP7282704B2 (ja) 2020-02-25 2020-02-25 個体推定装置、個体推定方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2021135592A true JP2021135592A (ja) 2021-09-13
JP7282704B2 JP7282704B2 (ja) 2023-05-29

Family

ID=77661199

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020029567A Active JP7282704B2 (ja) 2020-02-25 2020-02-25 個体推定装置、個体推定方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP7282704B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023031181A (ja) * 2021-08-23 2023-03-08 MiZ株式会社 肺炎を予防および/または改善するための分子状水素含有組成物

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008117271A (ja) * 2006-11-07 2008-05-22 Olympus Corp デジタル画像の被写体認識装置、プログラム、および記録媒体
JP2012079348A (ja) * 2012-01-23 2012-04-19 Mitsubishi Electric Information Systems Corp 人物特定装置、人物特定方法及び人物特定プログラム
JP2016076259A (ja) * 2015-12-21 2016-05-12 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2017097549A (ja) * 2015-11-20 2017-06-01 日本電信電話株式会社 画像処理装置、方法、及びプログラム
JP2018089161A (ja) * 2016-12-05 2018-06-14 富士通株式会社 対象者認識方法、装置、システム、プログラム
JP2019133566A (ja) * 2018-02-02 2019-08-08 オムロン株式会社 情報処理装置
WO2019204235A1 (en) * 2018-04-20 2019-10-24 Bodygram, Inc. Systems and methods for full body measurements extraction
JP2019219989A (ja) * 2018-06-21 2019-12-26 日本電信電話株式会社 姿勢推定装置、姿勢推定方法、およびプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008117271A (ja) * 2006-11-07 2008-05-22 Olympus Corp デジタル画像の被写体認識装置、プログラム、および記録媒体
JP2012079348A (ja) * 2012-01-23 2012-04-19 Mitsubishi Electric Information Systems Corp 人物特定装置、人物特定方法及び人物特定プログラム
JP2017097549A (ja) * 2015-11-20 2017-06-01 日本電信電話株式会社 画像処理装置、方法、及びプログラム
JP2016076259A (ja) * 2015-12-21 2016-05-12 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2018089161A (ja) * 2016-12-05 2018-06-14 富士通株式会社 対象者認識方法、装置、システム、プログラム
JP2019133566A (ja) * 2018-02-02 2019-08-08 オムロン株式会社 情報処理装置
WO2019204235A1 (en) * 2018-04-20 2019-10-24 Bodygram, Inc. Systems and methods for full body measurements extraction
JP2019219989A (ja) * 2018-06-21 2019-12-26 日本電信電話株式会社 姿勢推定装置、姿勢推定方法、およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JUNYI LI ET AL.: "An Improved Pose Matching Method Based on Deep Learning", [ONLINE], JPN6023007317, 30 January 2020 (2020-01-30), ISSN: 0005000460 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023031181A (ja) * 2021-08-23 2023-03-08 MiZ株式会社 肺炎を予防および/または改善するための分子状水素含有組成物

Also Published As

Publication number Publication date
JP7282704B2 (ja) 2023-05-29

Similar Documents

Publication Publication Date Title
CN109477951B (zh) 在保护隐私的同时识别人及/或识别并量化疼痛、疲劳、情绪及意图的系统及方法
KR101980503B1 (ko) 신체 이미징
JP5881136B2 (ja) 情報処理装置及び方法、並びにプログラム
US11188788B2 (en) System and method to determine a timing update for an image recognition model
Huang et al. Multimodal sleeping posture classification
US11298050B2 (en) Posture estimation device, behavior estimation device, storage medium storing posture estimation program, and posture estimation method
US20210319585A1 (en) Method and system for gaze estimation
WO2019064375A1 (ja) 情報処理装置、制御方法、及びプログラム
JP2006293644A (ja) 情報処理装置、情報処理方法
JP6339445B2 (ja) 人物識別装置
JP2018120644A (ja) 識別装置、識別方法およびプログラム
JP6822482B2 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
US20150193686A1 (en) Static posture based person identification
JP2016206795A (ja) 実空間情報によって学習する識別器を用いて物体を追跡する装置、プログラム及び方法
JP2014194617A (ja) 視線方向推定装置、視線方向推定装置および視線方向推定プログラム
JP7282704B2 (ja) 個体推定装置、個体推定方法、およびプログラム
WO2019150954A1 (ja) 情報処理装置
CN115909498A (zh) 一种三维激光点云智能跌倒监测方法及系统
JP7259313B2 (ja) 属性決定装置、属性決定システム、属性決定方法、プログラムおよび記録媒体
US20220138458A1 (en) Estimation device, estimation system, estimation method and program
JP7103443B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US20230069278A1 (en) Systems and methods for facilitating interface with an access control system
Tiberio et al. Self-localization using fixations as landmarks
Genovese et al. Touchless and Less-Constrained Biometric Systems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220301

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230517

R150 Certificate of patent or registration of utility model

Ref document number: 7282704

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150