JP2024044186A - Estimation device, estimation method and program - Google Patents
Estimation device, estimation method and program Download PDFInfo
- Publication number
- JP2024044186A JP2024044186A JP2022149569A JP2022149569A JP2024044186A JP 2024044186 A JP2024044186 A JP 2024044186A JP 2022149569 A JP2022149569 A JP 2022149569A JP 2022149569 A JP2022149569 A JP 2022149569A JP 2024044186 A JP2024044186 A JP 2024044186A
- Authority
- JP
- Japan
- Prior art keywords
- estimation
- state
- image
- unit
- hog
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
【課題】より精度高く状態を推定することができる推定装置、推定方法及びプログラムを提供する。【解決手段】推定装置10、カメラ20、表示装置30及び推定モデル生成装置50を備える推定システム1において、推定装置10は、カメラ20から取得するデプス画像に含まれる撮像対象から抽出された特徴に基づいて観測符号を推定し、観測符号及び撮像対象の状態に基づいて、隠れマルコフモデルを用いて前記状態の次の状態を推定する。前記画像は、デプス画像をカラー化した画像であってもよい。【選択図】図1[Problem] To provide an estimation device, an estimation method, and a program capable of estimating a state with higher accuracy. [Solution] In an estimation system 1 including an estimation device 10, a camera 20, a display device 30, and an estimation model generation device 50, the estimation device 10 estimates an observation code based on features extracted from an image capture target contained in a depth image acquired from the camera 20, and estimates a next state of said state using a hidden Markov model based on the observation code and the state of the image capture target. The image may be an image obtained by colorizing the depth image. [Selected Figure] Figure 1
Description
本発明は、推定装置、推定方法及びプログラムに関する。 The present invention relates to an estimation device, an estimation method, and a program.
高齢者の事故を防ぐことや健康をサポートする目的で、カメラなどを用いて高齢者の状態を認識する手法が開発及び研究されている。例えば非特許文献1には、デプスカメラにより部屋の画像を取得し、部屋にいる高齢者の状態を認識することが記載されている。
In order to prevent accidents involving the elderly and to support their health, methods for recognizing the condition of the elderly using cameras and other devices are being developed and researched. For example, Non-Patent
しかしながら、非特許文献1に記載の方法においては、高齢者の状態を認識する精度が低く、より正確に状態を認識する手法が求められている。
本発明の目的は、より精度高く状態を推定することができる推定装置、推定方法及びプログラムを提供することにある。
However, the method described in
An object of the present invention is to provide an estimation device, an estimation method, and a program that are capable of estimating a state with higher accuracy.
本発明の一態様は、画像に含まれる撮像対象から抽出された特徴に基づいて観測符号を推定し、前記観測符号及び前記撮像対象の状態に基づいて、隠れマルコフモデルを用いて前記状態の次の状態を推定する、推定装置である。 One aspect of the present invention is to estimate an observation code based on features extracted from an imaging target included in an image, and use a hidden Markov model to estimate the next state of the imaging target based on the observation code and the state of the imaging target. This is an estimation device that estimates the state of .
本発明によれば、より精度高く状態を推定することができる。 According to the present invention, the state can be estimated with higher accuracy.
以下、図面を参照しながら本発明の実施形態について詳しく説明する。
図1は、推定システム1の構成を示す図である。推定システム1は、推定装置10、カメラ20、表示装置30を備える。
カメラ20は、所定の領域を撮影する。カメラ20は、撮影対象40を撮影するように設置される。撮影対象は人間であって、例えば高齢者やその介助者である。カメラ20は、デプスカメラであって、撮影する領域の深度を検出する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
1 is a diagram showing a configuration of an
The
推定装置10は、カメラ20により撮影された撮影対象40の状態を推定する。推定装置10は、推定結果を表示装置30に出力する。
The
表示装置30は、推定装置10より入力された推定結果を表示する。
The
図2は、推定装置10の構成の一例を示す図である。推定装置10は、画像取得部11、検出部12、特徴抽出部13、状態推定部14、出力部15、記録部16、記憶部17を備える。
FIG. 2 is a diagram showing an example of the configuration of the
画像取得部11は、カメラ20により撮影されたデプス画像を取得する。画像取得部11は、例えば所定の時間間隔で撮影されたデプス画像を取得する。画像取得部11は、カメラ20により撮影された動画を取得し、所定の時間間隔でフレームを切り出すことでデプス画像を取得してもよい。
画像取得部11は、取得したデプス画像をカラー化された画像に変換してもよい。デプス画像における深度は、カラー化された画像における色相色空間の色に対応する。一般的なデプス画像はCSVファイルの形式で保存されるため、カラー化された画像に変換することで画像のサイズを抑えることができる。
The
The
検出部12は、画像取得部11により取得された画像から撮影対象40を検出する。検出部12は、画像を入力として当該画像に人が写っているか否か及び当該画像に写る人の位置を出力する検出モデルを使用する。検出部12は、検出モデルに画像取得部11により取得された画像を入力することで、撮影対象40を検出する。
検出モデルは、画像と当該画像に人が写っているか否か及び当該画像に写る人の位置が結び付けられたデータセットを用いて機械学習により生成される。
The
The detection model is generated by machine learning using a data set in which an image is associated with whether or not a person appears in the image and the position of the person in the image.
検出モデルは例えばYOLOv5である。検出部12は、例えばデプス画像をカラー化した画像をYOLOv5に入力することで、撮影対象40を検出する。図3は、検出結果を示す図である。デプス画像をカラー化した画像において、撮影対象40に四角形の囲いが示され、検出したことを示していることが分かる。検出モデルはYOLOに限られず、画像から撮影対象を検出できればよい。
The detection model is, for example, YOLOv5. The
特徴抽出部13は、検出部12により検出される撮影対象40の特徴を抽出する。以下、特徴抽出部13による特徴を抽出する方法の一例である。
特徴抽出部13は、検出された撮影対象40を囲う図形(例えば四角形)により撮影対象40を切り出す。特徴抽出部13は、切り出した撮影対象40を含む画像を正規化し、各画像から切り出した画像を全て同じサイズにする。図4は、正規化した画像を示す図である。
The
The
特徴抽出部13は、時間的に連続して撮影された画像から切り出され、正規化された画像からDMA(Depth Motion Appearance)及びDMH(Depth Motion History)を抽出する。その後、特徴抽出部13は、抽出したDMA及びDMHのHOG(Histogram of Oriented Gradients)をそれぞれ算出することで特徴を示すヒストグラムを取得する。特徴抽出部13は、DMA及びDMHそれぞれから取得したHOGを結合する。図5は、特徴抽出部13によるHOGの算出方法を示す図である。特徴抽出部13は、例えば5フレームの画像から切り出され、正規化された画像から、DMA及びDMHを抽出し、DMA及びDMHのHOGであるHOGDMA及びHOGDMHをそれぞれ算出し、HOGDMAとHOGDMHを結合することでConcatenated Histogramを生成する。
The
状態推定部14は、特徴抽出部13により抽出された特徴に基づき、記憶部17に記憶された推定モデルを用いて、撮影対象40の状態を推定する。推定モデルはHMM(隠れマルコフモデル)を含む。図6は、HMMの一例を示す図である。Sは撮影対象40の状態を示す。例えば、S1が「移動する」、S2が「車いすに座る」、S3が「起立する」、S4が「着席する」、S5が「横になる」状態を示す。状態Siから状態Sjへの確率は遷移確率aijで示される。A={aij}(1≦i、j≦5)となるAを遷移確率分布と呼ぶ。
viは観測符号である。状態Sjであるとき、観測符号vkを出力する確率は出力確率bj(k)で示される。B={bj(k)}(1≦j、k≦5)となるBを出力確率分布と呼ぶ。
推定モデル生成装置50は、HMMを含む推定モデルを生成し、推定装置10に出力する。推定装置10は、推定モデルを記憶部17に記憶する。
The
v i is an observation code. When in state S j , the probability of outputting observation code v k is represented by output probability b j (k). B such that B={b j (k)} (1≦j, k≦5) is called an output probability distribution.
The estimation
以下、推定モデル生成装置50による推定モデルの生成方法を説明する。図7は、推定モデル生成装置50の構成例を示す図である。推定モデル生成装置50は、状態シーケンス取得部51、遷移確率分布算出部52、観測符号付与モデル生成部53、観測符号付与部54、出力確率分布算出部55、推定モデル出力部56を備える。
The following describes a method for generating an estimation model by the estimation
状態シーケンス取得部51は、状態遷移を示すデータを取得する。状態遷移を示すデータは、撮影対象40の状態の変化を示すデータである。遷移確率分布算出部52は、状態遷移を示すデータに基づいてHMMの遷移確率分布Aを算出する。例えば、推定モデル生成装置50は、状態Siから状態Sjの共起行列を全て算出することで、遷移確率分布Aを算出する。
観測符号付与モデル生成部53は、状態Sと各状態の特徴とが結び付けられたデータを含むデータセット(Dataset-X)により、特徴に基づき、当該特徴に観測符号vを付与する観測符号付与モデルを生成する。観測符号付与部54は、状態Sと特徴とが結び付けられたデータを含み、Dataset-Xとは異なるデータセット(Dataset-Y)に、観測符号付与モデルを用いて観測符号を付与する。出力確率分布算出部55は、付与された観測符号ごとに特徴から正規分布を算出し、出力確率分布Bを算出する。
The state
The observation code assignment
ここで、HOG平均(Mean HOGs)を計算することで、出力確率分布Bを計算する方法を説明する。出力確率分布Bは状態Sごとに以下の方法により計算される。
初めに、Dataset-Xから算出されるHOGのヒストグラムの平均値を算出することで、各々の状態における平均HOG特徴(M1H, M2H, M3H, M4H, M5H)を算出する。その後、状態SごとにDataset-Yから算出されるHOGに観測される符号viを付与する。ここで符号viのiは、IHと平均HOG特徴ベクトル(MiH)との間の距離のうち、最も小さい距離となるMiHのiと等しい。
その後、ラベルを付けたHOGそれぞれの長さ(ユークリッドノルム又はベクトル2ノルム)を算出する。その後、HOGに付けた各ラベルにおいて、HOGの長さの正規分布を算出する。ここで正規分布は例えば平均0、標準偏差1の確率密度関数である。これにより異なる5つのラベルが付与された正規分布が、Dataset-Yから算出されるHOGの数(例えば100個)算出される。その後、同じラベルの正規分布を足し合わせることでラベルごとに5つの正規分布を取得する。その後、5つの足し合わせた正規分布を全ての100個の正規分布の和で割り、ラベルごとに異なる5つの正規分布の和を正規化することで1つの状態における出力確率を算出する。以上の計算を5つの状態全てに対して行うことで、出力確率分布Bを算出する。これにより、各状態Sから各観測符号vが出力される確率を示す出力確率分布Bを算出することができる。
Here, a method for calculating the output probability distribution B by calculating the HOG mean will be described. The output probability distribution B is calculated for each state S by the following method.
First, the average value of the histogram of HOG calculated from Dataset-X is calculated to calculate the average HOG feature ( M1H , M2H , M3H , M4H , M5H ) in each state. Then, the code v i observed in the HOG calculated from Dataset-Y for each state S is assigned. Here, the i of the code v i is equal to the i of M i H that is the smallest distance among the distances between IH and the average HOG feature vector (M i H).
Then, the length (Euclidean norm or
表1は、HOG平均を計算することで出力確率分布Bを計算する方法を示す表である。
また、k-NN(k-Nearest Neighbors)の手法により、出力確率分布Bを算出してもよい。初めにDataset-Xから算出されるHOGを使用して、k-NNがHOGを5つのクラス(C1, C2, C3, C4, C5)に分類するように学習させる。その後、Dataset-Yから算出されるHOGを学習させたk-NNを用いて5つのクラス(v1, v2, v3, v4, v5)に分類する。5つのクラス(v1, v2, v3, v4, v5)の分類基準は、5つのクラス(C1, C2, C3, C4, C5)と同じである。
その後、ラベルを付けたHOGそれぞれの長さを算出し、HOGの長さの正規分布を算出する。その後、HOGに付けた各ラベルにおいて、HOGの長さの正規分布を算出する。ここで正規分布は例えば平均0、標準偏差1の確率密度関数である。これにより異なる5つのラベルが付与された正規分布が、Dataset-Yから算出されるHOGの数(例えば100個)算出される。その後、同じラベルの正規分布を足し合わせることでラベルごとに5つの正規分布を取得する。その後、5つの足し合わせた正規分布を全ての100個の正規分布の和で割り、ラベルごとに異なる5つの正規分布の和を正規化することで1つの状態における出力確率を算出する。以上の計算を5つの状態全てに対して行うことで、出力確率分布Bを算出する。
Alternatively, the output probability distribution B may be calculated using the k-NN (k-Nearest Neighbors) method. First, the HOG calculated from Dataset-X is used to train the k-NN to classify the HOG into five classes ( C1 , C2 , C3 , C4 , C5 ). Then, the HOG calculated from Dataset-Y is trained using the k-NN to classify the HOG into five classes ( v1 , v2 , v3 , v4 , v5 ). The classification criteria for the five classes ( v1 , v2 , v3 , v4 , v5 ) are the same as those for the five classes ( C1 , C2 , C3 , C4 , C5 ).
Then, the length of each labeled HOG is calculated, and the normal distribution of the HOG length is calculated. Then, for each label attached to the HOG, the normal distribution of the HOG length is calculated. Here, the normal distribution is, for example, a probability density function with a mean of 0 and a standard deviation of 1. As a result, the number of HOGs (for example, 100) calculated from Dataset-Y is calculated as a normal distribution with five different labels. Then, five normal distributions for each label are obtained by adding together the normal distributions of the same label. Then, the five summed normal distributions are divided by the sum of all 100 normal distributions, and the sum of the five normal distributions that differ for each label is normalized to calculate the output probability in one state. The above calculations are performed for all five states to calculate the output probability distribution B.
表2は、k-NNの手法を用いて、出力確率分布Bを計算する方法を示す表である。
また、SVM(Support Vector Machine)を用いて、出力確率分布Bを算出してもよい。初めにDataset-Xから算出されるHOGを使用して、SVMがHOGを5つのクラス(C1, C2, C3, C4, C5)に分類するように学習させる。その後、Dataset-Yから算出されるHOGを学習させたSVMを用いて5つのクラス(v1, v2, v3, v4, v5)に分類する。5つのクラス(v1, v2, v3, v4, v5)の分類基準は、5つのクラス(C1, C2, C3, C4, C5)と同じである。
その後、ラベルを付けたHOGそれぞれの長さを算出し、HOGの長さの正規分布を算出する。その後、HOGに付けた各ラベルにおいて、HOGの長さの正規分布を算出する。ここで正規分布は例えば平均0、標準偏差1の確率密度関数である。これにより異なる5つのラベルが付与された正規分布が、Dataset-Yから算出されるHOGの数(例えば100個)算出される。その後、同じラベルの正規分布を足し合わせることでラベルごとに5つの正規分布を取得する。その後、5つの足し合わせた正規分布を全ての100個の正規分布の和で割り、ラベルごとに異なる5つの正規分布の和を正規化することで1つの状態における出力確率を算出する。以上の計算を5つの状態全てに対して行うことで、出力確率分布Bを算出する。
Alternatively, the output probability distribution B may be calculated using SVM (Support Vector Machine). First, using HOG calculated from Dataset-X, SVM is trained to classify HOG into five classes (C 1 , C 2 , C 3 , C 4 , C 5 ). After that, the HOG calculated from Dataset-Y is classified into five classes (v 1 , v 2 , v 3 , v 4 , v 5 ) using SVM trained. The classification criteria for the five classes (v 1 , v 2 , v 3 , v 4 , v 5 ) are the same as for the five classes (C 1 , C 2 , C 3 , C 4 , C 5 ).
Then, calculate the length of each labeled HOG and calculate the normal distribution of HOG lengths. Then, for each label attached to the HOG, the normal distribution of the length of the HOG is calculated. Here, the normal distribution is, for example, a probability density function with a mean of 0 and a standard deviation of 1. As a result, the number of HOGs (for example, 100) calculated from Dataset-Y is calculated for a normal distribution to which five different labels are assigned. Then, by adding up the normal distributions of the same label, five normal distributions are obtained for each label. Then, the output probability in one state is calculated by dividing the five normal distributions by the sum of all 100 normal distributions and normalizing the sum of the five normal distributions that differ for each label. The output probability distribution B is calculated by performing the above calculation for all five states.
表3は、SVMの手法を用いて、出力確率分布Bを計算する方法を示す表である。
HMMにおける初期状態確率πはすべて同じ大きさであってよい。以上の方法により、推定モデルにおけるHMMのパラメータA、Bが決定される。 The initial state probabilities π in the HMM may all have the same magnitude. By the above method, the parameters A and B of the HMM in the estimation model are determined.
推定モデル出力部56は、パラメータA、Bが決定されることで生成される推定モデルを推定装置10に出力する。推定モデルは記憶部17に記憶される。
The estimated
以下、状態推定部14による撮影対象40の状態の推定方法の一例を説明する。初めに状態推定部14は、特徴抽出部13により抽出されたHOGから観測符号vを推定する。HOGから観測符号vの推定方法は、例えば上記説明したHOG平均を計算する方法、k-NN法又はSVMを使用する方法である。その後、状態推定部14はHMMを用いて観測符号と状態Sに基づいて、次の状態Sを推定する。図8は、推定装置10による推定方法を示した図である。特徴(HOG)及び観測符号は複数のフレーム(例えば5フレーム)ごとに算出されるが、状態Sはフレームごとに推定されてもよい。状態Sは、複数の観測符号からHMMを用いることで、まとめて推定されてもよい。
An example of a method for estimating the state of the
出力部15は、状態推定部14により推定された結果を出力する。出力部15は、画像取得部11により取得された画像、検出部12による検出結果又は特徴抽出部13により抽出される特徴を出力してもよい。
The
記録部16は、状態推定部14により推定された結果を記憶部17に記録する。記録部16は、画像取得部11により取得された画像、検出部12による検出結果又は特徴抽出部13により抽出される特徴を対応する推定結果と対応付けて記憶部17に記録してもよい。また、複数のカメラで撮影している場合には、記録部16は、画像を撮影対象としている人物又は撮影する部屋と対応付けて記録してもよい。また、出力部15は、記憶部17に記録されたデータを出力してもよい。
The
図9は、表示装置30に表示されるGUIの一例である。領域111に患者の名前と時刻が入力されると、領域112に、人物及び時刻に対応する画像が表示され、領域113には患者及び時刻に対応する状態が表示される。領域111には開始時刻と終了時刻が入力されてもよく、領域112には連続して画像が表示されてもよく、領域113には連続して状態が表示されてもよい。領域113には開始時刻から終了時刻の状態がグラフにより表示されてもよく、領域112に画像が連続して表示されるのに対応して領域113に表示される状態の数が増加してもよい。
FIG. 9 is an example of a GUI displayed on the
図10は、推定装置10の動作を示すフローチャートである。初めに画像取得部11が画像を取得する(ステップS11)。その後、検出部12が、画像から撮影対象40を検出する(ステップS12)。特徴抽出部13が、撮像対象の特徴を抽出する(ステップS13)。状態推定部14が、推定モデルを用いて特徴から状態を推定する(ステップS14)。出力部15が推定結果を出力する(ステップS15)。
FIG. 10 is a flowchart showing the operation of the
図11は、推定モデル生成装置50の動作を示すフローチャートである。推定モデル生成装置50は、状態遷移を示すデータを集計することでHMMの遷移確率分布Aを算出する(ステップS21)。その後、推定モデル生成装置50はDataset-Xを用いた学習により観測符号付与モデルを生成する(ステップS22)。推定モデル生成装置50は、Dataset-Yに含まれるデータに対して観測符号を付与する(ステップS23)。その後、推定モデル生成装置50は、観測符号ごとに特徴から正規分布を算出し、出力確率分布Bを算出する(ステップS24)。
FIG. 11 is a flowchart showing the operation of the estimation
(実験結果)
推定装置10による状態の推定精度を実験により検証した。実験には部屋の内部を写した画像と画像に含まれる撮像対象である人の状態とを結びつけたデータを用いた。画像に結び付けられた人の状態は、画像を見て人間が判定した状態である。全ての画像のうち、画像に結び付けられた状態と、画像から推定装置により推定された状態とが同じである割合を、推定装置10による推定精度とした。
図12は、推定装置10による推定精度を示す図である。3つの部屋を撮影した画像を用いて検証を行った。Room1で撮影した画像は、合計で22度連続して撮影した画像であり、最長連続撮影時間は12.60時間である。Room2で撮影した画像は、合計で10度連続して撮影した画像であり、最長連続撮影時間は12.19時間である。Room3で撮影した画像は、合計で27度連続して撮影した画像であり、最長連続撮影時間は11.91時間である。
推定モデルの生成方法は、Mean+HMM、kNN+HMM、SVM+HMMの3種類行った。Mean+HMM、kNN+HMM、SVM+HMMはそれぞれ表1、表2、表3に示した方法である。3つの部屋における推定精度の平均値では3つの方法全てで80%を超える推定精度が得られた。また、SVM+HMMにおいては84%を超える推定精度を得ることができた。
(Experimental result)
The accuracy of state estimation by the
FIG. 12 is a diagram showing estimation accuracy by the
Three methods were used to generate the estimation model: Mean+HMM, kNN+HMM, and SVM+HMM. Mean+HMM, kNN+HMM, and SVM+HMM are the methods shown in Table 1, Table 2, and Table 3, respectively. The average estimation accuracy in the three rooms was over 80% for all three methods. Furthermore, with SVM+HMM, we were able to obtain an estimation accuracy of over 84%.
このように、本実施形態によれば、隠れマルコフモデルを用いることにより、推定精度を向上させることができる。 In this way, according to this embodiment, the estimation accuracy can be improved by using a hidden Markov model.
〈他の実施形態〉
以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
Other Embodiments
Although one embodiment of the present invention has been described in detail above with reference to the drawings, the specific configuration is not limited to the above, and various design changes, etc. are possible within the scope that does not deviate from the gist of the present invention.
上述した実施形態における推定装置10及び推定モデル生成装置50の一部又は全部をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記録装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものを含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。また、推定装置10及び推定モデル生成装置50の一部または全部は、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。
The
1 推定システム、10 推定装置、20 カメラ、30 表示装置、40 撮影対象、50 推定モデル生成装置、11 画像取得部、12 検出部、13 特徴抽出部、14 状態推定部、15 出力部、16 記憶部、51 状態シーケンス取得部、52 遷移確率分布算出部、53 観測符号付与モデル生成部、54 観測符号付与部、55 出力確率分布算出部、56 推定モデル出力部 1 Estimation System, 10 Estimation Device, 20 Camera, 30 Display Device, 40 Photography Target, 50 Estimation Model Generation Device, 11 Image Acquisition Unit, 12 Detection Unit, 13 Feature Extraction Unit, 14 State Estimation Unit, 15 Output Unit, 16 Storage part, 51 state sequence acquisition unit, 52 transition probability distribution calculation unit, 53 observation code assignment model generation unit, 54 observation code assignment unit, 55 output probability distribution calculation unit, 56 estimated model output unit
Claims (5)
前記観測符号及び前記撮像対象の状態に基づいて、隠れマルコフモデルを用いて前記状態の次の状態を推定する、
推定装置。 Estimating the observation code based on the features extracted from the imaging target included in the image,
estimating a next state of the state using a hidden Markov model based on the observation code and the state of the imaging target;
Estimation device.
請求項1に記載の推定装置。 The image is a colorized image of a depth image.
The estimation device according to claim 1 .
請求項1又は2に記載の推定装置。 The images are displayed together with the corresponding estimated states.
The estimation device according to claim 1 or 2.
前記観測符号及び前記撮像対象の状態に基づいて、隠れマルコフモデルを用いて前記状態の次の状態を推定する、
推定方法。 Estimating an observation code based on features extracted from an imaged object included in the image;
estimating a next state of the state based on the observation code and the state of the imaging target using a hidden Markov model;
Estimation method.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022149569A JP2024044186A (en) | 2022-09-20 | 2022-09-20 | Estimation device, estimation method and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022149569A JP2024044186A (en) | 2022-09-20 | 2022-09-20 | Estimation device, estimation method and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2024044186A true JP2024044186A (en) | 2024-04-02 |
Family
ID=90479709
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022149569A Pending JP2024044186A (en) | 2022-09-20 | 2022-09-20 | Estimation device, estimation method and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2024044186A (en) |
-
2022
- 2022-09-20 JP JP2022149569A patent/JP2024044186A/en active Pending
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US20220036055A1 (en) | Person identification systems and methods | |
| US8295556B2 (en) | Apparatus and method for determining line-of-sight direction in a face image and controlling camera operations therefrom | |
| CN111095264B (en) | Object recognition system and method | |
| US9665777B2 (en) | System and method for object and event identification using multiple cameras | |
| US11232287B2 (en) | Camera and image calibration for subject identification | |
| CN111344715B (en) | Object recognition system and method | |
| JP5383705B2 (en) | Determining social relationships from personal photo collections | |
| JP6517681B2 (en) | Image pattern learning apparatus, method and program | |
| EP2893491B1 (en) | Image processing apparatus and method for fitting a deformable shape model to an image using random forest regression voting | |
| JP5424819B2 (en) | Image processing apparatus and image processing method | |
| JP7107932B2 (en) | Patient identification system and method | |
| JP2004192637A (en) | Face detection | |
| JP2004199669A (en) | Face detection | |
| CN114269243A (en) | Fall risk evaluation system | |
| US20200311962A1 (en) | Deep learning based tattoo detection system with optimized data labeling for offline and real-time processing | |
| JP2004280376A (en) | Subject action recognition method and apparatus | |
| CN108289201B (en) | Video data processing method and device and electronic equipment | |
| JP2024044186A (en) | Estimation device, estimation method and program | |
| Peng | Face recognition at a distance: Low-resolution and alignment problems | |
| JP2022025935A (en) | Action analysis device, learning device, action analysis method, learning method and control program | |
| CN113496152A (en) | Face recognition method and device based on AR glasses, electronic equipment and storage medium | |
| JP6690832B2 (en) | Search support device, search support method, and program | |
| KR20200131722A (en) | Method for improving reproducibility of trained deep neural network model and apparatus using the same | |
| Jack et al. | Artificial Intelligence-Enabled Multi-Function Activity Monitoring and Reporting System | |
| Nalinipriya et al. | Face Emotion Identification System for Visually Challenged Persons using Machine Learning |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20250829 |


