JP7239120B1 - 物品判別システム - Google Patents

物品判別システム Download PDF

Info

Publication number
JP7239120B1
JP7239120B1 JP2022097098A JP2022097098A JP7239120B1 JP 7239120 B1 JP7239120 B1 JP 7239120B1 JP 2022097098 A JP2022097098 A JP 2022097098A JP 2022097098 A JP2022097098 A JP 2022097098A JP 7239120 B1 JP7239120 B1 JP 7239120B1
Authority
JP
Japan
Prior art keywords
article
target
sample
person
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022097098A
Other languages
English (en)
Other versions
JP2023183533A (ja
Inventor
大介 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Asilla Inc
Original Assignee
Asilla Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asilla Inc filed Critical Asilla Inc
Priority to JP2022097098A priority Critical patent/JP7239120B1/ja
Application granted granted Critical
Publication of JP7239120B1 publication Critical patent/JP7239120B1/ja
Publication of JP2023183533A publication Critical patent/JP2023183533A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】映像に映った人物が移動させた物品を簡易かつ低負荷な構成で判別する物品判別システムを提供する。【解決手段】物品判別システムにおける物品判別方法は、学習段階と判別段階を含む。学習段階においては、サンプル人物Z1がサンプル物品P1を移動させる際のサンプル映像Y1からサンプル人物Z1の体の対象部分の動きを検出し、複数のサンプル人物Z1及び複数のサンプル物品P1に関して、検出された動きをサンプル物品P1の重さ、形状及びサイズの少なくとも1つを含む物品情報と紐づけて学習する。物品はその物品情報と紐づけて登録しておく。判別段階では、対象人物Zが対象物品Pを移動させる際の対象映像Yから対象人物Zの体の対象部分の動きを検出し、学習されたデータを参照して、検出された動きに対応する物品情報を抽出し、登録されたデータを参照して、抽出された物品情報に対応する物品を対象物品Pと判別する。【選択図】図3

Description

本発明は、映像に映った人物が移動させた物品を簡易かつ低負荷な構成で判別することが可能な物品判別システムに関する。
従来より、時系列データに映った人間の関節等から姿勢を検知し、当該姿勢の変化に応じて行動を認識する装置が知られている。(例えば、特許文献1参照)。
特許第6525179号
しかしながら、上記技術では、例えば、人間が物品を“持ち上げる”という行動を認識することは可能であるが、どのような物品を持ち上げているかを認識するためには、物品自体を認識するための構成が別途必要になってしまう。
物品自体を認識するための構成としては、例えば、物品ごとにシルエット等を登録しておき、シルエット等が一致するか否かを判別する等が考えられるが、この場合、物品の向きに応じて何十~何百通りものシルエットを登録しておき、その中から上記判別を行うこととなってしまうので、コンピュータにかかる負荷が大幅に増大してしまう。
そこで、本発明は、映像に映った人物が移動させた物品を簡易かつ低負荷な構成で判別することが可能な物品判別システムを提供することを目的としている。
本発明は、サンプル人物がサンプル物品を移動させる際のサンプル映像を取得する第1の取得部と、前記サンプル映像に映ったサンプル人物の体の対象部分の動きを検出する第1の検出部と、複数のサンプル人物及び複数のサンプル物品に関して、前記第1の検出部により検出された動きを前記サンプル物品の重さ、形状、及び、サイズの少なくとも1つを含む物品情報と紐づけて学習する学習部と、物品を、その前記物品情報と紐づけて登録可能な登録部と、対象人物が対象物品を移動させる際の対象映像を取得する第2の取得部と、前記対象映像に映った対象人物の体の対象部分の動きを検出する第2の検出部と、前記学習部を参照して、前記第2の検出部により検出された動きに対応する物品情報を抽出する抽出部と、前記登録部を参照して、前記抽出された物品情報に対応する物品を前記対象物品と判別する判別部と、を備えたことを特徴とする物品判別システムを提供している。
このような構成によれば、対象人物の体の対象部分の動きを検出することで対象人物が移動させた対象物品を判別することができるので、対象物品自体を検出する必要がなく、これにより、コンピュータにかかる負荷が大幅に低減される。また、個別の物品について学習を行う必要がなく、動作の学習を行うだけよいので、この点においても、コンピュータにかかる負荷が大幅に低減される。
また、前記登録部は、物品を、更にその色彩と紐づけて登録可能であり、前記第2の検出部は、前記対象人物の前記対象部分に接し、前記対象人物の動きに連動して動く部分の色彩を更に検出し、前記判別部は、前記登録部を参照して、前記第2の検出部により検出された色彩、及び、前記抽出された物品情報の両方に対応する物品を前記対象物品と判別することが好ましい。
このような構成によれば、対象部分の周囲の色彩を検出することにより、対象部分に接しているであろう対象物品の色彩を検出していることとなるので、登録部に登録された複数の物品の中から候補を絞り込みやすくなり、結果として、対象物品を高精度に判別することが可能となる。
また、前記学習部は、前記第1の検出部により検出された動きを更に前記サンプル人物の体格情報と紐づけて学習し、前記第2の検出部は、前記対象映像に映った対象人物の体格を更に検出し、前記抽出部は、前記学習部を参照して、前記第2の検出部により検出された動き及び体格の両方に対応する物品情報を抽出することが好ましい。
このような構成によれば、体格に応じた動きの違いまで考慮して物品情報が抽出されるので、正解である物品情報が抽出される確率を増加させることが可能となる。
また、前記学習部は、前記第1の検出部により検出された動きを更に前記サンプル人物の姿勢と紐づけて学習し、前記第2の検出部は、前記対象映像に映った対象人物の姿勢を更に検出し、前記抽出部は、前記学習部を参照して、前記第2の検出部により検出された動き及び姿勢の両方に対応する物品情報を抽出することが好ましい。
このような構成によれば、姿勢に応じた動きの違いまで考慮して物品情報が抽出されるので、正解である物品情報が抽出される確率を増加させることが可能となる。
また、前記抽出された物品情報を短期記憶情報として記憶可能な短期記憶部を更に備え、前記抽出された物品情報が前記短期記憶部に記憶されている短期記憶情報から所定以上変化した場合に、前記短期記憶情報は前記短期記憶部から消去されることが好ましい。
このような構成によれば、映像を構成する複数フレームにおいて抽出された物品情報が所定以上変化した場合には、対象物品が変更されたものと判断することができるので、抽出された物品情報を消去してコンピュータの容量の使用量を低減させることが可能となる。
また、本発明の別の観点によれば、上記物品判別システムに対応する物品判別プログラム、物品判別方法、上記判別システムに含まれる物品判別装置(物品判別プログラム、及び、物品判別方法)、及び、学習装置(学習プログラム、及び、学習方法)を提供している。
本発明の物品判別システムによれば、映像に映った人物が移動させた物品を簡易かつ低負荷な構成で判別することが可能となる。
本発明の実施の形態による物品判別システムの使用環境の説明図 本発明の実施の形態による物品判別システムのブロック図 本発明の実施の形態による物品判別のフローチャート
以下、本発明の実施の形態による物品判別システム1について、図1-図3を参照して説明する。
物品判別システム1は、図1に示すように、撮影手段Xによって撮影された対象映像Y(図1では、映像を構成するフレーム)に映った対象人物Zが移動させた対象物品Pを判別するためのものである。本実施の形態では、対象人物Zが対象物品P(図1では、鈍器(バット))を持ち上げる際の対象映像Yを用いて、当該対象物品P(物品名)を判別する例を用いて説明を行う。また、本実施の形態では、対象人物Zとして人間を採用し、理解容易のため、対象人物Zを骨格だけで簡易的に表示する。
物品判別システム1は、図2に示すように、学習装置2と、判別装置3と、を備えており、学習装置2によって学習されたデータを参照して、判別装置3が、対象人物Zが移動させた対象物品P(物品名)を判別する。
学習装置2は、第1の記憶部21と、第1の取得部22と、第1の検出部23と、学習部24と、を備えている。
第1の記憶部21には、“関節識別基準”と、“行動体識別基準”と、が記憶されている。
“関節識別基準”は、人間の複数の関節を識別するためのものであり、関節ごとに、それぞれを識別するための形状、方向、サイズ等を示したものである。
“行動体識別基準”は、人間の様々なバリエーション(“歩行”、“直立”等)の “基本姿勢“、”各関節の可動域“、一の人間における”各関節間の距離“等を示したものである。
第1の取得部22は、サンプル人物Z1がサンプル物品P1を移動させる際のサンプル映像Y1を取得する。例えば、犯罪防止を目的として物品判別システム1を使用する場合には、鈍器やナイフを持ち上げる動作に関するサンプル映像Y1を取得する。但し、物品判別システム1の使用目的を限定することなく様々なサンプル映像Y1を取得してもよい。
第1の検出部23は、サンプル映像Y1に映ったサンプル人物Z1の体の対象部分の動きを検出する。図1の例では、サンプル人物Z1が鈍器を持ち上げる際の手や腕の動きを検出することとなる。
サンプル人物Z1の検出に当たっては、まず、サンプル映像Y1に映ったサンプル人物Z1を特定する。
本実施の形態では、第1の記憶部21に記憶された“関節識別基準”に該当する複数の関節を検出した上で、“行動体識別基準”を参照して、一のサンプル人物Z1に含まれる複数の関節を特定する。
学習部24は、複数のサンプル人物Z1及び複数のサンプル物品P1に関して、第1の検出部23により検出された動きをサンプル物品P1の重さ、形状、及び、サイズの少なくとも1つを含む物品情報と紐づけて学習する。
これは、学習部24が、ある重さ、形状、サイズの物品を移動させる場合に、サンプル人物Z1がどのような動き(移動軌跡、速度、加速度、関節角度の変化等)をするかを学習することを意味している。特に、重力、遠心力等により加速度が生じる場合に、動きに大きな特徴が現れる。
サンプル物品P1の重さ、形状、及び、サイズとしては、予め計測しておいたものを紐づければよい。
また、本実施の形態では、学習部24は、第1の検出部23により検出された動きを更にサンプル人物Z1の体格情報と紐づけて学習する。
これは、同じ物品を移動させる場合であっても、サンプル人物Z1の体格によって、その動き(移動軌跡、速度、加速度、関節角度の変化等)が異なることを考慮したものである。
体格情報は、サンプル人物Z1の身長や背格好をユーザが入力してもよいし、第1の検出部23がサンプル人物Z1の身長や背格好まで検出し、検出された身長や背格好を体格情報として用いてもよい。
上記した学習は、様々な重さ、形状、及び、サイズを有するサンプル物品P1、及び、様々な体格情報を有するサンプル人物Z1に対して行われることが好ましい。
判別装置3は、登録部31と、第2の記憶部32と、第2の取得部33と、第2の検出部34と、抽出部35と、判別部36と、短期記憶部37と、を備えている。
登録部31は、物品を、その物品情報(重さ、形状、及び、サイズの少なくとも1つを含む)と紐づけて登録可能である。
例えば、犯罪防止を目的とする場合には、“金属バット”、“ナイフ”等の一般名称や、それらの型式を、その物品情報と紐づけて登録しておくことが考えられる。
本実施の形態では、更に物品を、その色彩と紐づけて登録可能なものとする。
物品の色彩は、単に“赤”、“青”のようにユーザが入力してもよいし、検出部等により検出した色彩の特徴量を登録してもよい。
第2の記憶部32には、第1の記憶部21と同様に、“関節識別基準”と、“行動体識別基準”と、が記憶されている。
第2の取得部33は、対象人物Zが対象物品Pを移動させる際の対象映像Yを取得する。
第2の検出部34は、対象映像Yに映った対象人物Zの体の対象部分の動きを検出する。本実施の形態では、第1の検出部23と同様の方法で検出を行うものとする。
また、本実施の形態では、第2の検出部34は、対象人物Zの対象部分に接し、対象人物Zの動きに連動して動く部分の色彩を更に検出する。
図1の例では、対象人物Zの手(対象部分)に握られているバット(対象物品P)が、“対象人物Zの対象部分に接し、対象人物Zの動きに連動して動く部分”に相当するので、バットの色彩を検出することとなる。
また、本実施の形態では、第2の検出部34は、対象映像Yに映った対象人物Zの体格を更に検出する。体格としては、大まかな身長だけでもよいし、関節やシルエット等を検出することで背格好まで検出してもよい。
抽出部35は、学習部24を参照して、第2の検出部34により検出された動きに対応する物品情報を抽出する。
これは、対象人物Zが対象物品Pを移動させる動きに応じて、移動させている対象物品Pの重さ、形状、サイズを推定していることを意味する。
なお、抽出する物品情報は1つに限定されず、複数の候補を抽出してもよい。
また、本実施の形態では、抽出部35は、学習部24を参照して、第2の検出部34により検出された動き及び体格の両方に対応する物品情報を抽出するものとする。
これにより、体格に応じた動きの違いまで考慮して物品情報が抽出されるので、正解である物品情報が抽出される確率を増加させることが可能となる。
判別部36は、登録部31を参照して、抽出された物品情報に対応する物品を対象物品Pと判別する。
これは、予め登録されている物品の中から、対象人物Zの動きに対応した物品情報を有する物品を選択することで、対象人物Zが移動させた対象物品Pを判別していることを意味する。
本実施の形態では、判別部36は、登録部31を参照して、第2の検出部34により検出された色彩、及び、抽出された物品情報の両方に対応する物品を対象物品Pと判別する。
これにより、対象部分の周囲の色彩を検出することにより、対象部分に接しているであろう対象物品Pの色彩を検出していることとなるので、登録部31に登録された複数の物品の中から候補を絞り込みやすくなり、結果として、対象物品Pを高精度に判別することが可能となる。
なお、必ずしも、抽出された物品情報は、登録されている物品情報と正確に一致するとは限らないので、「所定の一致度を有していれば一致している」として判別を行うことが好ましい。また、対象物品Pと判別する物品は1つに限定されず、複数の候補を出力してもよい。
短期記憶部37は、抽出された物品情報を短期記憶情報として記憶可能であり、抽出された物品情報が短期記憶部37に記憶されている短期記憶情報から所定以上変化した場合に、当該短期記憶情報は短期記憶部37から消去される。
これは、持ち上げる対象物品Pが変更されると、短期記憶情報が消去されることを意味している。
本実施の形態では、抽出された物品情報以外にも、第2の検出部34により検出された動きを短期記憶情報として記憶可能であり、抽出された物品情報が短期記憶部37に記憶されている短期記憶情報から所定以上変化した場合に、第2の検出部34により検出された動きも短期記憶部37から消去される。短期記憶部37からの消去は、抽出部35が行ってもよいし、その他の制御部等が行ってもよい。
このような構成によれば、映像を構成する複数フレームにおいて抽出された物品情報が短期記憶部37に記憶されている短期記憶情報から所定以上変化した場合には、対象物品Pが変更されたものと判断することができるので、抽出された物品情報を消去してコンピュータの容量の使用量を低減させることが可能となる。
上記構成を有する物品判別システム1は、様々な用途で利用することが可能である。例えば、犯罪防止を目的とする場合、対象人物Zが保持している鈍器やナイフを判別することで、事件や事故の発生を未然に防止することが可能となる。同様に、物品の窃盗を判別することも可能である。また、物品判別システム1は、見守りの目的で利用することも可能である。例えば、別室にいる幼児が保持しているものを判別することで、危険性のある物品を保持していることを発見することが可能となる。更に、物品判別システム1は、福祉の目的で使用することも可能である。例えば、バスに乗り込む高齢者が重い物品を保持していることを判別すれば、早めに介助に向かうことなどが可能となる。
続いて、図3のフローチャートを用いて、物品判別システム1による物品の判別について説明する。
物品の判別は、“学習段階”と“判別段階”の2段階で行われる。
(1)学習段階
学習段階では、まず、サンプル映像Y1が取得されると(S1)、サンプル映像Y1に映ったサンプル人物Z1の体の対象部分の動きが検出される(S2)。
続いて、S2で検出された動きをサンプル物品P1の重さ、形状、及び、サイズの少なくとも1つを含む物品情報と紐づけた学習が行われる(S3)。この際、S2で検出された動きを更にサンプル人物Z1の体格情報と紐づけて学習が行われることが好ましい。
S1及びS2は、異なる複数のサンプル映像Y1に対して行われ、多数のサンプル人物Z1及び多数のサンプル物品P1に関して学習が行われることが好ましい。
(2)検出段階
続いて、検出段階では、まず、対象映像Yが取得されると(S4)、対象映像Yに映った対象人物Zの体の対象部分の動きが検出される(S5)。この際、対象人物Zの対象部分に接し、対象人物Zの動きに連動して動く部分の色彩が更に検出されることが好ましい。また、対象映像Yに映った対象人物Zの体格が更に検出されることが好ましい。
続いて、S3の学習によって得られたデータを参照して、S5で検出された動きに対応する物品情報が抽出される(S6)。この際、S3の学習によって得られたデータを参照して、S5で検出された動き及び体格の両方に対応する物品情報が抽出されることが好ましい。
なお、S5で検出された動き、及び、S6で抽出された物品情報は、それぞれ短期記憶情報として短期記憶部37に記憶される。
続いて、登録部31を参照して、抽出された物品情報に対応する物品が対象物品Pであると判別される(S7)。この際、検出された色彩、及び、抽出された物品情報の両方に対応する物品が対象物品Pであると判別されることが好ましい。
なお、登録部31への物品情報等の登録は、遅くともS7までには行われている必要がある。
連続して判別を行う場合には、S4-S7までのステップを繰り返すこととなるが、S6で抽出された物品情報が短期記憶部37に記憶されている短期記憶情報から所定以上変化した場合に、当該短期記憶情報は短期記憶部37から消去される。
以上説明したように、本実施の形態による物品判別システム1では、予め登録されている物品の中から、対象人物Zの動きに対応した物品情報を有する物品を選択することで、対象人物Zが移動させた対象物品Pを判別する。
このような構成によれば、対象人物Zの体の対象部分の動きを検出することで対象人物Zが移動させた対象物品Pを判別することができるので、対象物品P自体を検出する必要がなく、これにより、コンピュータにかかる負荷が大幅に低減される。また、個別の物品について学習を行う必要がなく、動作の学習を行うだけよいので、この点においても、コンピュータにかかる負荷が大幅に低減される。
また、本実施の形態による物品判別システム1では、登録部31を参照して、第2の検出部34により検出された色彩、及び、抽出された物品情報の両方に対応する物品を対象物品Pと判別する。
このような構成によれば、対象部分の周囲の色彩を検出することにより、対象部分に接しているであろう対象物品Pの色彩を検出していることとなるので、登録部31に登録された複数の物品の中から候補を絞り込みやすくなり、結果として、対象物品Pを高精度に判別することが可能となる。
また、本実施の形態による物品判別システム1では、学習部24を参照して、第2の検出部34により検出された動き及び体格の両方に対応する物品情報を抽出する。
このような構成によれば、体格に応じた動きの違いまで考慮して物品情報が抽出されるので、正解である物品情報が抽出される確率を増加させることが可能となる。
また、本実施の形態による物品判別システム1では、抽出された物品情報が短期記憶部37に記憶されている短期記憶情報から所定以上変化した場合に、当該短期記憶情報は短期記憶部37から消去される。
このような構成によれば、映像を構成する複数フレームにおいて抽出された物品情報が所定以上変化した場合には、対象物品Pが変更されたものと判断することができるので、抽出された物品情報を消去してコンピュータの容量の使用量を低減させることが可能となる。
尚、本発明の物品判別システムは、上述した実施の形態に限定されず、特許請求の範囲に記載した範囲で種々の変形や改良が可能である。
例えば、上記実施の形態では、対象人物Zが対象物品Pを持ち上げる動きを検出したが、持ち運ぶ・振り上げる・振り下ろす等の他の動きを検出してもよい。また、物品情報と紐づけられる対象部分の動きは、腕の動きに限定されない。例えば、対象部分を足にすれば、どのような重さ、形状、及び、サイズを有する物品を蹴ったのかを判別することも可能である。
また、上記実施の形態では、サンプル人物Z1(対象人物Z)の検出に当たって、まず、サンプル映像Y1(対象映像Y)に映ったサンプル人物Z1(対象人物Z)を特定したが、必ずしも人物を特定する必要はなく、例えば、手や腕だけ検出するだけでも本発明の物品判別は可能である。
また、対象人物Zの姿勢によって力の入りやすさも異なり、それにより対象部分の動きも異なってくることが考えられる。従って、より高精度に物品を判別するために、物品情報の抽出に当たり、対象人物Zの姿勢を考慮してもよい。なお、この場合には、例えば、学習段階において、公知の方法を用いて、第1の検出部23が、サンプル映像Y1に映ったサンプル人物Z1の姿勢を推定し、学習部24において物品情報と紐づけて学習しておき、判別段階において、学習によって得られたデータを参照して、第2の検出部34により動き及び姿勢の両方に対応する物品情報を抽出すればよい。
また、上記実施の形態では、第1の記憶部21と第2の記憶部32、第1の取得部22と第2の取得部33、及び、第1の検出部23と第2の検出部34は、学習装置2と判別装置3にそれぞれ設けられていたが、これらは共通して使用されてもよい。また、学習装置2と判別装置3は一体であってもよい。これらの場合も本発明の範囲に含まれる。更に、登録部31は、判別装置3と別体であってもよい。
また、学習装置2においてデータ(多数の行動)がある程度蓄積した後は、判別装置3のみを作動させることも可能である。
また、本実施の形態による物品の判別は、対象映像Yに対してリアルタイムで行うのが効果的ではあるが、物品判別システム1の使用目的によっては録画した対象映像Yに対して後から行ってもよい。
また、上記実施の形態では複数の関節の動きに基づいて行動体の行動を検出したが、関節を検出することなく他の方法で行動体の行動を検出してもよい。
また、本発明は、コントローラとしての第1の取得部22、第1の検出部23、学習部24、第2の取得部33、第2の検出部34、抽出部35、及び、判別部36が行う処理に相当するプログラム及び方法や、当該プログラムを記憶した記録媒体にも応用可能である。記録媒体の場合、コンピュータ等に当該プログラムがインストールされることとなる。ここで、当該プログラムを記憶した記録媒体は、非一過性の記録媒体であってもよい。非一過性の記録媒体としては、CD-ROM等が考えられるが、それに限定されるものではない。
1 物品判別システム
2 学習装置
3 判別装置
21 第1の記憶部
22 第1の取得部
23 第1の検出部
24 学習部
31 登録部
32 第2の記憶部
33 第2の取得部
34 第2の検出部
35 抽出部
36 判別部
37 短期記憶部

Claims (13)

  1. サンプル人物がサンプル物品を移動させる際のサンプル映像を取得する第1の取得部と、
    前記サンプル映像に映ったサンプル人物の体の対象部分の動きを検出する第1の検出部と、
    複数のサンプル人物及び複数のサンプル物品に関して、前記第1の検出部により検出された動きを前記サンプル物品の重さ、形状、及び、サイズの少なくとも1つを含む物品情報と紐づけて学習する学習部と、
    物品を、その前記物品情報と紐づけて登録可能な登録部と、
    対象人物が対象物品を移動させる際の対象映像を取得する第2の取得部と、
    前記対象映像に映った対象人物の体の対象部分の動きを検出する第2の検出部と、
    前記学習部を参照して、前記第2の検出部により検出された動きに対応する物品情報を抽出する抽出部と、
    前記登録部を参照して、前記抽出された物品情報に対応する物品を前記対象物品と判別する判別部と、
    を備えたことを特徴とする物品判別システム。
  2. 前記登録部は、物品を、更にその色彩と紐づけて登録可能であり、
    前記第2の検出部は、前記対象人物の前記対象部分に接し、前記対象人物の動きに連動して動く部分の色彩を更に検出し、
    前記判別部は、前記登録部を参照して、前記第2の検出部により検出された色彩、及び、前記抽出された物品情報の両方に対応する物品を前記対象物品と判別することを特徴とする請求項1に記載の物品判別システム。
  3. 前記学習部は、前記第1の検出部により検出された動きを更に前記サンプル人物の体格情報と紐づけて学習し、
    前記第2の検出部は、前記対象映像に映った対象人物の体格を更に検出し、
    前記抽出部は、前記学習部を参照して、前記第2の検出部により検出された動き及び体格の両方に対応する物品情報を抽出することを特徴とする請求項1に記載の物品判別システム。
  4. 前記学習部は、前記第1の検出部により検出された動きを更に前記サンプル人物の姿勢と紐づけて学習し、
    前記第2の検出部は、前記対象映像に映った対象人物の姿勢を更に検出し、
    前記抽出部は、前記学習部を参照して、前記第2の検出部により検出された動き及び姿勢の両方に対応する物品情報を抽出することを特徴とする請求項1に記載の物品判別システム。
  5. 前記抽出された物品情報を短期記憶情報として記憶可能な短期記憶部を更に備え、
    前記抽出された物品情報が前記短期記憶部に記憶されている短期記憶情報から所定以上変化した場合に、前記短期記憶情報は前記短期記憶部から消去されることを特徴とする請求項1に記載の物品判別システム。
  6. 物品を、その物品情報と紐づけて登録可能なコンピュータに実行させるプログラムであって、
    サンプル人物がサンプル物品を移動させる際のサンプル映像を取得するステップと、
    前記サンプル映像に映ったサンプル人物の体の対象部分の動きを検出するステップと、
    複数のサンプル人物及び複数のサンプル物品に関して、前記検出されたサンプル人物の体の対象部分の動きを前記サンプル物品の重さ、形状、及び、サイズの少なくとも1つを含む物品情報と紐づけて学習するステップと、
    対象人物が対象物品を移動させる際の対象映像を取得するステップと、
    前記対象映像に映った対象人物の体の対象部分の動きを検出するステップと、
    前記学習によって得られたデータを参照して、前記検出された前記対象人物の体の対象部分の動きに対応する物品情報を抽出するステップと、
    前記コンピュータに登録された物品とその物品情報との紐づけデータを参照して、前記抽出された物品情報に対応する物品を前記対象物品と判別するステップ部と、
    を備えたことを特徴とする物品判別プログラム。
  7. 物品を、その物品情報と紐づけて登録可能なコンピュータで実行される方法であって、
    サンプル人物がサンプル物品を移動させる際のサンプル映像を取得するステップと、
    前記サンプル映像に映ったサンプル人物の体の対象部分の動きを検出するステップと、
    複数のサンプル人物及び複数のサンプル物品に関して、前記検出されたサンプル人物の体の対象部分の動き動きを前記サンプル物品の重さ、形状、及び、サイズの少なくとも1つを含む物品情報と紐づけて学習するステップと、
    対象人物が対象物品を移動させる際の対象映像を取得するステップと、
    前記対象映像に映った対象人物の体の対象部分の動きを検出するステップと、
    前記学習によって得られたデータを参照して、前記検出された前記対象人物の体の対象部分の動きに対応する物品情報を抽出するステップと、
    前記コンピュータに登録された物品とその物品情報との紐づけデータを参照して、前記抽出された物品情報に対応する物品を前記対象物品と判別するステップ部と、
    を備えたことを特徴とする物品判別方法。
  8. サンプル人物がサンプル物品を移動させる際のサンプル映像を取得する第1の取得部と、前記サンプル映像に映ったサンプル人物の体の対象部分の動きを検出する第1の検出部と、複数のサンプル人物及び複数のサンプル物品に関して、前記第1の検出部により検出された動きを前記サンプル物品の重さ、形状、及び、サイズの少なくとも1つを含む物品情報と紐づけて学習する学習部と、を有する学習装置と通信可能な物品判別装置であって、
    物品を、その前記物品情報と紐づけて登録可能な登録部と、
    対象人物が対象物品を移動させる際の対象映像を取得する第2の取得部と、
    前記対象映像に映った対象人物の体の対象部分の動きを検出する第2の検出部と、
    前記学習部を参照して、前記第2の検出部により検出された動きに対応する物品情報を抽出する抽出部と、
    前記登録部を参照して、前記抽出された物品情報に対応する物品を前記対象物品と判別する判別部と、
    を備えたことを特徴とする物品判別装置。
  9. サンプル人物がサンプル物品を移動させる際のサンプル映像を取得する第1の取得部と、前記サンプル映像に映ったサンプル人物の体の対象部分の動きを検出する第1の検出部と、複数のサンプル人物及び複数のサンプル物品に関して、前記第1の検出部により検出された動きを前記サンプル物品の重さ、形状、及び、サイズの少なくとも1つを含む物品情報と紐づけて学習する学習部と、物品を、その前記物品情報と紐づけて登録可能な登録部と、を有する学習装置と通信可能、かつ、物品を、その物品情報と紐づけて登録可能なコンピュータに実行させるプログラムであって、
    対象人物が対象物品を移動させる際の対象映像を取得するステップと、
    前記対象映像に映った対象人物の体の対象部分の動きを検出するステップと、
    前記学習によって得られたデータを参照して、前記検出された前記対象人物の体の対象部分の動きに対応する物品情報を抽出するステップと、
    前記コンピュータに登録された物品とその物品情報との紐づけデータを参照して、前記抽出された物品情報に対応する物品を前記対象物品と判別するステップ部と、
    を備えたことを特徴とする物品判別プログラム。
  10. サンプル人物がサンプル物品を移動させる際のサンプル映像を取得する第1の取得部と、前記サンプル映像に映ったサンプル人物の体の対象部分の動きを検出する第1の検出部と、複数のサンプル人物及び複数のサンプル物品に関して、前記第1の検出部により検出された動きを前記サンプル物品の重さ、形状、及び、サイズの少なくとも1つを含む物品情報と紐づけて学習する学習部と、物品を、その前記物品情報と紐づけて登録可能な登録部と、を有する学習装置と通信可能、かつ、物品を、その物品情報と紐づけて登録可能なコンピュータで実行される方法であって、
    対象人物が対象物品を移動させる際の対象映像を取得するステップと、
    前記対象映像に映った対象人物の体の対象部分の動きを検出するステップと、
    前記学習によって得られたデータを参照して、前記検出された前記対象人物の体の対象部分の動きに対応する物品情報を抽出するステップと、
    前記コンピュータに登録された物品とその物品情報との紐づけデータを参照して、前記抽出された物品情報に対応する物品を前記対象物品と判別するステップ部と、
    を備えたことを特徴とする物品判別方法。
  11. サンプル人物がサンプル物品を移動させる際のサンプル映像を取得する第1の取得部と、
    前記サンプル映像に映ったサンプル人物の体の対象部分の動きを検出する第1の検出部と、
    複数のサンプル人物及び複数のサンプル物品に関して、前記第1の検出部により検出された動きを前記サンプル物品の重さ、形状、及び、サイズの少なくとも1つを含む物品情報と紐づけて学習する学習部と、
    を備え、
    物品を、その前記物品情報と紐づけて登録可能な登録部と、対象人物が対象物品を移動させる際の対象映像を取得する第2の取得部と、前記対象映像に映った対象人物の体の対象部分の動きを検出する第2の検出部と、前記学習部を参照して、前記第2の検出部により検出された動きに対応する物品情報を抽出する抽出部と、前記登録部を参照して、前記抽出された物品情報に対応する物品を前記対象物品と判別する判別部と、を有する物品判別装置と通信可能であることを特徴とする学習装置。
  12. コンピュータに実行させるプログラムであって、
    サンプル人物がサンプル物品を移動させる際のサンプル映像を取得するステップと、
    前記サンプル映像に映ったサンプル人物の体の対象部分の動きを検出するステップと、
    複数のサンプル人物及び複数のサンプル物品に関して、前記検出されたサンプル人物の体の対象部分の動きを前記サンプル物品の重さ、形状、及び、サイズの少なくとも1つを含む物品情報と紐づけて学習するステップと、
    を備え、
    物品を、その前記物品情報と紐づけて登録可能な登録部と、対象人物が対象物品を移動させる際の対象映像を取得する第2の取得部と、前記対象映像に映った対象人物の体の対象部分の動きを検出する第2の検出部と、前記学習するステップで得られたデータを参照して、前記第2の検出部により検出された動きに対応する物品情報を抽出する抽出部と、前記登録部を参照して、前記抽出された物品情報に対応する物品を前記対象物品と判別する判別部と、を有する物品判別装置と通信可能であることを特徴とする学習プログラム。
  13. コンピュータで実行される方法であって、
    サンプル人物がサンプル物品を移動させる際のサンプル映像を取得するステップと、
    前記サンプル映像に映ったサンプル人物の体の対象部分の動きを検出するステップと、
    複数のサンプル人物及び複数のサンプル物品に関して、前記検出されたサンプル人物の体の対象部分の動きを前記サンプル物品の重さ、形状、及び、サイズの少なくとも1つを含む物品情報と紐づけて学習するステップと、
    を備え、
    物品を、その前記物品情報と紐づけて登録可能な登録部と、対象人物が対象物品を移動させる際の対象映像を取得する第2の取得部と、前記対象映像に映った対象人物の体の対象部分の動きを検出する第2の検出部と、前記学習するステップで得られたデータを参照して、前記第2の検出部により検出された動きに対応する物品情報を抽出する抽出部と、前記登録部を参照して、前記抽出された物品情報に対応する物品を前記対象物品と判別する判別部と、を有する物品判別装置と通信可能であることを特徴とする学習方法。
JP2022097098A 2022-06-16 2022-06-16 物品判別システム Active JP7239120B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022097098A JP7239120B1 (ja) 2022-06-16 2022-06-16 物品判別システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022097098A JP7239120B1 (ja) 2022-06-16 2022-06-16 物品判別システム

Publications (2)

Publication Number Publication Date
JP7239120B1 true JP7239120B1 (ja) 2023-03-14
JP2023183533A JP2023183533A (ja) 2023-12-28

Family

ID=85556210

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022097098A Active JP7239120B1 (ja) 2022-06-16 2022-06-16 物品判別システム

Country Status (1)

Country Link
JP (1) JP7239120B1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007216381A (ja) 2004-07-13 2007-08-30 Matsushita Electric Ind Co Ltd ロボット
JP2021184540A (ja) 2020-05-22 2021-12-02 国立大学法人 東京大学 モーションキャプチャ・カメラシステム、及び、当該カメラシステムを用いた動画データ取得方法。

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007216381A (ja) 2004-07-13 2007-08-30 Matsushita Electric Ind Co Ltd ロボット
JP2021184540A (ja) 2020-05-22 2021-12-02 国立大学法人 東京大学 モーションキャプチャ・カメラシステム、及び、当該カメラシステムを用いた動画データ取得方法。

Also Published As

Publication number Publication date
JP2023183533A (ja) 2023-12-28

Similar Documents

Publication Publication Date Title
CN111415461B (zh) 物品识别方法及系统、电子设备
Kwolek et al. Improving fall detection by the use of depth sensor and accelerometer
JP6013241B2 (ja) 人物認識装置、及び方法
TWI778030B (zh) 店鋪裝置、店鋪管理方法及程式
JP6464737B2 (ja) 見込み客位置情報検出システム、方法およびプログラム
TWI438702B (zh) 影像環境邊界之動態設定方法及人員活動內容之即時判定方法
JPWO2019038968A1 (ja) 店舗装置、店舗システム、店舗管理方法、プログラム
CN110674680B (zh) 活体识别的方法、装置、存储介质
US11238597B2 (en) Suspicious or abnormal subject detecting device
KR20190068000A (ko) 다중 영상 환경에서의 동일인 재식별 시스템
WO2020195376A1 (ja) 監視装置、不審オブジェクト検出方法、および記録媒体
CN107341379A (zh) 屏幕解锁方法及装置、电子装置和计算机可读存储介质
AU2020300066B2 (en) Systems and methods for determining actions performed by objects within images
JP7239120B1 (ja) 物品判別システム
KR101355206B1 (ko) 영상분석을 이용한 출입 계수시스템 및 그 방법
KR102504320B1 (ko) 감시카메라 환경에서 다중 특징 정보를 이용한 쓰레기 투기 행위자 탐지 시스템 및 방법
JP6713153B1 (ja) 情報処理装置、情報処理方法、プログラム及びカメラシステム
Htoo et al. Privacy preserving human fall recognition using human skeleton data
WO2023209809A1 (ja) 情報処理装置、情報処理方法、情報処理システム及び記録媒体
WO2023209955A1 (ja) 情報処理装置、情報処理方法及び記録媒体
WO2023192666A1 (en) System and method for multiview product detection and recognition
CN116553327A (zh) 一种家用电梯轿厢内乘客摔倒检测方法及装置
CN115565138A (zh) 物流区域的抽烟行为管控方法、装置、设备及存储介质
CN114463850A (zh) 一种适用于多种应用场景的人体动作识别系统
CN111832350A (zh) 服装试穿检测方法及系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230106

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230221

R150 Certificate of patent or registration of utility model

Ref document number: 7239120

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150