JP7342489B2 - 重量推定装置、重量推定方法、および重量推定プログラム - Google Patents

重量推定装置、重量推定方法、および重量推定プログラム Download PDF

Info

Publication number
JP7342489B2
JP7342489B2 JP2019136145A JP2019136145A JP7342489B2 JP 7342489 B2 JP7342489 B2 JP 7342489B2 JP 2019136145 A JP2019136145 A JP 2019136145A JP 2019136145 A JP2019136145 A JP 2019136145A JP 7342489 B2 JP7342489 B2 JP 7342489B2
Authority
JP
Japan
Prior art keywords
image data
weight
person
posture
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019136145A
Other languages
English (en)
Other versions
JP2021021973A (ja
Inventor
章記 海老原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2019136145A priority Critical patent/JP7342489B2/ja
Publication of JP2021021973A publication Critical patent/JP2021021973A/ja
Application granted granted Critical
Publication of JP7342489B2 publication Critical patent/JP7342489B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、重量推定装置等に関し、たとえば、人物により伴われている荷物の重量を推定する重量推定装置等の技術に関する。
近年、例えば、重い荷物を持って移動する人や、具合が悪くなって座り込む人や、足元のおぼつかない高齢者などに適切な支援を行うために、人の姿勢、動作または挙動を認識しようとする技術が、特許文献1で紹介されている。
特許文献1に記載の技術では、認識対象の人物が行った動作から、その動作に最も近い基本動作をデータベースの検索により探すことによって、認識対象の人物がどの基本動作を行ったかを認識している。
すなわち、特許文献1に記載の技術では、まず、人物の基本動作ごとの画像データが、予めデータベース化される。また、認識対象の人物の画像データと、基本動作ごとの画像データとが比較される。そして、基本動作ごとの画像データのうちで、認識対象の人物の画像データに最も近い画像データが選ばれる。これにより、認識対象の人物の動作が特定の基本動作をして認識される。
なお、本発明に関連する技術が、特許文献2-5および非特許文献1にも開示されている。
特開2009-176059号公報 国際公開第2018/084191号 特開2018-005520号公報 特開2015-043866号公報 国際公開第2017/187641号
A.Krizhevsky, I.Sutskever, G.Hinton, "ImageNet Classification with Deep Convolutional Neural Networks", Conference on Neural Information Processing Systems (NIPS), 2012
ここで、特許文献1に記載の技術では、認識対象の人物の動作が、予め設定された基本動作のどれかに該当するか否かを認識することができる。すなわち、特許文献1に記載の技術では、たとえば、荷物を持っている動作が基本動作として予め登録されているため、認識対象の人物が荷物を持っている場合に、認識対象の人物の動作が荷物を持っている動作であることを認識することができる。しかしながら、特許文献1に記載の技術では、認識対象の人物の動作が荷物を持っている動作であることを認識することができるが、認識対象の人物がどの程度の重量の荷物を持っているかまでは認識することはできないという問題があった。
本発明は、このような事情を鑑みてなされたものであり、本発明の目的は、認識対象の人物により伴われている荷物の重量を推定することができる重量推定装置を提供することにある。
本発明の重量推定装置は、画像データを取得する画像データ取得部と、前記画像データ取得部により取得された画像データから、荷物を伴う認識対象人物が映る画像領域の画像データを人物画像データとして抽出する特定画像データ抽出部と、前記人物画像データに基づいて、前記認識対象人物の姿勢に関する姿勢情報を生成する姿勢情報生成部と、前記姿勢情報に基づいて、前記認識対象人物により伴われている前記荷物の重量を推定する重量推定部とを備えている。
本発明の重量推定方法は、画像データを取得する画像データ取得ステップと、前記取得された画像データから、荷物を伴う認識対象人物が映る画像領域の画像データを人物画像データとして抽出する人物画像データ抽出ステップと、前記人物画像データに基づいて、前記認識対象人物の姿勢に関する姿勢情報を生成する姿勢情報生成ステップと、前記姿勢情報に基づいて、前記認識対象人物により伴われている前記荷物の重量を推定する重量推定ステップとを含んでいる。
本発明の重量推定プログラムは、画像データを取得する画像データ取得ステップと、前記取得された画像データから、荷物を伴う認識対象人物が映る画像領域の画像データを人物画像データとして抽出する人物画像データ抽出ステップと、前記人物画像データに基づいて、前記認識対象人物の姿勢に関する姿勢情報を生成する姿勢情報生成ステップと、前記姿勢情報に基づいて、前記認識対象人物により伴われている前記荷物の重量を推定する重量推定ステップとを含む処理を、コンピュータに実行させる。
本発明によれば、画像データから、認識対象の人物により伴われている荷物の重量を推定することができる。
本発明の第1の実施の形態における重量推定装置の構成を含むブロック図である。 画像データ内の荷物および人物を特定画像データ抽出部によって検出した結果を示す図である。 画像データ内の荷物および人物を特定画像データ抽出部によって検出した結果を示す図である。 認識対象人物の骨格姿勢の推定結果の一例を示す図である。 姿勢基準情報記憶部に記憶されている姿勢基準情報の一例を示す図である。 本発明の第1の実施の形態における重量推定装置の動作フローを示す図である。 本発明の第2の実施の形態における重量推定装置の構成を含むブロック図である。 本発明の第2の実施の形態における重量推定装置の動作フローを示す図である。 本発明の第3の実施の形態における重量推定装置の構成を含むブロック図である。 本発明の第3の実施の形態における重量推定装置の動作フローを示す図である。 本発明の第4の実施の形態における重量推定装置の構成を示すブロック図である。 本発明の第4の実施の形態における重量推定装置の動作フローを示す図である。
<第1の実施の形態>
本発明の第1の実施の形態における重量推定装置100について、図に基づいて説明する。
まず、重量推定装置100の構成を中心に説明する。図1は、重量推定装置100の構成を含むブロック図である。図1を参照して、重量推定装置100は、画像データ取得部110と、特定画像データ抽出部120と、姿勢情報生成部130と、重量推定部140と、出力部190とを備えている。撮像部200は、重量推定装置100の画像データ取得部110に接続されている。姿勢基準情報記憶部300は、重量推定部140に接続されている。ここで、撮像部200および姿勢基準情報記憶部300は、本実施の形態における発明において必須の構成要件ではない。
また、画像データ取得部110、特定画像データ抽出部120、姿勢情報生成部130、重量推定部140、撮像部200および姿勢基準情報記憶部300は、画像データ取得手段、特定画像データ抽出手段、姿勢情報生成手段、重量推定手段、撮像手段および姿勢基準情報記憶手段の一例である。
画像データ取得部110は、画像データを取得する。より具体的には、画像データ取得部110は、カメラなどの撮像部200により撮像された画像データを取得する。なお、撮像部200は、撮像対象を主に人物としている。また、撮像部200は、たとえば、空港、学校、図書館、病院、市民会館、ショッピングセンター、会社などの施設や、道路や、歩道などに、設置されている。撮像部200および画像データ取得部110は、有線または無線により通信接続されている。画像データ取得部110は、撮像部200により撮像された画像データを、有線または無線の通信によって、撮像部200から取得する。なお、画像データ取得部110は、撮像部200により撮像された画像データを、直接的に撮像部200から取得しなくてもよい。すなわち、画像データ取得部110は、撮像部200により撮像された画像データを、間接的に撮像部200から取得してもよい。この場合、たとえば、撮像部200により撮像された画像データは、一旦、記憶部(図1にて不図示)に保存される。そして、画像データ取得部110は、撮像部200により撮像された画像データを、記憶部から取得する。
特定画像データ抽出部120は、画像データ取得部110により取得された画像データから、荷物を伴う認識対象人物が映る画像領域の画像データを人物画像データとして抽出する。
具体的には、特定画像データ抽出部120は、たとえば、特許文献3に記載の畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)を使用して、特定の物体として、荷物および人物をそれぞれ検出する。そして、特定画像データ抽出部120は、荷物および人物の検出結果に基づいて、荷物を伴う認識対象人物が映る画像領域の画像データを人物画像データとして抽出する。また、特定画像データ抽出部120は、荷物および人物の検出結果に基づいて、認識対象人物により伴われている荷物を荷物画像データとして抽出する。ただし、特定画像データ抽出部120は、荷物および人物の検出結果に基づいて、人物画像データのみを抽出し、荷物画像データを抽出しなくてもよい。
ここで、特定画像データ抽出部120が人物画像データおよび荷物画像データを抽出する動作を説明する。図2~図3は、画像データ内の荷物および人物を特定画像データ抽出部120によって検出した結果を示す図である。図2~図3では、ともに、地下鉄内のホームに設置されたカメラにより撮像された画像データに、荷物および人物を特定画像データ抽出部120によって検出した結果が、重畳して例示されている。
図2~図3を参照して、特定画像データ抽出部120は、荷物および人物が映る画像領域を、人物領域HA(Human Area)および荷物領域LA(Laggege Area)として、画像データからそれぞれ検出する。なお、図2~図3では、点線で囲われた領域を人物領域HAとし、一点鎖線で囲われた領域を荷物領域LAとして、示している。
また、特定画像データ抽出部120は、荷物領域HAおよび人物領域LAの間で重複領域を有する場合の人物領域LAを、荷物を伴う認識対象人物が映る画像領域として認識する。そして、特定画像データ抽出部120は、画像データから、人物領域の画像データ(荷物を伴う認識対象人物が映る画像領域の画像データ)を、人物画像データとして抽出する。
姿勢情報生成部130は、特定画像データ抽出部120により抽出された人物画像データに基づいて、姿勢情報を生成する。なお、姿勢情報生成部130は、特定画像データ抽出部120により抽出された人物画像データに加えて、荷物画像データをも用いて、姿勢情報を生成してもよい。
ここで、姿勢情報とは、認識対象人物の姿勢に関する情報であって、たとえば、認識対象人物の腰や膝の曲がり具合(曲がり角度等)などである。姿勢情報生成部130は、たとえば、特許文献4-5に記載の骨格姿勢推定技術を用いて、認識対象人物の骨格姿勢を推定し、推定された骨格姿勢に基づいて、腰の曲がり具合(曲がり角度等)を姿勢情報として生成する。
図4は、認識対象人物の骨格姿勢の推定結果の一例を示す図である。図4を参照して、骨格姿勢は、たとえば、認識対象人物の頭部、首部、肩部、肘部、手首部、腰部、膝部および足首部の位置を表す白丸部と、各部位を接続する直線部とによって、表される。すなわち、姿勢情報生成部130は、特定画像データ抽出部120により抽出された人物画像データに基づいて、認識対象人物の頭部、首部、肩部、肘部、手首部、腰部、膝部および足首部の位置を表す白丸部と、各部位を接続する直線部と用いて表した骨格姿勢を、推定結果として出力する。
そして、姿勢情報生成部130は、推定された骨格姿勢に基づいて、腰の曲がり具合(曲がり角度等)を姿勢情報として生成する。なお、ここでの腰の曲がり角度は、首部と腰部と結ぶ直線aと、腰部と膝部とを結ぶ直線b1、b2とがなす角度とする。このとき、直線aおよび直線b1がなす角度と、直線aおよび直線b2がなす角度との平均値を、腰の曲がり角度とする。ただし、これに限らず、たとえば、直線aおよび直線b1がなす角度と、直線aおよび直線b2がなす角度のうちで、大きい方または小さい方の角度を、腰の曲がり角度としてもよい。
重量推定部140は、姿勢基準情報記憶部300に、有線または無線により通信接続されている。重量推定部140は、姿勢情報生成部130により生成された姿勢情報に基づいて、認識対象人物により伴われている荷物の重量を推定する。ここでは、重量推定部140は、姿勢基準情報記憶部300に記憶されている姿勢基準情報と、姿勢情報生成部130により生成された姿勢情報とに基づいて、認識対象人物により伴われている荷物の重量を推定する。
より具体的には、まず、重量推定部140は、姿勢基準情報記憶部300に記憶されている姿勢基準情報を、有線または無線の通信によって、姿勢基準情報記憶部300から取得する。そして、重量推定部140は、姿勢基準情報記憶部300から取得された姿勢基準情報と、姿勢情報生成部130により生成された姿勢情報とに基づいて、認識対象人物により伴われている荷物の重量を推定する。より詳細には、重量推定部140は、姿勢基準情報記憶部300から取得された姿勢基準情報と、姿勢情報生成部130により生成された姿勢情報とを比較した結果に基づいて、認識対象人物により伴われている荷物の重量を推定する。
なお、重量推定部140は、姿勢基準情報を、直接的に姿勢基準情報記憶部300から取得しなくてもよい。すなわち、重量推定部140は、姿勢基準情報を、間接的に姿勢基準情報記憶部300から取得してもよい。この場合、たとえば、姿勢基準情報は、姿勢基準情報記憶部300から、重量推定装置100に予め設けられたメモリ(図1にて不図示)に、一時的に記憶される。そして、重量推定部140は、姿勢基準情報を、姿勢基準情報記憶部300から、メモリを介して、取得する。
つぎに、姿勢基準情報記憶部300に記憶されている姿勢基準情報について、説明する。図5は、姿勢基準情報記憶部300に記憶されている姿勢基準情報の一例を示す図である。
ここで、姿勢基準情報とは、たとえば、荷物を伴う人物の基準姿勢に関して、荷物の重量ごとに予め設定された情報である。すなわち、姿勢基準情報は、荷物を伴う人物の基準姿勢を荷物の重量ごとに特定した後、特定された基準姿勢と荷物の重量を互いに対応付けることにより、予め設定される。具体的には、特定の人物に様々な重量の荷物を伴わせて、荷物の重量ごとに特定の人物の姿を撮像部200により予め撮像する。ここでの基準姿勢とは、荷物を伴う人物がとる一般的な姿勢をいい、たとえば、荷物を肩にかける姿勢や、荷物を背負う姿勢である。また、姿勢情報抽出部130によって、撮像部200により撮像された特定の人物の姿から、姿勢情報を基準姿勢として抽出する。そして、基準姿勢と荷物の重量とを互いに対応つけることにより、姿勢基準情報として設定される。なお、姿勢基準情報は、肩掛け型のバッグ、バックパック型のバッグ、段ボール箱、手提げバッグ、キャリーケース型のバッグなど、荷物の種類ごとに設定されてもよい。
なお、上述の通り、姿勢情報とは、認識対象人物(特定の人物も含む。)の姿勢に関する情報であって、たとえば、認識対象人物の腰や膝の曲がり具合(曲がり具合は、たとえば、曲がり角度等)などである。
ここでは、特定の人物は、たとえば、標準的な体重である人物とする。ただし、姿勢基準情報は、年齢や性別や体型ごとに設定されてもよい。
図5を参照して、姿勢基準情報記憶部300には、姿勢基準情報の一例として、基準姿勢(腰の曲がり角度)と、荷物の重量との関係の対応表が記憶されている。図5を参照して、たとえば、基準姿勢(腰の曲がり角度)が180°の場合、荷物の重量を5kg以下と対応つけられている。同様に、基本姿勢が160°、140°、120°の場合、荷物の重量を10kg、20kg、30kgと対応付けられている。
図5を参照して、重量推定部140の具体的な動作を説明する。重量推定部140は、姿勢基準情報記憶部300から、姿勢基準情報を取得する。そして、重量推定部140は、姿勢基準情報記憶部300から取得された姿勢基準情報と、姿勢情報生成部130により生成された姿勢情報とを比較した結果に基づいて、認識対象人物により伴われている荷物の重量を推定する。
すなわち、たとえば、姿勢情報生成部130により生成された姿勢情報が160°であった場合、重量推定部140は、姿勢基準情報記憶部300から取得された姿勢基準情報と、姿勢情報生成部130により生成された姿勢情報(腰の曲がり角度)である160°とを比較する。また、重量推定部140は、姿勢情報(腰の曲がり角度)160°に対応する荷物の重量である10kgを抽出する。そして、重量推定部140は、認識対象人物により伴われている荷物の推定重量を、10kgと推定する。
図1に戻って、出力部190は、重量推定部140により推定された荷物の重量に関する情報を出力する。出力部190は、重量推定部140により推定された荷物の重量に関する情報として、たとえば、の荷物の推定重量を出力する。
また、出力部190は、重量推定部140により推定された荷物の重量が所定値以上の場合に、重量推定部140により推定された荷物の重量が所定値以上であることを通知してもよい。この所定値は、たとえば、体型、体格や、荷物の種類に応じて、設定することができる。
また、出力部190は、重量推定部140により推定された荷物の重量が所定値以上の場合に、所定値以上の重量の荷物を伴った人物が存在することを通知してもよい。この場合も、所定値は、たとえば、体型、体格や、荷物の種類に応じて、設定することができる。
つぎに、重量推定装置100の動作について説明する。図6は、重量推定装置100の動作フローを示す図である。
図6を参照して、まず、画像データ取得部110は、画像データを取得する(図6のステップ(Step:以下、Sと称する)10)。より具体的には、画像データ取得部110は、カメラなどの撮像部200により撮像された画像データを取得する。
つぎに、特定画像データ抽出部120は、画像データ取得部110により取得された画像データから、荷物を伴う認識対象人物が映る画像領域の画像データを人物画像データとして抽出する(図6のS20)。具体的には、特定画像データ抽出部120は、たとえば、特許文献3に記載の畳み込みニューラルネットワーク(CNN)を使用して、特定の物体として、荷物および人物をそれぞれ検出する。そして、特定画像データ抽出部120は、荷物および人物の検出結果に基づいて、荷物を伴う認識対象人物が映る画像領域の画像データを人物画像データとして抽出する。
つぎに、姿勢情報生成部130は、特定画像データ抽出部120により抽出された人物画像データに基づいて、姿勢情報を生成する(図6のS30)。なお、前述の通り、姿勢情報生成部130は、特定画像データ抽出部120により抽出された人物画像データに加えて、荷物画像データをも用いて、姿勢情報を生成してもよい。前述の通り、姿勢情報生成部130は、姿勢情報として、たとえば、認識対象人物の腰の曲がり具合(曲がり角度)を取得する。
つぎに、重量推定部140は、姿勢情報生成部130により生成された姿勢情報に基づいて、認識対象人物により伴われている荷物の重量を推定する(図6のS40)。前述の通り、より具体的には、重量推定部140は、姿勢基準情報記憶部300に記憶されている姿勢基準情報と、姿勢情報生成部130により生成された姿勢情報とを比較した結果に基づいて、認識対象人物により伴われている荷物の重量を推定する。前述の通り、たとえば、重量推定部140は、基準姿勢および荷物の重量が互いに対応付けられた姿勢基準情報と、姿勢情報生成部130により生成された姿勢情報とを比較して、姿勢情報生成部130により生成された姿勢情報(図5にて、たとえば、腰曲がり角度160°)に対応する荷物の重量(図5にて、たとえば、10kg)を抽出する。
そして、出力部190は、重量推定部140により推定された荷物の重量を出力する(S50)。出力部190には、たとえば、液晶表示装置や有機EL表示装置やプラズマディスプレイなどの表示部や、スピーカなどが用いられる。出力部190が表示部の場合、出力部190は荷物の重量を表示する。出力部190がスピーカの場合、出力部190は荷物の重量を音声出力する。
なお、姿勢基準情報には、腰の曲がり角度以外に、たとえば、特許文献4-5に記載の骨格姿勢推定技術を用いて推定された骨格姿勢そのものを用いてもよい。この場合、図5において、荷物の重量に対応して記憶される姿勢情報は、図4に相当する骨格姿勢となる。
また、上述した各処理の一部または全部を、インテリジェントカメラに行わせてもよい。インテリジェントカメラは、たとえば、CPU(Central Processing Unit)やプロセッサなどの解析機能を内部に搭載し、画像の入力だけでなく画像処理も内部で行えるIP(Internet Protocol)カメラやネットワークカメラである。IPカメラやネットワークカメラは、カメラとコンピュータが一体化したものであり、カメラ自体が個々にIP(Internet Protocol)アドレスを持っている。なお、インテリジェントカメラは、スマートカメラとも呼ばれている。
この場合において、インテリジェントカメラが、撮像部200および画像データ取得部110の双方の機能を有し、画像データを取得してもよい。また、インテリジェントカメラが、撮像部200および特定画像データ抽出部120の機能を有し、荷物を伴っている人物を抽出してもよい。また、インテリジェントカメラが、撮像部200および姿勢情報生成部130の機能を有し、姿勢情報を生成してもよい。また、インテリジェントカメラが、重量推定部140の機能を有し、認識対象人物により伴われている荷物の重量を推定してもよい。また、インテリジェントカメラが、重量推定装置100の全ての機能を有し、重量推定装置100の全ての機能を実行してもよい。
以上の通り、本発明の第1の実施の形態における重量推定装置100は、画像データ取得部110と、特定画像データ抽出部120と、姿勢情報生成部130と、重量推定部140とを備えている。画像データ取得部110は、画像データを取得する。特定画像データ抽出部120は、画像データ取得部110により取得された画像データから、荷物を伴う認識対象人物が映る画像領域の画像データを人物画像データとして抽出する。姿勢情報生成部130は、人物画像データに基づいて、認識対象人物の姿勢に関する姿勢情報を生成する。重量推定部140は、姿勢情報に基づいて、認識対象人物により伴われている荷物の重量を推定する。
このように、重量推定装置100では、姿勢情報生成部130は、人物画像データに基づいて、認識対象人物の姿勢に関する姿勢情報を生成する。また、重量推定部140は、姿勢情報に基づいて、認識対象人物により伴われている荷物の重量を推定する。これにより、重量推定装置100では、画像データから、認識対象の人物により伴われている荷物の重量を推定することができる。
以上の通り、本発明の第1の実施の形態における重量推定装置100によれば、画像データから、認識対象の人物により伴われている荷物の重量を推定することができる。
また、認識対象の人物により伴われている荷物の重量を推定することができるので、たとえば、重い荷物を伴っている人物を特定することができる。これにより、重い荷物を伴っている人物を、たとえば、荷物を代わりに持つ等の支援が必要な者や、危険物を所持している不審者として、認識することができる。そして、荷物を代わりに持つ等の支援が必要な者に対しては、たとえば、荷物を運ぶ補助者を派遣するなど、適切な支援を提供することができる。危険物を所持している不審者に対しては、たとえば、警備員を派遣したり、警察に通報したりすることができる。
また、本発明の第1の実施の形態における重量推定装置100において、重量推定部140は、姿勢基準情報を取得し、姿勢基準情報と姿勢情報とを比較した結果に基づいて、認識対象人物により伴われている荷物の重量を推定する。なお、姿勢基準情報とは、荷物を伴う人物の基準姿勢に関して荷物の重量ごとに予め設定された情報である。
このように、重量推定部140は、予め設定された姿勢基準情報と姿勢情報とを比較した結果に基づいて、認識対象人物により伴われている荷物の重量を推定する。したがって、たとえば、肩掛け型のバッグ、バックパック型のバッグ、段ボール箱、手提げバッグ、キャリーケース型のバッグなど、荷物の種類ごとに姿勢基準情報を設定することにより、認識対象人物により伴われている荷物の重量を荷物の種類に応じて適切に推定することができる。
また、本発明の第1の実施の形態における重量推定装置100において、出力部190は、重量推定部140により推定された荷物の重量に関する情報を出力する。出力部190には、たとえば、荷物の重量を出力する。これにより、認識対象人物により伴われている荷物の重量の推定値を、出力部190の出力結果によって、知ることができる。
また、本発明の第1の実施の形態における重量推定装置100において、出力部190は、重量推定部140により推定された荷物の重量が所定値以上の場合に、重量推定部140により推定された荷物の重量が所定値以上であることを通知してもよい。これにより、所定値以上の重さの荷物を特定することができる。たとえば、お年寄りが利用する施設では、所定値を一般人の場合と比較して低めに設定することで、お年寄りが利用する施設に対応して、所定値以上の荷物を特定することができる。
また、本発明の第1の実施の形態における重量推定装置100において、出力部190は、重量推定部140により推定された荷物の重量が所定値以上の場合に、所定値以上の重量の荷物を伴った人物が存在することを通知してもよい。これにより、所定値以上の重さの荷物を伴っている人物の存在を知ることができる。
また、本発明の第1の実施の形態における重量推定装置100において、重量推定部140は、所定時間毎に、認識対象人物により伴われている前記荷物の重量を推定する。また、出力部190は、重量推定部140により所定時間毎に推定された荷物の重量の時間的変化量に応じて、認識対象人物に伴われている荷物に重量に変化があったことを通知する。具体的には、荷物の重量の時間的変化量に所定の閾値を設ける。そして、出力部190は、重量推定部140により所定時間毎に推定された荷物の重量の時間的変化量が所定の閾値以上であった場合に、認識対象人物に伴われている荷物に重量に変化があったことを通知する。これにより、荷物の重量に変化があった人物を見つけることができる。たとえば、トイレの入り口付近に撮影部110を設置した場合、トイレから出た時の荷物の重量がトイレに入った時の荷物の重量よりも少ない場合、当該荷物を伴ってトイレに出入りした人物を見つけることができる。これにより、たとえば、重量の重い危険物(化学兵器や爆弾)のトイレへの置き去りを検知することができる。
また、本発明の第1の実施の形態における重量推定方法は、画像データ取得ステップと、人物画像データ抽出ステップと、姿勢情報生成ステップと、重量推定ステップとを含む。画像データ取得ステップでは、画像データを取得する。人物画像データ抽出ステップでは、前記取得された画像データから、荷物を伴う認識対象人物が映る画像領域の画像データを人物画像データとして抽出する。姿勢情報生成ステップでは、人物画像データに基づいて、認識対象人物の姿勢に関する姿勢情報を生成する。重量推定ステップでは、前記姿勢情報に基づいて、前記認識対象人物により伴われている前記荷物の重量を推定する。
このような重量推定方法によっても、上述した重量推定装置100と同様の効果を奏することができる。
また、本発明の第1の実施の形態における重量推定プログラムは、画像データ取得ステップと、人物画像データ抽出ステップと、姿勢情報生成ステップと、重量推定ステップとを含む処理を、コンピュータに実行させる。
このような重量推定プログラムによっても、上述した重量推定装置100と同様の効果を奏することができる。
また、本発明の第1の実施の形態における記憶媒体は、画像データ取得ステップと、人物画像データ抽出ステップと、姿勢情報生成ステップと、重量推定ステップとを含む処理を、コンピュータに実行させる重量推定プログラムを記憶する。
このような記憶媒体によっても、上述した重量推定装置100と同様の効果を奏することができる。
<第2の実施の形態>
つぎに、第2の実施の形態における重量推定装置100Aについて説明する。図7は、重量推定装置100Aの構成を含むブロック図である。
図7を参照して、重量推定装置100Aは、画像データ取得部110と、特定画像データ抽出部120Aと、姿勢情報生成部130と、重量推定部140と、画像データ連結部150と、ニューラルネットワーク制御部160と、出力部190とを備えている。また、特定画像データ抽出部120Aは、人物画像データ抽出部121と、荷物画像データ抽出部122とを含んでいる。また、撮像部200が、画像データ取得部110に有線または無線により接続されている。また、図7では、図1で示した各構成要素と同等の構成要素には、図1に示した符号と同等の符号を付している。なお、特定画像データ抽出部120A、人物画像データ抽出部121、荷物画像データ抽出部122は、特定画像データ抽出手段、人物画像データ抽出手段、荷物画像データ抽出手段の一例である。
ここで、重量推定装置100と、重量推定装置100Aとを対比する。図1および図7を参照して、重量推定装置100Aでは、特定画像データ抽出部120Aは、人物画像データ抽出部121および荷物画像データ抽出部122を含んでいる点で、重量推定装置100と相違する。
特定画像データ抽出部120Aは、人物画像データ抽出部121および荷物画像データ抽出部122を含んでいる。特定画像データ抽出部120Aは、たとえば、特許文献3に記載の畳み込みニューラルネットワークCNNを使用して、特定の物体として、荷物および人物をそれぞれ検出する。
第1の実施の形態と同様に、図2~3を参照して、人物画像データ抽出部121は、特許文献3に記載の畳み込みニューラルネットワークCNNを使用して、荷物が映る画像領域を、荷物領域LAとして、画像データから検出する。そして、人物画像データ抽出部121は、荷物領域LAの画像データを、荷物領域画像データとして抽出する。
第1の実施の形態と同様に、図2~3を参照して、荷物画像データ抽出部122は、特許文献3に記載の畳み込みニューラルネットワークCNNを使用して、人物が映る画像領域を、人物領域HAとして、画像データから検出する。そして、荷物画像データ抽出部122は、人物領域HAの画像データを、人物領域画像データとして抽出する。
画像データ連結部150は、荷物画像データ抽出部122により検出された荷物領域画像データ(荷物領域LAの画像データ)と、姿勢情報生成部130により生成された姿勢情報(骨格姿勢)を含む画像データとを連結して、連結画像データを生成する。姿勢情報(骨格姿勢)を含む画像データとは、少なくとも姿勢情報(骨格姿勢)の情報が画像として含まれる画像データである。すなわち、ここでは、姿勢情報生成部130は、図4で例示したような骨格姿勢の画像データを、姿勢情報として生成する。そして、画像データ連結部150は、荷物画像データ抽出部122により検出された荷物領域LAの画像と、姿勢情報生成部130により生成された骨格姿勢を含む画像とを連結して、連結画像データを生成する。
ここでは、荷物画像データ抽出部122により検出された荷物領域の画像データと、姿勢情報生成部130により生成された骨格姿勢の画像データのサイズのそれぞれが、H(height方向の画素数)×W(width方向の画素数)のサイズの画像であるとする。すなわち、画像データ連結部150は、H×W(pixels)サイズの画像データを、R(Red)、G(Green)、B(Blue)の3チャネル分入力するものとする。この場合において、画像データ連結部150は、荷物画像データ抽出部122により抽出された荷物領域の画像データと、姿勢情報生成部130により生成された姿勢情報(骨格姿勢)を含む画像データをそれぞれH×W×3のサイズの3チャネル画像にリサイズし、さらに、2つの3チャネル画像をチャネル方向で連結させて、H2×W2×6のサイズの連結画像データを生成する。すなわち、画像データ連結部150は、3チャネル画像である2つの画像データを連結して、6チャネル画像を生成する。この6チャネル画像の画像データ(並列画素データ)が、ニューラルネットワーク制御部160への入力となる。
ニューラルネットワーク制御部160は、画像データ連結部150により生成された連結画像データを用いて、連結画像データに映る荷物の重さを出力する。より具体的には、ニューラルネットワーク制御部160は、たとえば、非特許文献1に記載の畳み込みネットワークを用いて、画像データ連結部150により生成された連結画像データに含まれる荷物の重さを示すスカラー量(たとえば、“y”kg)を、連結画像データに映る荷物の重さとして出力する。ここで、ニューラルネットワークとは、脳機能に見られるいくつかの特性に類似した数理的モデルであり、ここでは多数の重みパラメータから構成されている。重みパラメータとは、パラメータとしての重みとも呼ばれることもある。
なお、多量のラベル付き学習データが用意されており、ニューラルネットワーク制御部160は、学習データを用いて、誤差逆伝搬法などの一般的な最適化方法で平均二乗誤差を最小化する計算を行う。
たとえば、ラベルをtとすると、50kgの荷物を伴っている人物の画像であれば、t=50と設定する。このときの上記畳み込みニューラルネットワークの出力をyとすると、以下の式1のSの値が全データについて平均的に低くなるように、パラメータを決定する。
S=|(|y-t|)|・・・・(式1)
ニューラルネットワーク制御部160で用いる学習データには、たとえば、次の(1)~(3)の内容を変えて、動画または写真を集めたものが用いられる。(1)性別の違い(男性、女性、LGBT(Lesbian、Gay、Bisexual、Transgender))、(2)荷物の形状の違い(バッグ、トランク、リュック)、(3)荷物の重量の違い(10kg、20kg、30kg、・・・・)
ニューラルネットワーク制御部160は、少なくとも上記(3)の要素を用いて、上述の通り、畳み込みニューラルネットワークを介して、最終的に重さを表すスカラー量(たとえば,“y”kg)を出力する。また、ニューラルネットワーク制御部160は、上記(3)の要素に、さらに上記(1)の要素および上記(2)の要素のうち、いずれか一方または双方の要素を用いて、畳み込みニューラルネットワークを介して、最終的に重さを表すスカラー量(たとえば,“y”kg)を出力することもできる。
つぎに、重量推定装置100Aの動作について説明する。図8は、重量推定装置100Aの動作フローを示す図である。
図8を参照して、まず、画像データ取得部110は、画像データを取得する(図8のステップS110)。より具体的には、カメラなどの撮像部200により撮像された画像データを取得する。
つぎに、荷物画像データ抽出部122は、画像データ取得部110により取得された画像データのうちで荷物が映る画像領域を、荷物領域LAとして、画像データから検出する(図8のS120)。そして、荷物画像データ抽出部122は、荷物領域LAの画像データを荷物画像データとして抽出する(図8のS130)。
また、人物画像データ抽出部121は、画像データ取得部110により取得された画像データのうちで人物が映る画像領域を、人物領域HAとして、画像データから検出する(S140)。そして、人物画像データ抽出部121は、人物領域HAの画像データを人物画像データとして抽出する(図8のS150)。
つぎに、姿勢情報生成部130は、人物画像データ抽出部121により抽出された人物画像データ(人物領域HAの画像データ)に基づいて、姿勢情報を生成する(図8のS160)。具体的には、姿勢情報生成部130は、図4で例示したような骨格姿勢の画像データを、姿勢情報として生成する。
なお、好ましくは、S120~S130の動作と、S140~S160の動作は、同時に行われる。ただし、S120~S130の動作の後にS140~S160の動作を行ってもよいし、S140~S160の動作の後にS120~S130の動作を行ってもよい。
つぎに、画像データ連結部150は、荷物画像データ抽出部122により検出された荷物領域画像データ(荷物領域LAの画像)と、姿勢情報生成部130により生成された姿勢情報(骨格姿勢)を含む画像とを連結して、連結画像データを生成する(図8のS170)。
そして、重量推定部140は、姿勢情報生成部130により生成された姿勢情報に基づいて、認識対象人物により伴われている荷物の重量を推定する(図8のS180)。より具体的には、まず、ニューラルネットワーク制御部160は、画像データ連結部150により生成された連結画像データに基づいて、連結画像データに映る荷物の重さを出力する。そして、重量推定部140は、ニューラルネットワーク制御部160により出力された重さを、認識対象人物により伴われている荷物の重量として推定する。なお、上述の通り、連結画像データには、荷物画像データ抽出部122により検出された荷物領域画像データ(荷物領域LAの画像)と、姿勢情報生成部130により生成された姿勢情報(骨格姿勢)が含まれる。このため、重量推定部140は、姿勢情報生成部130により生成された姿勢情報に基づいて、認識対象人物により伴われている荷物の重量を推定することになる。
そして、出力部190は、重量推定部140により推定された荷物の重量を出力する(S190)。出力部190には、たとえば、液晶表示装置や有機EL表示装置やプラズマディスプレイなどの表示部や、スピーカなどが用いられる。出力部190が表示部の場合、出力部190は荷物の重量を表示する。出力部190がスピーカの場合、出力部190は荷物の重量を音声出力する。
また、上述した各処理の一部または全部を、インテリジェントカメラに行わせてもよい。この場合において、インテリジェントカメラが、撮像部200および画像データ取得部110の双方の機能を有し、画像データを取得してもよい。また、インテリジェントカメラが、撮像部200および特定画像データ抽出部120の機能を有し、荷物を伴っている人物を抽出してもよい。また、インテリジェントカメラが、撮像部200および姿勢情報生成部130の機能を有し、姿勢情報を生成してもよい。また、インテリジェントカメラが、重量推定部140の機能を有し、認識対象人物により伴われている荷物の重量を推定してもよい。また、インテリジェントカメラが、ニューラルネットワーク制御部160の機能を有し、連結画像データに映る荷物の重さを出力してもよい。また、インテリジェントカメラが、重量推定装置100Aの全ての機能を有し、重量推定装置100Aの全ての機能を実行してもよい。
以上の通り、第2の実施の形態における重量推定装置100Aは、人物画像データ抽出部121と、荷物画像データ抽出部122と、画像データ連結部150と、ニューラルネットワーク制御部160とをさらに備えている。
人物画像データ抽出部121は、特定画像データ抽出部120に含まれる。また、人物画像データ抽出部121は、画像データ取得部110により取得された画像データから、荷物を伴う認識対象人物が映る画像領域の画像データを人物画像データとして抽出する。荷物画像データ抽出部122は、特定画像データ抽出部120に含まれる。また、荷物画像データ抽出部122は、画像データ取得部110により取得された画像データから、認識対象人物に伴われた荷物が映る画像領域の画像データを荷物画像データとして抽出する。画像データ連結部150は、荷物画像データと、姿勢情報を含む画像データとを連結して、連結画像データを生成する。ニューラルネットワーク制御部160は、画像データ連結部150により生成された連結画像データに基づいて、連結画像データに映る荷物の重さを出力する。そして、重量推定部140は、ニューラルネットワーク制御部160により出力される重さを、認識対象人物により伴われている荷物の重量として、推定する。
このように、重量推定装置100Aでは、画像データ連結部150は、荷物画像データと、姿勢情報を含む画像データとを連結して、連結画像データを生成する。これにより、認識対象人物により伴われている荷物の画像データと、姿勢情報を含む画像データとが連結された画像データとして、連結画像データを生成することができる。また、ニューラルネットワーク制御部160は、画像データ連結部150により生成された連結画像データに基づいて、連結画像データに映る荷物の重さを出力する。これにより、ニューラルネットワークによって最適化された情報として、連結画像データに映る荷物の重さを取得することができる。そして、重量推定部140は、ニューラルネットワーク制御部160により出力される重さを、認識対象人物により伴われている荷物の重量として、推定する。これにより、ニューラルネットワーク制御部160により出力される重さに従って、認識対象人物により伴われている荷物の重量を推定することができる。
以上の通り、本発明の第2の実施の形態における重量推定装置100Aによれば、画像データから、認識対象の人物により伴われている荷物の重量を推定することができる。
また、認識対象の人物により伴われている荷物の重量を推定することができるので、たとえば、重い荷物を伴っている人物を特定することができる。これにより、重い荷物を伴っている人物を、たとえば、荷物を代わりに持つ等の支援が必要な者や、危険物を所持している不審者として、認識することができる。そして、荷物を代わりに持つ等の支援が必要な者に対しては、たとえば、荷物を運ぶ補助者を派遣するなど、適切な支援を提供することができる。危険物を所持している不審者に対しては、たとえば、警備員を派遣したり、警察に通報したりすることができる。
<第3の実施の形態>
つぎに、第3の実施の形態における重量推定装置100Bについて説明する。図9は、重量推定装置100Bの構成を含むブロック図である。
図9を参照して、重量推定装置100Bは、画像データ取得部110と、特定画像データ抽出部120Aと、姿勢情報生成部130と、重量推定部140と、画像データ連結部150Bと、ニューラルネットワーク制御部160と、人物動き情報取得部171と、荷物動き情報取得部172と、出力部190とを備えている。また、特定画像データ抽出部120Aは、人物画像データ抽出部121と、荷物画像データ抽出部122とを含んでいる。また、撮像部200が、画像データ取得部110に有線または無線により接続されている。また、図9では、図1および図7で示した各構成要素と同等の構成要素には、図1および図7に示した符号と同等の符号を付している。なお、人物動き情報取得部171と、荷物動き情報取得部172は、人物動き情報取得手段、荷物動き情報取得手段の一例である。
ここで、重量推定装置100Aと、重量推定装置100Bとを対比する。図7および図9を参照して、重量推定装置100Bでは、人物動き情報取得部171および荷物動き情報取得部172をさらに備えている点で、重量推定装置100Aと相違する。
人物動き情報取得部171は、認識対象人物の動きに関する情報である人物動き情報を取得する。荷物動き情報取得部172は、認識対象人物により伴われている荷物の動きに関する情報である荷物動き情報を取得する。人物動き情報取得部171および荷物動き情報取得部172の具体的な機能については、以下の動作説明の中で説明する。
つぎに、重量推定装置100Bの動作について説明する。図10は、重量推定装置100Bの動作フローを示す図である。
図10を参照して、まず、画像データ取得部110は、画像データを取得する(図10のステップS210)。より具体的には、カメラなどの撮像部200により撮像された画像データを取得する。
つぎに、荷物画像データ抽出部122は、画像データ取得部110により取得された画像データのうちで荷物が映る画像領域を、荷物領域LAとして、画像データから検出する(図10のS220)。そして、荷物画像データ抽出部122は、荷物領域LAの画像データを荷物画像データとして抽出する(図10のS230)。
つぎに、荷物動き情報取得部172は、認識対象人物により伴われている荷物の動きに関する情報である荷物動き情報を取得する(図10のS240)。具体的には、荷物動き情報取得部172は、画像データ取得部110により取得された画像データの前後の数フレームの画像データをも用いて、オプティカルフローを計算することにより、各画像データに含まれる荷物の動きに関する情報を取得する。なお、オプティカルフローとは一般的には、画像データ中の物体の動きをベクトルで表したものをいう。したがって、ここでは、荷物動き情報取得部172は、オプティカルフローの計算として、各画像データに含まれる荷物の動きに関する情報として、荷物の移動ベクトルを取得する。なお、オプティカルフローを推定する代表的な手法として、LucasKanade法やHorn-Schunk法が知られている。ここでも、荷物動き情報取得部172は、LucasKanade法またはHorn-Schunk法と使って、オプティカルフローを計算する。
また、人物画像データ抽出部121は、画像データ取得部110により取得された画像データのうちで人物が映る画像領域を、人物領域HAとして、画像データから検出する(図10のS250)。そして、人物画像データ抽出部121は、人物領域HAの画像データを人物画像データとして抽出する(図10のS260)。
つぎに、姿勢情報生成部130は、人物画像データ抽出部121により抽出された人物画像データ(人物領域HAの画像データ)に基づいて、姿勢情報を生成する(図10のS270)。具体的には、姿勢情報生成部130は、図4で例示したような骨格姿勢の画像データを、姿勢情報として生成する。このとき、姿勢情報生成部130は、画像データ取得部110により取得された画像データの前後の数フレームの画像データの各々を用いて、図4で例示したような骨格姿勢の画像データを、姿勢情報として生成する。
つぎに、人物動き情報取得部171は、認識対象人物の動きに関する情報である人物動き情報を取得する(図10のS280)。具体的には、人物動き情報取得部171は、画像データ取得部110により取得された画像データの前後の数フレームの画像データをも用いて、オプティカルフローを計算することにより、各画像データに含まれる人物の動きに関する情報を取得する。ここでは、人物動き情報取得部171は、オプティカルフローの計算として、各画像データに含まれる荷物の動きに関する情報として、人物の移動ベクトルを取得する。このとき、人物動き情報取得部171は、たとえば、図4で示した頭部や足首部などの特定部位の全ての移動ベクトルの合成ベクトルを、人物の移動ベクトルとして取得する。なお、これに限らず、人物動き情報取得部171は、たとえば、図4で示した頭部や足首部などの1つの特定部位の移動ベクトルを、人物の移動ベクトルとして取得してもよい。また、さらに、人物動き情報取得部171は、たとえば、図4で示した頭部や足首部などの1つの特定部位の少なくとも2つ以上の移動ベクトルの合成ベクトルを、人物の移動ベクトルとして取得してもよい。なお、ここでも、人物動き情報取得部171は、LucasKanade法またはHorn-Schunk法と使って、オプティカルフローを計算する。
さらに、オプティカルフローの計算後の出力として、画像データをピクセル毎に複数の色で表示することができる。この出力画像データを、オプティカル画像データと呼ぶ。このとき、複数の色での表示には、各ピクセルの色の変化の大きさや各ピクセルの移動方向をも含めることができる。
なお、好ましくは、S220~S240の動作と、S250~S280の動作は、同時に行われる。ただし、S220~S240の動作の後にS250~S280の動作を行ってもよいし、S250~S280の動作の後にS220~S240の動作を行ってもよい。
つぎに、画像データ連結部150Bは、連結画像データを生成する(S290)。具体的には、画像データ連結部150Bは、荷物動き情報および人物動き情報を含めて、荷物画像データ抽出部122により検出された荷物領域画像データ(荷物領域LAの画像データ)と、姿勢情報生成部130により生成された姿勢情報(骨格姿勢)を含む画像データとを連結して、連結画像データを生成する。姿勢情報(骨格姿勢)を含む画像データとは、少なくとも姿勢情報(骨格姿勢)の情報が画像として含まれる画像データである。すなわち、ここでは、姿勢情報生成部130は、図4で例示したような骨格姿勢の画像データを、姿勢情報として生成する。そして、画像データ連結部150は、荷物動き情報および人物動き情報を含めて、荷物画像データ抽出部122により検出された荷物領域LAの画像と、姿勢情報生成部130により生成された骨格姿勢を含む画像とを連結して、連結画像データを生成する。
ここでは、第1および第2の実施形態と同様に、荷物画像データ抽出部122により検出された荷物領域の画像データと、姿勢情報生成部130により生成された骨格姿勢の画像データのサイズのそれぞれが、H(height方向の画素数)×W(width方向の画素数)のサイズの画像であるとする。すなわち、画像データ連結部150は、H×W(pixels)サイズの画像データを、R(Red)、G(Green)、B(Blue)の3チャネル分入力するものとする。そして、オプティカル画像データは、一般的に3チャネルの画像である。
この場合において、画像データ連結部150Bは、荷物画像データ抽出部122により抽出された荷物領域の画像データと、姿勢情報生成部130により生成された姿勢情報(骨格姿勢)を含む画像データと、オプティカル画像データとを、それぞれH×W×3のサイズにリサイズし、さらに、3つの3チャネル画像をチャネル方向で連結させて、H3×W3×9のサイズの連結画像データを生成する。すなわち、画像データ連結部150Bは、3チャネル画像である3つの画像データを連結して、9チャネル画像を生成する。この9チャネル画像の画像データ(並列画素データ)が、ニューラルネットワーク制御部160への入力となる。
そして、重量推定部140は、姿勢情報生成部130により生成された姿勢情報に基づいて、認識対象人物により伴われている荷物の重量を推定する(図10のS300)。より具体的には、まず、ニューラルネットワーク制御部160は、画像データ連結部150により生成された連結画像データに基づいて、連結画像データに映る荷物の重さを出力する。そして、重量推定部140は、ニューラルネットワーク制御部160により出力された重さを、認識対象人物により伴われている荷物の重量として推定する。なお、上述の通り、連結画像データには、荷物画像データ抽出部122により検出された荷物領域画像データ(荷物領域LAの画像)と、姿勢情報生成部130により生成された姿勢情報(骨格姿勢)が含まれる。このため、重量推定部140は、姿勢情報生成部130により生成された姿勢情報に基づいて、認識対象人物により伴われている荷物の重量を推定することになる。
なお、より直接的な回帰方法として、検出された人物の姿勢および荷物の近傍の動画をそのままニューラルネットワーク制御部160で処理して、直接重量の値を計算することもできる。この場合、ニューラルネットワーク制御部160の入力画像は、[横×縦×チャネル数×時系列]の次元を有する。ニューラルネットワークには、例えば、3次元畳み込みニューラルネットワークを用いることができる。通常の2次元畳み込みニューラルネットワークが、横×縦の空間方向から特徴を抽出する。これに対して、3次元畳み込みニューラルネットワークでは、横×縦×時系列の3次元方向から特徴を抽出することができる。
そして、出力部190は、重量推定部140により推定された荷物の重量を出力する(図10のS310)。出力部190には、たとえば、液晶表示装置や有機EL(Eelectro-Luminescence)表示装置やプラズマディスプレイなどの表示部や、スピーカなどが用いられる。出力部190が表示部の場合、出力部190は荷物の重量を表示する。出力部190がスピーカの場合、出力部190は荷物の重量を音声出力する。
また、上述した各処理の一部または全部を、インテリジェントカメラに行わせてもよい。この場合において、インテリジェントカメラが、撮像部200および画像データ取得部110の双方の機能を有し、画像データを取得してもよい。また、インテリジェントカメラが、撮像部200および特定画像データ抽出部120Aの機能を有し、荷物を伴っている人物を抽出してもよい。また、インテリジェントカメラが、撮像部200および姿勢情報生成部130の機能を有し、姿勢情報を生成してもよい。また、インテリジェントカメラが、重量推定部140の機能を有し、認識対象人物により伴われている荷物の重量を推定してもよい。また、インテリジェントカメラが、ニューラルネットワーク制御部160の機能を有し、連結画像データに映る荷物の重さを出力してもよい。また、インテリジェントカメラが、人物動き情報取得部171の機能を有し、人物動き情報を取得してもよい。また、インテリジェントカメラが、荷物動き情報取得部172の機能を有し、荷物動き情報を取得してもよい。また、インテリジェントカメラが、重量推定装置100Bの全ての機能を有し、重量推定装置100Aの全ての機能を実行してもよい。
なお、上述では、重量推定装置100Aは、人物動き情報取得部171および荷物動き情報取得部172の双方を備えていると説明した。そのうえで、画像データ連結部150Bは、荷物動き情報および人物動き情報を含めて、荷物画像データ抽出部122により検出された荷物領域画像データ(荷物領域LAの画像データ)と、姿勢情報生成部130により生成された姿勢情報(骨格姿勢)を含む画像データとを連結して、連結画像データを生成すると、説明した。
しかしながら、重量推定装置100Aは、人物動き情報取得部171および荷物動き情報取得部172のいずれか一方のみを備えてもよい。この場合、画像データ連結部150Bは、荷物動き情報および人物動き情報のいずれか一方を含めて、荷物画像データ抽出部122により検出された荷物領域画像データ(荷物領域LAの画像データ)と、姿勢情報生成部130により生成された姿勢情報(骨格姿勢)を含む画像データとを連結して、連結画像データを生成する。
以上の通り、第3の実施の形態における重量推定装置100Bは、荷物動き情報取得部172をさらに備えている。荷物動き情報取得部172は、認識対象人物により伴われている荷物の動きに関する情報である荷物動き情報を取得する。そして、画像データ連結部150は、荷物動き情報を含めて、荷物画像データと、姿勢情報を含む画像データとを連結して、前記連結画像データを生成する。
このように、画像データ連結部150は、荷物動き情報を含めて、荷物画像データと、姿勢情報を含む画像データとを連結して、連結画像データを生成する。したがって、重量推定装置100Bでは、荷物の動き情報をも反映された連結画像データを生成することができる。そして、ニューラルネットワーク制御部160は、荷物の動き情報をも反映された連結画像データに基づいて、連結画像データに映る荷物の重さを出力する。重量推定部140は、ニューラルネットワーク制御部160により出力される重さを、認識対象人物により伴われている荷物の重量として、推定する。このため、重量推定装置100Bによれば、荷物の動きも考慮して、認識対象人物により伴われている荷物の重量として推定することができる。この結果、重量推定装置100Bによれば、認識対象人物により伴われている荷物の重量をより精度よく推定することができる。
また、第3の実施の形態における重量推定装置100Bは、人物動き情報取得部171をさらに備えている。人物動き情報取得部171は、認識対象人物の動きに関する情報である人物動き情報を取得する。そして、画像データ連結部150は、人物動き情報を含めて、荷物画像データと、姿勢情報を含む画像データとを連結して、連結画像データを生成する。
このように、画像データ連結部150は、人物動き情報を含めて、荷物画像データと、姿勢情報を含む画像データとを連結して、連結画像データを生成する。したがって、重量推定装置100Bでは、人物の動き情報をも反映された連結画像データを生成することができる。そして、ニューラルネットワーク制御部160は、人物の動き情報をも反映された連結画像データに基づいて、連結画像データに映る荷物の重さを出力する。重量推定部140は、ニューラルネットワーク制御部160により出力される重さを、認識対象人物により伴われている荷物の重量として、推定する。このため、重量推定装置100Bによれば、人物の動きも考慮して、認識対象人物により伴われている荷物の重量として推定することができる。この結果、重量推定装置100Bによれば、認識対象人物により伴われている荷物の重量をより精度よく推定することができる。
また、第3の実施の形態における重量推定装置100Bは、荷物動き情報取得部172と、人物動き情報取得部171とをさらに備えている。荷物動き情報取得部172は、認識対象人物により伴われている荷物の動きに関する情報である荷物動き情報を取得する。人物動き情報取得部171は、認識対象人物の動きに関する情報である人物動き情報を取得する。そして、画像データ連結部150は、荷物動き情報および人物動き情報を含めて、荷物画像データと、姿勢情報を含む画像データとを連結して、連結画像データを生成する。
このように、画像データ連結部150は、荷物動き情報および人物動き情報を含めて、荷物画像データと、姿勢情報を含む画像データとを連結して、連結画像データを生成する。したがって、重量推定装置100Bでは、荷物動き情報および人物の動き情報をも反映された連結画像データを生成することができる。そして、ニューラルネットワーク制御部160は、荷物動き情報および人物の動き情報をも反映された連結画像データに基づいて、連結画像データに映る荷物の重さを出力する。重量推定部140は、ニューラルネットワーク制御部160により出力される重さを、認識対象人物により伴われている荷物の重量として、推定する。このため、重量推定装置100Bによれば、荷物の動きと人物の動きの双方をも考慮して、認識対象人物により伴われている荷物の重量として推定することができる。この結果、重量推定装置100Bによれば、認識対象人物により伴われている荷物の重量をより精度よく推定することができる。
<第4の実施の形態>
本発明の第4の実施の形態における重量推定装置100Cについて、図に基づいて説明する。ここで、前述の第1~第3の実施の形態における重量推定装置100、100A、100Bは、本実施形態における重量推定装置100Cの例示である。
重量推定装置100Cの構成を説明する。図11は、重量推定装置100の構成を示すブロック図である。
図11を参照して、重量推定装置100Cは、画像データ取得部110と、特定画像データ抽出部120と、姿勢情報生成部130と、重量推定部140とを備えている。
また、画像データ取得部110、特定画像データ抽出部120、姿勢情報生成部130および重量推定部140は、画像データ取得手段、特定画像データ抽出手段、姿勢情報生成手段および重量推定手段の一例である。
画像データ取得部110は、画像データを取得する。より具体的には、画像データ取得部110は、カメラなどの撮像部(図11にて不図示)により撮像された画像データを取得する。なお、撮像部は、撮像対象を主に人物としている。また、撮像部は、たとえば、空港、学校、図書館、病院、市民会館、ショッピングセンター、会社などの施設や、道路や、歩道などに、設置されている。撮像部および画像データ取得部110は、有線または無線により通信接続されている。画像データ取得部110は、撮像部により撮像された画像データを、有線または無線の通信によって、撮像部から取得する。
特定画像データ抽出部120は、画像データ取得部110により取得された画像データから、荷物を伴う認識対象人物が映る画像領域の画像データを人物画像データとして抽出する。
具体的には、特定画像データ抽出部120は、たとえば、特許文献3に記載の畳み込みニューラルネットワーク(CNN)を使用して、特定の物体として、荷物および人物をそれぞれ検出する。そして、特定画像データ抽出部120は、荷物および人物の検出結果に基づいて、荷物を伴う認識対象人物が映る画像領域の画像データを人物画像データとして抽出する。また、特定画像データ抽出部120は、荷物および人物の検出結果に基づいて、認識対象人物により伴われている荷物を荷物画像データとして抽出する。ただし、特定画像データ抽出部120は、荷物および人物の検出結果に基づいて、人物画像データのみを抽出し、荷物画像データを抽出しなくてもよい。
ここで、特定画像データ抽出部120が人物画像データおよび荷物画像データを抽出する動作を説明するための具体例については、第1の実施の形態の説明で、図2~図3を用いて説明した通りである。
姿勢情報生成部130は、特定画像データ抽出部120により抽出された人物画像データに基づいて、姿勢情報を生成する。なお、姿勢情報生成部130は、特定画像データ抽出部120により抽出された人物画像データに加えて、荷物画像データをも用いて、姿勢情報を生成してもよい。
ここで、姿勢情報とは、認識対象人物の姿勢に関する情報であって、たとえば、認識対象人物の腰や膝の曲がり具合(曲がり角度等)などである。姿勢情報生成部130は、たとえば、特許文献4-5に記載の骨格姿勢推定技術を用いて、認識対象人物の骨格姿勢を推定し、推定された骨格姿勢に基づいて、腰の曲がり具合(曲がり角度等)を姿勢情報として生成する。
ここで、認識対象人物の骨格姿勢の推定方法は、第1の実施の形態の説明で、図4を参照して説明した通りである。
重量推定部140は、姿勢基準情報記憶部(図11にて不図示)に、有線または無線により通信接続されている。重量推定部140は、姿勢情報生成部130により生成された姿勢情報に基づいて、認識対象人物により伴われている荷物の重量を推定する。ここでは、重量推定部140は、姿勢基準情報記憶部に記憶されている姿勢基準情報と、姿勢情報生成部130により生成された姿勢情報とに基づいて、認識対象人物により伴われている荷物の重量を推定する。
より具体的には、まず、重量推定部140は、姿勢基準情報記憶部に記憶されている姿勢基準情報を、有線または無線の通信によって、姿勢基準情報記憶部から取得する。そして、重量推定部140は、姿勢基準情報記憶部から取得された姿勢基準情報と、姿勢情報生成部130により生成された姿勢情報とに基づいて、認識対象人物により伴われている荷物の重量を推定する。より詳細には、重量推定部140は、姿勢基準情報記憶部から取得された姿勢基準情報と、姿勢情報生成部130により生成された姿勢情報とを比較した結果に基づいて、認識対象人物により伴われている荷物の重量を推定する。
ここで、姿勢基準情報記憶部に記憶されている姿勢基準情報については、第1の実施の形態の説明で、図5を用いて説明した通りである。
姿勢基準情報とは、たとえば、荷物を伴う人物の基準姿勢に関して、荷物の重量ごとに予め設定された情報である。すなわち、姿勢基準情報は、荷物を伴う人物の基準姿勢を荷物の重量ごとに特定した後、特定された基準姿勢と荷物の重量を互いに対応付けることにより、予め設定される。具体的には、特定の人物に様々な重量の荷物を伴わせて、荷物の重量ごとに特定の人物の姿を撮像部により予め撮像する。ここでの基準姿勢とは、荷物を伴う人物がとる一般的な姿勢をいい、たとえば、荷物を肩にかける姿勢や、荷物を背負う姿勢である。また、姿勢情報抽出部130によって、撮像部により撮像された特定の人物の姿から、姿勢情報を基準姿勢として抽出する。そして、基準姿勢と荷物の重量とを互いに対応つけることにより、姿勢基準情報として設定される。なお、姿勢基準情報は、肩掛け型のバッグ、バックパック型のバッグ、段ボール箱、手提げバッグ、キャリーケース型のバッグなど、荷物の種類ごとに設定されてもよい。
なお、上述の通り、姿勢情報とは、認識対象人物(特定の人物も含む。)の姿勢に関する情報であって、たとえば、認識対象人物の腰や膝の曲がり具合(曲がり具合は、たとえば、曲がり角度等)などである。
ここでは、特定の人物は、たとえば、標準的な体重である人物とする。ただし、姿勢基準情報は、年齢や性別や体型ごとに設定されてもよい。
図5を参照して、姿勢基準情報記憶部には、姿勢基準情報の一例として、基準姿勢(腰の曲がり角度)と、荷物の重量との関係の対応表が記憶されている。図5を参照して、たとえば、基準姿勢(腰の曲がり角度)が180°の場合、荷物の重量を5kg以下と対応つけられている。同様に、基本姿勢が160°、140°、120°の場合、荷物の重量を10kg、20kg、30kgと対応付けられている。
図5を参照して、重量推定部140の具体的な動作については、第1の実施の形態の説明で、図5を参照して説明した通りである。すなわち、重量推定部140は、姿勢基準情報記憶部300から、姿勢基準情報を取得する。そして、重量推定部140は、姿勢基準情報記憶部から取得された姿勢基準情報と、姿勢情報生成部130により生成された姿勢情報とを比較した結果に基づいて、認識対象人物により伴われている荷物の重量を推定する。
すなわち、たとえば、姿勢情報生成部130により生成された姿勢情報が160°であった場合、重量推定部140は、姿勢基準情報記憶部から取得された姿勢基準情報と、姿勢情報生成部130により生成された姿勢情報(腰の曲がり角度)である160°とを比較する。また、重量推定部140は、姿勢情報(腰の曲がり角度)160°に対応する荷物の重量である10kgを抽出する。そして、重量推定部140は、認識対象人物により伴われている荷物の推定重量を、10kgと推定する。
つぎに、重量推定装置100Cの動作について説明する。図12は、重量推定装置100Cの動作フローを示す図である。
図12を参照して、まず、画像データ取得部110は、画像データを取得する(図6のステップ(図12にてS10)。より具体的には、画像データ取得部110は、カメラなどの撮像部により撮像された画像データを取得する。
つぎに、特定画像データ抽出部120は、画像データ取得部110により取得された画像データから、荷物を伴う認識対象人物が映る画像領域の画像データを人物画像データとして抽出する(図12のS20)。具体的には、特定画像データ抽出部120は、たとえば、特許文献3に記載の畳み込みニューラルネットワーク(CNN)を使用して、特定の物体として、荷物および人物をそれぞれ検出する。そして、特定画像データ抽出部120は、荷物および人物の検出結果に基づいて、荷物を伴う認識対象人物が映る画像領域の画像データを人物画像データとして抽出する。
つぎに、姿勢情報生成部130は、特定画像データ抽出部120により抽出された人物画像データに基づいて、姿勢情報を生成する(図12のS30)。なお、前述の通り、姿勢情報生成部130は、特定画像データ抽出部120により抽出された人物画像データに加えて、荷物画像データをも用いて、姿勢情報を生成してもよい。前述の通り、姿勢情報生成部130は、姿勢情報として、たとえば、認識対象人物の腰の曲がり具合(曲がり角度)を取得する。
つぎに、重量推定部140は、姿勢情報生成部130により生成された姿勢情報に基づいて、認識対象人物により伴われている荷物の重量を推定する(図12のS40)。前述の通り、より具体的には、重量推定部140は、姿勢基準情報記憶部に記憶されている姿勢基準情報と、姿勢情報生成部130により生成された姿勢情報とを比較した結果に基づいて、認識対象人物により伴われている荷物の重量を推定する。前述の通り、たとえば、重量推定部140は、基準姿勢および荷物の重量が互いに対応付けられた姿勢基準情報と、姿勢情報生成部130により生成された姿勢情報とを比較して、姿勢情報生成部130により生成された姿勢情報(図5にて、たとえば、腰曲がり角度160°)に対応する荷物の重量(図5にて、たとえば、10kg)を抽出する。
以上の通り、本発明の第1の実施の形態における重量推定装置100は、画像データ取得部110と、特定画像データ抽出部120と、姿勢情報生成部130と、重量推定部140とを備えている。画像データ取得部110は、画像データを取得する。特定画像データ抽出部120は、画像データ取得部110により取得された画像データから、荷物を伴う認識対象人物が映る画像領域の画像データを人物画像データとして抽出する。姿勢情報生成部130は、人物画像データに基づいて、認識対象人物の姿勢に関する姿勢情報を生成する。重量推定部140は、姿勢情報に基づいて、認識対象人物により伴われている荷物の重量を推定する。
このように、重量推定装置100では、姿勢情報生成部130は、人物画像データに基づいて、認識対象人物の姿勢に関する姿勢情報を生成する。また、重量推定部140は、姿勢情報に基づいて、認識対象人物により伴われている荷物の重量を推定する。これにより、重量推定装置100では、画像データから、認識対象の人物により伴われている荷物の重量を推定することができる。
以上の通り、本発明の第1の実施の形態における重量推定装置100によれば、画像データから、認識対象の人物により伴われている荷物の重量を推定することができる。
また、認識対象の人物により伴われている荷物の重量を推定することができるので、たとえば、重い荷物を伴っている人物を特定することができる。これにより、重い荷物を伴っている人物を、たとえば、荷物を代わりに持つ等の支援が必要な者や、危険物を所持している不審者として、認識することができる。そして、荷物を代わりに持つ等の支援が必要な者に対しては、たとえば、荷物を運ぶ補助者を派遣するなど、適切な支援を提供することができる。危険物を所持している不審者に対しては、たとえば、警備員を派遣したり、警察に通報したりすることができる。
また、前述の各実施の形態の一部または全部は、以下のようにも記載されうるが、以下に限定されない。
(付記1)
画像データを取得する画像データ取得部と、
前記画像データ取得部により取得された画像データから、荷物を伴う認識対象人物が映る画像領域の画像データを人物画像データとして抽出する特定画像データ抽出部と、
前記人物画像データに基づいて、前記認識対象人物の姿勢に関する姿勢情報を生成する姿勢情報生成部と、
前記姿勢情報に基づいて、前記認識対象人物により伴われている前記荷物の重量を推定する重量推定部とを備えた重量推定装置。
(付記2)
前記重量推定部は、荷物を伴う人物の基準姿勢に関して前記荷物の重量ごとに予め設定された姿勢基準情報を取得し、前記姿勢基準情報と前記姿勢情報とを比較した結果に基づいて、前記認識対象人物により伴われている前記荷物の重量を推定する付記1に記載の重量推定装置。
(付記3)
前記特定画像データ抽出部に含まれる人物画像データ抽出部であって、前記画像データ取得部により取得された画像データから、荷物を伴う認識対象人物が映る画像領域の画像データを人物画像データとして抽出する人物画像データ抽出部と、
前記特定画像データ抽出部に含まれる荷物画像データ抽出部であって、前記画像データ取得部により取得された画像データから、認識対象人物に伴われた荷物が映る画像領域の画像データを荷物画像データとして抽出する荷物画像データ抽出部と、
前記荷物画像データと、前記姿勢情報を含む画像データとを連結して、連結画像データを生成する画像データ連結部と、
前記画像データ連結部により生成された連結画像データに基づいて、前記連結画像データに映る荷物の重さを出力するニューラルネットワーク制御部と、をさらに備え、
前記重量推定部は、前記ニューラルネットワーク制御部により出力される重さを、前記認識対象人物により伴われている前記荷物の重量として、推定する付記1に記載の重量推定装置。
(付記4)
前記認識対象人物により伴われている荷物の動きに関する情報である荷物動き情報を取得する荷物動き情報取得部をさらに備え、
前記画像データ連結部は、前記荷物動き情報を含めて、前記荷物画像データと、前記姿勢情報を含む画像データとを連結して、前記連結画像データを生成する付記3に記載の重量推定装置。
(付記5)
前記認識対象人物の動きに関する情報である人物動き情報を取得する人物動き情報取得部をさらに備え、
前記画像データ連結部は、前記人物動き情報を含めて、前記荷物画像データと、前記姿勢情報を含む画像データとを連結して、前記連結画像データを生成する付記3に記載の重量推定装置。
(付記6)
前記認識対象人物により伴われている荷物の動きに関する情報である荷物動き情報を取得する荷物動き情報取得部と、
前記認識対象人物の動きに関する情報である人物動き情報を取得する人物動き情報取得部とをさらに備え、
前記画像データ連結部は、前記荷物動き情報および前記人物動き情報を含めて、前記荷物画像データと、前記姿勢情報を含む画像データとを連結して、前記連結画像データを生成する付記3に記載の重量推定装置。
(付記7)
前記重量推定部により推定された前記荷物の重量に関する情報を出力する出力部をさらに備えた付記1~6のいずれか1項に記載の重量推定装置。
(付記8)
前記出力部は、前記重量推定部により推定された前記荷物の重量が所定値以上の場合に、前記重量推定部により推定された前記荷物の重量が所定値以上であることを通知する付記7に記載の重量推定装置。
(付記9)
前記出力部は、前記重量推定部により推定された前記荷物の重量が所定値以上の場合に、前記所定値以上の重量の荷物を伴った人物が存在することを通知する付記7に記載の重量推定装置。
(付記10)
前記重量推定部は、所定時間毎に、前記認識対象人物により伴われている前記荷物の重量を推定し、
前記出力部は、前記重量推定部により所定時間毎に推定された荷物の重量の時間的変化量に応じて、前記認識対象人物に伴われている荷物に重量に変化があったことを通知する付記7に記載の重量推定装置。
(付記11)
画像データを取得する画像データ取得ステップと、
前記取得された画像データから、荷物を伴う認識対象人物が映る画像領域の画像データを人物画像データとして抽出する人物画像データ抽出ステップと、
前記人物画像データに基づいて、前記認識対象人物の姿勢に関する姿勢情報を生成する姿勢情報生成ステップと、
前記姿勢情報に基づいて、前記認識対象人物により伴われている前記荷物の重量を推定する重量推定ステップとを含む重量推定方法。
(付記12)
画像データを取得する画像データ取得ステップと、
前記取得された画像データから、荷物を伴う認識対象人物が映る画像領域の画像データを人物画像データとして抽出する人物画像データ抽出ステップと、
前記人物画像データに基づいて、前記認識対象人物の姿勢に関する姿勢情報を生成する姿勢情報生成ステップと、
前記姿勢情報に基づいて、前記認識対象人物により伴われている前記荷物の重量を推定する重量推定ステップとを含む処理を、コンピュータに実行させる重量推定プログラム。
(付記13)
画像データを取得する画像データ取得ステップと、
前記取得された画像データから、荷物を伴う認識対象人物が映る画像領域の画像データを人物画像データとして抽出する人物画像データ抽出ステップと、
前記人物画像データに基づいて、前記認識対象人物の姿勢に関する姿勢情報を生成する姿勢情報生成ステップと、
前記姿勢情報に基づいて、前記認識対象人物により伴われている前記荷物の重量を推定する重量推定ステップとを含む処理を、コンピュータに実行させる重量推定プログラムを記憶する記憶媒体。
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
100、100A、100B、100C 重量推定装置
110 画像データ取得部
120、120A 特定画像データ抽出部
121 人物画像データ抽出部
122 荷物画像データ抽出部
130 姿勢情報生成部
140 重量推定部
150 画像データ連結部
160 ニューラルネットワーク制御部
171 人物動き情報取得部
172 荷物動き情報取得部
190 出力部
200 撮像部
300、300A 姿勢基準情報記憶部

Claims (9)

  1. 画像データを取得する画像データ取得部と、
    前記画像データ取得部により取得された画像データから、荷物を伴う認識対象人物が映る画像領域の画像データを人物画像データとして抽出する人物画像データ抽出部と、
    前記画像データ取得部により取得された画像データから、認識対象人物に伴われた荷物が映る画像領域の画像データを荷物画像データとして抽出する荷物画像データ抽出部と、
    前記人物画像データに基づいて、前記認識対象人物の姿勢に関する姿勢情報を生成する姿勢情報生成部と、
    前記荷物画像データと、前記姿勢情報を含む画像データとを連結して、連結画像データを生成する画像データ連結部と、
    前記画像データ連結部により生成された連結画像データに基づいて、前記連結画像データに映る荷物の重さを出力するニューラルネットワーク制御部と、
    前記ニューラルネットワーク制御部により出力される重さを、前記認識対象人物により伴われている前記荷物の重量として推定する重量推定部とを備えた重量推定装置。
  2. 前記重量推定部は、荷物を伴う人物の基準姿勢に関して前記荷物の重量ごとに予め設定された姿勢基準情報を取得し、前記姿勢基準情報と前記姿勢情報とを比較した結果に基づいて、前記認識対象人物により伴われている前記荷物の重量を推定する請求項1に記載の重量推定装置。
  3. 前記認識対象人物により伴われている荷物の動きに関する情報である荷物動き情報を取得する荷物動き情報取得部をさらに備え、
    前記画像データ連結部は、前記荷物動き情報を含めて、前記荷物画像データと、前記姿勢情報を含む画像データとを連結して、前記連結画像データを生成する請求項に記載の重量推定装置。
  4. 前記認識対象人物の動きに関する情報である人物動き情報を取得する人物動き情報取得部をさらに備え、
    前記画像データ連結部は、前記人物動き情報を含めて、前記荷物画像データと、前記姿勢情報を含む画像データとを連結して、前記連結画像データを生成する請求項に記載の重量推定装置。
  5. 前記認識対象人物により伴われている荷物の動きに関する情報である荷物動き情報を取得する荷物動き情報取得部と、
    前記認識対象人物の動きに関する情報である人物動き情報を取得する人物動き情報取得部とをさらに備え、
    前記画像データ連結部は、前記荷物動き情報および前記人物動き情報を含めて、前記荷物画像データと、前記姿勢情報を含む画像データとを連結して、前記連結画像データを生成する請求項に記載の重量推定装置。
  6. 前記重量推定部により推定された前記荷物の重量に関する情報を出力する出力部をさらに備えた請求項1~のいずれか1項に記載の重量推定装置。
  7. 前記出力部は、前記重量推定部により推定された前記荷物の重量が所定値以上の場合に、前記重量推定部により推定された前記荷物の重量が所定値以上であることを通知する請求項に記載の重量推定装置。
  8. 画像データを取得する画像データ取得ステップと、
    前記取得された画像データから、荷物を伴う認識対象人物が映る画像領域の画像データを人物画像データとして抽出する人物画像データ抽出ステップと、
    前記取得された画像データから、認識対象人物に伴われた荷物が映る画像領域の画像データを荷物画像データとして抽出する荷物画像データ抽出ステップと、
    前記人物画像データに基づいて、前記認識対象人物の姿勢に関する姿勢情報を生成する姿勢情報生成ステップと、
    前記荷物画像データと、前記姿勢情報を含む画像データとを連結して、連結画像データを生成する画像データ連結ステップと、
    前記連結画像データに基づいて、前記連結画像データに映る荷物の重さを出力するニューラルネットワーク制御ステップと、
    前記出力される重さを、前記認識対象人物により伴われている前記荷物の重量として推定する重量推定ステップとを含む重量推定方法。
  9. 画像データを取得する画像データ取得ステップと、
    前記取得された画像データから、荷物を伴う認識対象人物が映る画像領域の画像データを人物画像データとして抽出する人物画像データ抽出ステップと、
    前記取得された画像データから、認識対象人物に伴われた荷物が映る画像領域の画像データを荷物画像データとして抽出する荷物画像データ抽出ステップと、
    前記人物画像データに基づいて、前記認識対象人物の姿勢に関する姿勢情報を生成する姿勢情報生成ステップと、
    前記荷物画像データと、前記姿勢情報を含む画像データとを連結して、連結画像データを生成する画像データ連結ステップと、
    前記連結画像データに基づいて、前記連結画像データに映る荷物の重さを出力するニューラルネットワーク制御ステップと、
    前記出力される重さを、前記認識対象人物により伴われている前記荷物の重量として推定する重量推定ステップとを含む処理を、コンピュータに実行させる重量推定プログラム。
JP2019136145A 2019-07-24 2019-07-24 重量推定装置、重量推定方法、および重量推定プログラム Active JP7342489B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019136145A JP7342489B2 (ja) 2019-07-24 2019-07-24 重量推定装置、重量推定方法、および重量推定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019136145A JP7342489B2 (ja) 2019-07-24 2019-07-24 重量推定装置、重量推定方法、および重量推定プログラム

Publications (2)

Publication Number Publication Date
JP2021021973A JP2021021973A (ja) 2021-02-18
JP7342489B2 true JP7342489B2 (ja) 2023-09-12

Family

ID=74574275

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019136145A Active JP7342489B2 (ja) 2019-07-24 2019-07-24 重量推定装置、重量推定方法、および重量推定プログラム

Country Status (1)

Country Link
JP (1) JP7342489B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014199595A (ja) 2013-03-29 2014-10-23 富士通株式会社 作業負荷推定プログラム、作業負荷推定方法、及び情報処理装置
JP2018027581A (ja) 2016-08-17 2018-02-22 株式会社安川電機 ピッキングシステム
JP2019066406A (ja) 2017-10-04 2019-04-25 株式会社デンソーテン 重量推定装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014199595A (ja) 2013-03-29 2014-10-23 富士通株式会社 作業負荷推定プログラム、作業負荷推定方法、及び情報処理装置
JP2018027581A (ja) 2016-08-17 2018-02-22 株式会社安川電機 ピッキングシステム
JP2019066406A (ja) 2017-10-04 2019-04-25 株式会社デンソーテン 重量推定装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
福井裕他,スマートフォンによる作業中の個人向け腰痛アラームシステムの開発,モバイル学会誌,日本,特定非営利活動法人モバイル学会,2013年08月01日,第3巻 第1号,pp.7-12

Also Published As

Publication number Publication date
JP2021021973A (ja) 2021-02-18

Similar Documents

Publication Publication Date Title
US10621779B1 (en) Artificial intelligence based generation and analysis of 3D models
CN105447529B (zh) 一种服饰检测及其属性值识别的方法和系统
US20180122146A1 (en) Parameterized model of 2d articulated human shape
JP5874325B2 (ja) 画像処理装置、画像処理方法およびプログラム
WO2020225562A1 (en) Processing captured images
US20140301605A1 (en) Posture estimation device and posture estimation method
US7650318B2 (en) Behavior recognition using vectors of motion properties based trajectory and movement type
CN110909605A (zh) 基于对比相关的跨模态行人重识别方法
CN112906604A (zh) 一种基于骨骼和rgb帧融合的行为识别方法、装置及系统
CN110245611B (zh) 图像识别方法、装置、计算机设备和存储介质
Botzheim et al. Human gesture recognition for robot partners by spiking neural network and classification learning
CN113111767A (zh) 一种基于深度学习3d姿态评估的跌倒检测方法
CN110532948A (zh) 一种基于视频的高精度行人轨迹提取方法
Bhargavas et al. Human identification using gait recognition
Amrutha et al. Human Body Pose Estimation and Applications
CN108573197A (zh) 视频动作检测方法及装置
JP7342489B2 (ja) 重量推定装置、重量推定方法、および重量推定プログラム
JP6992900B2 (ja) 情報処理装置、制御方法、及びプログラム
CN111079481A (zh) 一种基于二维骨架信息的攻击性行为识别方法
JP7259921B2 (ja) 情報処理装置、及び制御方法
KR102181828B1 (ko) 4d리깅정보 복원장치 및 방법
Srinivasan et al. Object localization and navigation assistant for the visually challenged
Moutsis et al. Fall detection paradigm for embedded devices based on YOLOv8
CN106203266B (zh) 图像极值点的提取方法和装置
CN114972182A (zh) 一种物体检测方法及其装置

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20211015

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220615

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230814

R151 Written notification of patent or utility model registration

Ref document number: 7342489

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151